WO2010150892A1 - 携帯型電子機器、および携帯型電子機器の動作方法 - Google Patents

携帯型電子機器、および携帯型電子機器の動作方法 Download PDF

Info

Publication number
WO2010150892A1
WO2010150892A1 PCT/JP2010/060901 JP2010060901W WO2010150892A1 WO 2010150892 A1 WO2010150892 A1 WO 2010150892A1 JP 2010060901 W JP2010060901 W JP 2010060901W WO 2010150892 A1 WO2010150892 A1 WO 2010150892A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
image
map
display unit
Prior art date
Application number
PCT/JP2010/060901
Other languages
English (en)
French (fr)
Inventor
居波 晶子
神戸 雅己
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2009153001A external-priority patent/JP4757933B2/ja
Priority claimed from JP2009153010A external-priority patent/JP4757934B2/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US13/379,597 priority Critical patent/US8880338B2/en
Publication of WO2010150892A1 publication Critical patent/WO2010150892A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3688Systems comprising multiple parts or multiple output devices (not client-server), e.g. detachable faceplates, key fobs or multiple output screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management

Definitions

  • the present invention relates to an information providing technique using a portable electronic device.
  • Patent Document 1 image data including position information of a shooting point is input, map data including information of the shooting point is extracted, and the map search device outputs the map data to an image output device such as a display.
  • image data including position information of a shooting point is input, map data including information of the shooting point is extracted, and the map search device outputs the map data to an image output device such as a display.
  • a first object of the present invention is to provide a technique capable of improving the visibility of an image and a map related to the image.
  • the image data having the position information of the shooting point is used as information for extracting the map data of the destination, but is effectively used in association with the map to be output. It is not done.
  • a second object of the present invention is to provide a technique capable of using image data having position information in association with a map.
  • a portable electronic device includes a first housing having a first display portion, a second housing having a second display portion, image data, and a position associated with the image data.
  • the image is obtained from the current position based on the acquisition means for acquiring information, the position information acquisition means for acquiring current position information relating to the current position, and the position information and the current position information associated with the image data.
  • Guidance information acquisition means for acquiring a guidance map representing a route to a point indicated by the position information associated with data
  • display control means for controlling display contents in the first display section and the second display section, The display control means displays the guide map on the first display unit and displays an image based on the image data on the second display unit.
  • the portable electronic device is related to the first housing having the first display portion, the second housing having the second display portion, the image data, and the image data.
  • a storage means for storing the position information
  • a map acquisition means for acquiring a map including the predetermined position, and searching the image data associated with the position information in the predetermined area including the predetermined position from the image data.
  • Image search means, and display control means for controlling display contents in the first display section and the second display section, wherein the display control means displays the map on the first display section, and An image based on the image data searched by the search means is displayed on the second display unit.
  • the first aspect of the invention it is possible to improve the visibility of an image and a map related to the image.
  • FIG. 1 is a configuration diagram of a communication system SY1 including a portable electronic device 10 according to the first embodiment.
  • a case where the mobile phone 1A is employed as the portable electronic device 10 is illustrated.
  • 2 and 3 are diagrams showing an external configuration of the mobile phone 1A.
  • the communication system SY1 includes a mobile phone 1A, a communication network 5, the Internet 7, a server device 6, and a satellite 8, and guides a route from the current position to the destination on a map.
  • the mobile phone 1A provides the service to be performed.
  • the cellular phone 1 ⁇ / b> A is connected to a server device 6 on the content provider side and the Internet 7 via a communication network (mobile communication network) 5.
  • the mobile phone 1 ⁇ / b> A is configured to be able to receive a GPS signal from the satellite 8, and can identify the current position based on the GPS signal from the satellite 8.
  • the cellular phone 1 ⁇ / b> A has two housings 11 and 12.
  • the two casings 11 and 12 are connected by a mechanism that allows the relative positions of the two casings 11 and 12 to be displaced between an open state (open state) and a closed state (closed state).
  • 2 shows a mobile phone 1A in an open state in which one housing (for example, housing 12) is slid relative to the other housing (for example, housing 11), and
  • FIG. 3 shows a closed state. A mobile phone 1A is shown.
  • the casings 11 and 12 are provided with display units 15 and 16 such as a liquid crystal display and an organic EL display, respectively.
  • display units 15 and 16 such as a liquid crystal display and an organic EL display, respectively.
  • FIG. 4 is a block diagram showing a functional configuration of the mobile phone 1A.
  • the mobile phone 1 ⁇ / b> A includes a GPS receiver 101, a wireless transceiver 102, an imaging unit 103, an audio output unit 104, a first display unit 15, a second display unit 16, and a first display unit 15.
  • the touch panel 105 provided, the touch panel 106 provided on the second display unit 16, and the overall control unit 110 are provided.
  • the GPS receiving unit 101 has a function of receiving a GPS signal from the satellite 8 via an antenna and transmitting the GPS signal to the overall control unit 110.
  • the wireless transmission / reception unit 102 has a function capable of communicating with the server device 6 and the Internet 7 connected to the communication network 5 via an antenna.
  • the imaging unit 103 includes an imaging element (CCD or CMOS) that is a photoelectric conversion element, and acquires an image signal related to a subject image.
  • the image signal generated by the image sensor is subjected to A / D conversion, image processing, and the like, and then stored as a captured image in the storage unit 107, for example.
  • the voice output unit 104 has a function of converting voice data from the overall control unit 110 into voice and outputting the voice to the outside. For example, in navigation mode (described later), voice for route guidance is output.
  • the display screens of the first display unit 15 and the second display unit 16 are provided with transmissive touch panels (also simply referred to as “touch panels”) 105 and 106 that function as operation units.
  • the touch panels 105 and 106 can detect a touch position (contact position) by the user, and the user inputs an instruction corresponding to the symbol displayed on the display units 15 and 16 to the mobile phone 1A via the touch panel 105 and 106. can do.
  • the overall control unit 110 is configured as a microcomputer and mainly includes a CPU 110A, a RAM 110B, a ROM 110C, and the like.
  • the overall control unit 110 implements various functions by reading a program stored in the ROM 110C and executing the program by the CPU 110A.
  • the shooting control unit 111 has a function of controlling a shooting operation using the imaging unit 103 in a shooting mode when shooting a subject.
  • the operation content recognition unit 112 has a function of recognizing the user operation content based on the display content of the display units 15 and 16 and the touch position of the touch panels 105 and 106.
  • the display control unit 113 controls display contents on the display units 15 and 16. For example, the display control unit 113 causes the display unit 15 (or the display unit 16) to display each image stored in the storage unit 107 in an image display mode in which image data stored in the storage unit 107 is displayed.
  • the state detection unit 114 detects the state of the mobile phone 1A according to the sliding state of the casings 11 and 12 constituting the mobile phone 1A.
  • the state detection unit 114 detects an open state in which the two display units 15 and 16 can be viewed and a closed state in which the second display unit 16 cannot be viewed.
  • the location information acquisition unit 115 acquires information on the current location (also referred to as “current location information”) based on the GPS signal received by the GPS reception unit 101.
  • the guidance information acquisition unit 116 is a functional unit realized, for example, by executing navigation software.
  • a guidance map representing a route (guidance route) from the current position (current location) to the destination is used as guidance information. get.
  • the guide map may be generated and acquired by the guide information acquisition unit 116 based on information on the destination (destination information) and the current position information. It is good also as an aspect acquired.
  • the guide information acquisition unit 116 guides on the map data stored in advance in the storage unit 107 (or ROM 110C) based on the destination information and the current position information. A route is specified, and map data including the guidance route is generated.
  • the map data is not limited to the mode acquired from the storage unit 107, and may be acquired from the Internet 7.
  • the guide information acquisition unit 116 transfers the destination information and the current position information to the server device 6 and downloads a guide map including the guide route from the server device 6. get.
  • FIG. 5 is a flowchart showing the operation of the mobile phone 1A in the navigation mode.
  • FIG. 6 is a diagram showing a selection screen for selecting an image.
  • FIG. 7 is a diagram showing display changeability data stored as a data table. 8 and 9 are diagrams showing display modes on the display units 15 and 16 of the mobile phone 1A.
  • the destination information is input to the mobile phone 1A, and a guidance map to the destination is displayed.
  • the destination information can be input by, for example, directly inputting the address of the destination to the mobile phone 1A or designating the destination on the map.
  • the location information (“ Destination information is input by the user specifying image data having “related position information”. That is, here, a case where a guidance map to a destination is displayed with a point indicated by position information associated with image data as a destination is illustrated.
  • the image data having the related position information is, for example, an image file based on the Exif standard generated by a digital still camera.
  • the image file is generated by associating additional information (also referred to as “Exif information”) such as a shooting point, shooting date and time, and shooting conditions with a shot image when shooting is performed with a digital still camera.
  • additional information also referred to as “Exif information”
  • the related position information may include information related to the shooting point at the time of shooting, or may include information related to the position where the subject exists. It is assumed that each piece of information related to the shooting point and the subject location is added by the user after shooting.
  • an image is displayed on the first display unit 15 by the display control unit 113 in step SP11.
  • an image display mode for example, a display mode in which a plurality of reduced images are displayed side by side on the screen of the first display unit 15 as shown in FIG. 6 can be adopted.
  • the image displayed on the first display unit 15 in step SP11 may be an image stored in advance in the storage unit 107 or an image acquired in real time from the outside (Internet 7 or the like) via the communication network 5.
  • the image stored in advance in the storage unit 107 may be an image captured by the user with the mobile phone 1 ⁇ / b> A or an image acquired by the user from the outside via the communication network 5.
  • the image data acquisition means included in the mobile phone 1A includes imaging means realized by the imaging unit 103 and the imaging control unit 111, and data acquisition means realized by external communication using the wireless transmission / reception unit 102. .
  • step SP12 it is determined whether or not an image having related position information (also referred to as “image with position information”) is selected from the displayed images by a touch operation (tap) on the display surface. If the image with position information is not selected, the destination information has not been input. Therefore, the process proceeds to step SP14 without performing the guidance operation to the destination, and an image display based on the image selection is performed. Normal processing is executed. On the other hand, when the image with position information is selected by the touch operation, the operation process moves to step SP13.
  • image having related position information also referred to as “image with position information”
  • step SP13 it is determined whether or not the display content of the second display unit 16 can be changed.
  • the determination of whether or not the display can be changed (display change enable / disable determination) can be made based on the display change enable / disable data HD stored in the ROM 110C.
  • the display change availability data HD may be stored as a data table as shown in FIG. 7, for example.
  • the display change permission / inhibition data HD shown in FIG. 7 when information regarding the application software AP1, AP3, AP4, AP6 is displayed on the second display unit 16, the display change “permitted” is set, and the application software AP2, When information regarding AP5 is displayed on the second display unit 16, the display change is set to “impossible”.
  • step SP13 If it is determined in step SP13 that the display on the second display unit 16 cannot be changed, the normal process of step SP14 is executed without performing the guidance operation to the destination. On the other hand, when it is determined that the display change of the second display unit 16 is possible, the operation process proceeds to step SP15.
  • step SP15 the display content of the second display unit 16 is changed by the display control unit 113, and the selected image (selected image) is displayed on the second display unit 16.
  • the selected image selected image
  • the image SG6 is enlarged and displayed on the second display unit 16.
  • step SP16 the destination information is acquired from the selected image. Specifically, position information associated with the image data of the selected image is acquired as destination information.
  • step SP17 the current position information is acquired by the position information acquisition unit 115.
  • step SP18 the map data is acquired by the guide information acquisition unit 116.
  • step SP19 the guide information acquisition unit 116 specifies the guide route to the destination (here, the point indicated by the related position information) on the map data. Then, map data including the guidance route is generated.
  • step SP20 the display control unit 113 displays a map including the guide route on the first display unit 15. Specifically, as shown in FIG. 9, a map MA including a guide route KR from the current location CP to the destination MP (a point obtained from the related position information of the image SG6) is displayed on the first display unit 15. Is done.
  • next step SP21 it is determined whether or not the navigation mode is continued. If the navigation mode is not continued, the operation of the mobile phone 1A in the navigation mode is terminated. On the other hand, when the navigation mode is continued, the operation process moves to step SP17. That is, while the navigation mode is continued, the processing from step SP17 to step SP21 is repeatedly executed in the mobile phone 1A.
  • the map MA including the guide route KR from the current location CP to the destination MP is displayed on the first display unit 15 and the image SG6 photographed at the destination is displayed on the second display unit 16. According to this, since the user can view the image and the map related to the image at the same time, the visibility can be improved.
  • the map and the image can be separately displayed on different screens, so that the visibility of the map and the image is improved. Can be further improved.
  • Second Embodiment> Next, a second embodiment will be described. In the first embodiment, it is assumed that the mobile phone 1A is always open. However, in the second embodiment, display control of the second display unit 16 is performed according to the slide state of the mobile phone 1B. .
  • the cellular phone 1B according to the second embodiment has substantially the same structure and function (see FIGS. 1 to 4) as the cellular phone 1A, and common portions are denoted by the same reference numerals and described. Omitted.
  • FIG. 10 is a flowchart showing the operation of the mobile phone 1B in the navigation mode.
  • FIG. 11 is a diagram illustrating a display mode of the display unit according to the sliding state of the mobile phone 1B.
  • step SP31 an image is displayed on the first display unit 15 by the display control unit 113 (see FIG. 4).
  • step SP32 it is determined whether or not an image having related position information is selected from the displayed images by a touch operation on the display surface. If the image with position information is not selected, the destination information has not been input. Therefore, the process proceeds to step SP33 without performing the guidance operation to the destination, and image display based on the image selection is performed. Normal processing is executed. On the other hand, when the image with position information is selected by the touch operation, the operation process moves to step SP34.
  • step SP34 position information associated with the image data of the selected image is acquired as destination information.
  • step SP35 the state detection unit 114 performs state detection according to the sliding state of the mobile phone 1B. If it is determined in step SP35 that it is not in the open state (closed state), the operation process skips step SP36 and proceeds to step SP37. In addition, when it determines with it being a closed state, the display of the 2nd display part 16 is turned off automatically.
  • step SP35 determines whether it is in the open state. If it is determined in step SP35 that it is in the open state, the operation process moves to step SP36.
  • step SP36 the display control unit 113 displays the selected image on the second display unit 16 in an enlarged manner.
  • step SP37 the position information acquisition unit 115 acquires the current position information.
  • step SP38 the map information is acquired by the guide information acquisition unit 116.
  • step SP39 the guide information acquisition unit 116 specifies the guide route to the destination on the map data, and the map data including the guide route is obtained. Generated.
  • step SP40 the display control unit 113 displays a map including the guide route on the first display unit 15.
  • next step SP41 it is determined whether or not the navigation mode is continued. If the navigation mode is not continued, the operation of the mobile phone 1B in the navigation mode is terminated. On the other hand, when the navigation mode is continued, the operation process moves to step SP35. That is, while the navigation mode is continued, the processing from step SP35 to step SP41 is repeatedly executed in the mobile phone 1B.
  • the selected image is displayed on the second display unit 16 in response to the detection of the open state.
  • the map MA including the guide route KR is displayed on the first display unit 15, and when the open state ST2 is entered, the guide map MA is displayed on the first display unit 15. Is displayed, and the selection image SG6 is displayed on the second display unit 16. According to this, in the open state, the user can view the map and the image at the same time, which improves convenience.
  • FIG. 12 is a block diagram showing a functional configuration of the mobile phone 1C according to the third embodiment.
  • the cellular phone 1C according to the third embodiment has substantially the same structure and function (see FIGS. 1 to 4) as the cellular phone 1A, and common portions are denoted by the same reference numerals and described. Omitted.
  • an image search unit 117 is further realized in the overall control unit 110 of the mobile phone 1C.
  • the image search unit 117 searches the image data associated with the position information around the destination from the image data having the related position information stored in the storage unit 107. It has a function.
  • the image search area may be an area set in advance by the user. For example, an area within a predetermined range centering on the destination can be employed.
  • FIG. 13 is a flowchart showing the operation of the mobile phone 1C in the navigation mode.
  • step SP51 it is determined whether or not destination information has been input to the mobile phone 1C.
  • the process proceeds to step SP52, and when it is not input, the standby state is entered.
  • the destination is input by inputting the address of the destination location or specifying the destination on the map.
  • step SP52 the position information acquisition unit 115 acquires the current position information.
  • step SP53 the map data is acquired by the guidance information acquisition unit 116.
  • step SP54 the guidance information acquisition unit 116 specifies the guidance route to the input destination on the map data, and includes the guidance route. Map data is generated.
  • step SP55 the display control unit 113 displays a map including the guide route on the first display unit 15.
  • step SP56 the state detection unit 114 performs state detection according to the sliding state of the mobile phone 1C. If it is determined in step SP56 that it is not in an open state (closed state), the operation process moves to step SP60.
  • step SP56 when it is determined in step SP56 that it is in the open state, the operation process moves to step SP57.
  • step SP57 the image search unit 117 searches the image stored in the storage unit 107 for an image having related position information around the destination (also referred to as “peripheral image”).
  • the search for the peripheral image is performed based on whether or not the point specified by the related position information included in the image data is included in the search area.
  • the image search around the destination is performed after the detection of the open state, but may be performed before the detection of the open state (before step SP56).
  • step SP58 it is determined whether or not a peripheral image has been found (extracted) from the image data stored in the storage unit 107.
  • the operation process moves to step SP60.
  • the operation process moves to step SP59.
  • step SP59 the display control unit 113 displays a peripheral image on the second display unit 16.
  • next step SP60 it is determined whether or not the navigation mode is continued. If the navigation mode is not continued, the operation of the mobile phone 1C in the navigation mode is terminated. On the other hand, when the navigation mode is continued, the operation process moves to step SP52. That is, while the navigation mode is continued, the processing from step SP52 to step SP60 is repeatedly executed in the mobile phone 1C.
  • the destination information related to the destination is input by the user, and a map including the guide route from the current location to the input destination is displayed on the first display unit 15. Then, a peripheral image having related position information around the destination is searched, and the peripheral image is displayed on the second display unit 16 in the open state. According to this, in the open state, the user can view the map and the image around the destination at the same time, which improves convenience.
  • FIG. 15 is a configuration diagram of a communication system SY2 including the portable electronic device 1010 according to the fourth embodiment.
  • a case where a mobile phone 1001A is employed as the portable electronic device 1010 is illustrated.
  • 16 and 17 are diagrams showing an external configuration of the mobile phone 1001A.
  • the communication system SY2 includes a mobile phone 1001A, a communication network 1005, the Internet 1007, a server device 1006, and a satellite 1008.
  • the mobile phone 1001A provides various services using a map. To do.
  • the cellular phone 1001A is connected to a server device 1006 on the content provider side and the Internet 1007 via a communication network (mobile communication network) 1005. Further, the cellular phone 1001A is configured to be able to receive a GPS signal from the satellite 1008, and can identify the current position based on the GPS signal from the satellite 1008.
  • the mobile phone 1001A has two housings 1011 and 1012.
  • the two housings 1011 and 1012 are connected by a mechanism that allows the relative positions of the two housings 1011 and 1012 to be displaced between an open state (open state) and a closed state (closed state).
  • FIG. 16 shows a mobile phone 1001A in an open state in which one housing (eg, the housing 1012) is slid relative to the other housing (eg, the housing 1011), and
  • FIG. 17 shows a closed state.
  • a mobile phone 1001A is shown.
  • the housings 1011 and 1012 are provided with display units 1015 and 1016 such as a liquid crystal display and an organic EL display, respectively.
  • display units 1015 and 1016 such as a liquid crystal display and an organic EL display, respectively.
  • the user can visually recognize the display units 1015 and 1016 provided in the housings 1011 and 1012, respectively.
  • the second display unit 1016 is hidden by the housing 1011 and thus the user cannot visually recognize the second display unit 1016.
  • FIG. 18 is a block diagram illustrating a functional configuration of the mobile phone 1001A.
  • FIG. 19 is a diagram illustrating a storage format of image data with position information in the storage unit.
  • the mobile phone 1001A includes a GPS receiver 1101, a wireless transceiver 1102, an imaging unit 1103, an audio output unit 1104, a first display unit 1015, a second display unit 1016, and a first display unit 1015.
  • a touch panel 1105 provided, a touch panel 1106 provided on the second display unit 1016, an overall control unit 1110, and the like are provided.
  • the GPS reception unit 1101 has a function of receiving a GPS signal from the satellite 1008 via an antenna and transmitting the GPS signal to the overall control unit 1110.
  • the wireless transmission / reception unit 1102 has a function capable of communicating with the server apparatus 1006 and the Internet 1007 connected to the communication network 1005 via an antenna.
  • the imaging unit 1103 includes an imaging element (CCD or CMOS) that is a photoelectric conversion element, and acquires an image signal related to the subject image.
  • the image signal generated by the image sensor is subjected to A / D conversion, image processing, and the like, and then stored as a captured image in the storage unit 1107, for example.
  • the voice output unit 1104 has a function of converting voice data from the overall control unit 1110 into voice and outputting the voice to the outside.
  • a transparent touch panel (also simply referred to as “touch panel”) 1105 and 1106 functioning as an operation unit is provided on each display surface of the first display unit 1015 and the second display unit 1016.
  • Touch panels 1105 and 1106 can detect a touch position (contact position) by the user, and the user inputs an instruction corresponding to a symbol displayed on display units 1015 and 1016 to mobile phone 1001A via touch panels 1105 and 1106. I can do it.
  • the overall control unit 1110 is configured as a microcomputer and mainly includes a CPU 1110A, a RAM 1110B, a ROM 1110C, and the like.
  • the overall control unit 1110 implements various functions by reading a program stored in the ROM 1110C and executing the program by the CPU 1110A.
  • the imaging control unit 1111, the operation content recognition unit 1112, the display control unit 1113, the state detection unit 1114, the position information acquisition unit 1115, the map acquisition unit (map generation unit) 1116, and the image search unit 1117 are controlled overall. Functions realized by executing a program in the unit 1110 are expressed as functional blocks.
  • the shooting control unit 1111 has a function of controlling a shooting operation using the imaging unit 1103 in a shooting mode when shooting a subject.
  • the operation content recognition unit 1112 has a function of recognizing the user operation content based on the display content of the display units 1015 and 1016 and the touch position of the touch panels 1105 and 1106.
  • the display control unit 1113 controls display contents on the display units 1015 and 1016.
  • the display control unit 1113 causes the display unit 1015 (or the display unit 1016) to display each image stored in the storage unit 1107 in an image display mode in which image data stored in the storage unit 1107 is displayed.
  • the state detection unit 1114 detects the state of the mobile phone 1001A according to the sliding state of the casings 1011 and 1012 constituting the mobile phone 1001A.
  • the state detection unit 1114 detects an open state in which two display units 1015 and 1016 can be visually recognized and a closed state in which one display unit 1015 can be visually recognized.
  • the location information acquisition unit 1115 acquires information on the current location (current location) (also referred to as “current location information”) based on the GPS signal received by the GPS receiver 1101.
  • the map acquisition unit 1116 is a functional unit realized, for example, by executing navigation software, and acquires a map including a predetermined point on the map.
  • the map acquisition unit 1116 also has a function of acquiring (generating) a map (guide map) to which the guide information at the predetermined point is added. In the present embodiment, the case where the current position acquired by the position information acquisition unit 1115 is set as the predetermined point on the map is illustrated.
  • the image search unit 1117 selects a predetermined region (“search region” or “search range” on the map from image data having associated position information (also referred to as “related position information”) stored in the storage unit 1107. It also has a function of searching for image data having position information. Specifically, the image search unit 1117 sets a search area to be searched on the map based on the current position information acquired by the position information acquisition unit 1115 and a preset search distance. Then, based on the set search area and the position information associated with the image data, the image search unit 1117 selects the point indicated by the position information from the image data stored in the storage unit 1107. The image data contained in is extracted.
  • search region or “search range” on the map from image data having associated position information (also referred to as “related position information”) stored in the storage unit 1107. It also has a function of searching for image data having position information. Specifically, the image search unit 1117 sets a search area to be searched on the map based on the current position information acquired by the position information acquisition unit 1115 and a
  • the image data having the related position information is, for example, an image file based on the Exif standard generated by a digital still camera.
  • the image file is generated by associating additional information (also referred to as “Exif information”) such as a shooting point, shooting date and time, and shooting conditions with a shot image when shooting is performed with a digital still camera.
  • additional information also referred to as “Exif information”
  • the related position information may include information related to the shooting point at the time of shooting, or may include information related to the position where the subject exists. It is assumed that each piece of information related to the shooting point and the subject location is added to the image data by the user after shooting.
  • the image data stored in the storage unit 1107 may be image data obtained by photographing by the user with the mobile phone 1001A.
  • the related position information and the image data may be associated with each other to form a data table.
  • the image data stored in the storage unit 1107 may be an image acquired from an external website by the user via the communication network 1005.
  • the image data with position information is stored in the storage unit 1107 through the following steps shown in FIG.
  • FIG. 20 is a flowchart showing an operation when acquiring image data with position information from a Web site.
  • Step 1 SP1011 when an image with position information is selected by a touch panel operation in a state where image data on a website is displayed on a display unit (for example, the first display unit 1015) by starting a browser (Step 1 SP1011), the operation process proceeds to step SP1012.
  • step SP1012 the selected image with position information (selected image) is stored in the storage unit 1107.
  • step SP1013 it is determined whether or not the browser has been activated. If the browser has not been activated, the image data storage process from the website is terminated. On the other hand, when the browser is continuously activated, the operation process proceeds to step SP1011. In other words, while the browser is continuously activated, the steps SP1011 to SP1013 are repeatedly executed, and the acquisition of image data with position information from the Web site is continuously performed.
  • the image data with position information when the image data with position information is stored in the storage unit 1107 in step SP1012, the image data with position information may be stored as it is, and the position information is extracted as shown in FIG. A data table may be stored.
  • FIG. 21 is a flowchart showing the operation of the mobile phone 1001A in the navigation mode.
  • FIG. 22 is a diagram showing a display mode on the first display unit 1015 of the mobile phone 1001A.
  • FIG. 23 and FIG. 24 are diagrams showing display modes in the display units 1015 and 1016 of the mobile phone 1001A.
  • step SP1021 in the mobile phone 1001A, it is determined in step SP1021 whether or not the navigation mode is being executed.
  • the operation process moves to step SP1022, and when the navigation mode is not being executed, the operation of the mobile phone 1001A in the navigation mode is ended.
  • step SP1022 the position information acquisition unit 1115 acquires the current position information.
  • the image search unit 1117 sets a search area.
  • the search area is set on a map displayed on the first display unit 1015 based on a preset search distance and current position information.
  • an area surrounded by a circle formed when the current position is the center of the circle and the search distance is the radius of the circle is set as a search area on the map.
  • step SP1024 image data (also referred to as “neighboring image” or “peripheral image”) associated with position information in the search area from the image data stored in the storage unit 1107 by the image search unit 1117. Searched.
  • the search for the neighborhood image is performed based on whether or not the point specified by the related position information included in the image data is included in the search area.
  • the image data extracted by such a neighborhood image search process is used as guide information at the current position.
  • step SP1025 it is determined whether a neighboring image has been found (extracted) from the image data stored in the storage unit 1107. When the neighborhood image is not found, the operation process moves to step SP1021. On the other hand, if a neighborhood image is found, the operation process moves to step SP1026.
  • step SP1026 the map acquisition unit 1116 adds information indicating that a neighborhood image has been found to the map data, and acquires a guidance map.
  • the display control unit 1113 displays the guidance map on the first display unit 1015.
  • a map MA101 including a display CP10 indicating the current position and a display NH101 indicating that a neighboring image has been found (also referred to as “notification display”) is displayed on the first display unit. 1015 is displayed.
  • an icon in a mode indicating the position of the found neighboring image is used as the notification display NH101.
  • the point indicated by the related position information of the image data related to the neighboring image is shown on the map in the guidance map.
  • step SP1028 the state detection unit 1114 determines whether or not the mobile phone 1001A is in an open state. If it is determined not to be in the open state, the operation process moves to step SP1021. On the other hand, when it determines with it being an open state, an operation
  • step SP1029 the vicinity image searched by the display control unit 1113 is displayed on the second display unit 1016.
  • the neighborhood image KG101 is displayed on the second display unit 1016.
  • the neighboring image KG101 is controlled to be displayed on the second display unit 1016 in response to the detection of the open state, so that the user can change from the closed state to the open state, The neighboring image KG101 can be visually recognized.
  • the display mode of the second display unit 1016 is not limited to the mode illustrated in FIG. 23, and as illustrated in FIG. 24, in addition to the neighboring image KG101, additional information HF10 related to the subject of the neighboring image KG101 is further displayed. Also good.
  • step SP1029 When step SP1029 is completed, the operation process moves to step SP1021.
  • the cellular phone 1001A searches the image data having the related position information stored in the storage unit 1107 for the image data having the related position information near the current position, and the related position near the current position.
  • image data having information exists, an image based on the image data having related position information near the current position is displayed on the second display unit 1016. According to this, it is possible to use image data having related position information in association with a map, and user convenience is improved.
  • a guide map representing the point indicated by the related position information of the searched image data is acquired, and the guide map is displayed on the first display unit 1015. According to this, it is possible to use image data having related position information in further association with a map.
  • the image data stored in the storage unit 1107 is an image in which the user is interested in the past or the present.
  • the map and the image can be separately displayed on different screens, so that the visibility of the map and the image is improved. Can be improved.
  • the image in the vicinity of the current position acquired by the position information acquisition unit 1115 is acquired as guidance information.
  • a point specified by the user on the map (“specified point” ”Or“ designated position ”) near the image is acquired as the guidance information.
  • the cellular phone 1001B according to the fifth embodiment has substantially the same structure and function as those of the cellular phone 1001A (see FIGS. 15 to 18), and common portions are denoted by the same reference numerals and described. Omitted.
  • FIG. 25 is a flowchart showing the operation of the mobile phone 1001B in the navigation mode.
  • FIG. 26 is a diagram showing a display mode on the first display unit 1015 of the mobile phone 1001B.
  • FIG. 27 is a diagram illustrating a display mode in each of the display units 1015 and 1016 of the mobile phone 1001B.
  • the cellular phone 1001B determines whether or not the navigation mode is being executed in step SP1051. If the navigation mode is being executed, the operation process moves to step SP1052, and if the navigation mode is not being executed, the operation of the mobile phone 1001B in the navigation mode is ended.
  • step SP1052 it is determined whether or not a position is specified by the user on the first display unit 1015 on which a map is displayed.
  • the position designation is performed by a touch operation on the display surface of the first display unit 1015, and the operation content recognition unit 1112 is based on the map displayed on the first display unit 1015 and the touch position detected by the touch panel 1105. Identifies a specified point on the map.
  • the search area is set by the image search unit 1117.
  • the search area is set based on a preset search distance and a designated point. For example, when the search distance is set to 100 meters, an area defined by a circle with a radius of 100 meters centered on the designated point is set as a search area on the map.
  • the image search unit 1117 searches the image data stored in the storage unit 1107 for image data associated with position information in the search area (also referred to as “peripheral image”).
  • the search for the peripheral image is performed based on whether or not the point specified by the related position information included in the image data is included in the search area. Then, the image data extracted by such a peripheral image search process is used as guide information at the designated point.
  • step SP1055 it is determined whether or not a peripheral image has been found (extracted) from the image data stored in the storage unit 1107. If no surrounding image is found, the operation process moves to step SP1051. On the other hand, if a peripheral image is found, the operation process moves to step SP1056.
  • step SP1056 the map acquisition unit 1116 adds information indicating that a peripheral image has been found to the map data, and acquires a guidance map.
  • step SP1057 the display control unit 1113 displays the guidance map on the first display unit 1015.
  • a map NH102 including a display (notification display) NH102 indicating that a peripheral image of the designated point TP10 is found together with the display TP10 indicating the designated point is displayed on the first display unit. 1015 is displayed.
  • an icon in a mode indicating the position of the found peripheral image is used as the notification display NH102.
  • step SP1058 the state detection unit 1114 determines whether or not the mobile phone 1001B is in an open state. If it is determined not to be in the open state, the operation process moves to step SP1051. On the other hand, when it determines with it being an open state, an operation
  • step SP1059 the searched peripheral image is displayed on the second display unit 1016 by the display control unit 1113. Specifically, as shown in FIG. 27, the peripheral image KG102 is displayed on the second display unit 1016.
  • step SP1059 ends, the operation process moves to step SP1051.
  • the mobile phone 1001B searches the image data stored in the storage unit 1107 for image data having related position information near the specified position specified by the user, and related position information near the specified position.
  • image data having “” an image based on the image data having related position information near the designated position is displayed on the second display unit 1016. According to this, it is possible to use image data having related position information in association with a map, and user convenience is improved.
  • a guide map representing the point indicated by the related position information of the searched image data is acquired, and the guide map is displayed on the first display unit 1015. According to this, it is possible to use image data having related position information in further association with a map. In addition, since the user can acquire information on a desired place before moving, the user can easily make a plan to stop at a place that the user is interested in before moving or a place that matches the user's preference.
  • a guide route to the destination is displayed on the map, and the guide route is changed by selecting a surrounding image.
  • the cellular phone 1001C according to the sixth embodiment has substantially the same structure and function (see FIGS. 15 to 18) as the cellular phone 1001A, and common portions are denoted by the same reference numerals and are described. Omitted.
  • FIG. 28 is a flowchart showing the operation of the mobile phone 1001C in the navigation mode.
  • FIG. 29 is a diagram showing a display mode on the first display unit 1015 of the mobile phone 1001C.
  • FIG. 30 is a diagram illustrating a display mode in each of the display units 1015 and 1016 of the mobile phone 1001C.
  • the cellular phone 1001C determines whether or not the navigation mode is being executed in step SP1081. When the navigation mode is being executed, the operation process proceeds to step SP1082, and when the navigation mode is not being executed, the operation of the mobile phone 1001C in the navigation mode is ended.
  • step SP1082 it is determined whether or not the destination information related to the destination has been input by the user. If the destination information is not input, the operation process moves to step SP1081, and the operation of step SP1081 is executed again. On the other hand, when the destination information is input, the operation process moves to step SP1083.
  • step SP1083 the position information acquisition unit 1115 acquires the current position information.
  • the image search unit 1117 sets a search area.
  • the search area is set on a map displayed on the first display unit 1015 based on a preset search distance and current position information.
  • an area surrounded by a circle formed when the current position is the center of the circle and the search distance is the radius of the circle is set as a search area on the map.
  • step SP1085 image data (also referred to as “neighboring image” or “peripheral image”) associated with position information in the search area from the image data stored in the storage unit 1107 by the image search unit 1117. Searched.
  • the search for the neighborhood image is performed based on whether or not the point specified by the related position information included in the image data is included in the search area.
  • the image data extracted by such a neighborhood image search process is used as guide information at the current position.
  • step SP1086 it is determined whether a neighboring image has been found (extracted) from the image data stored in the storage unit 1107. If a neighboring image is not found, the operation process moves to step SP1081. On the other hand, if a neighborhood image is found, the operation process moves to step SP1087.
  • step SP1087 information indicating that a neighborhood image has been found and a route (guide route) KR10 to the destination are added to the map data, and the map acquisition unit 1116 acquires the guide map.
  • the display control unit 1113 displays the guidance map on the first display unit 1015.
  • a map MA103 including a current position CP10 and a display (also referred to as “notification display”) NH103 indicating that a neighboring image has been found and a route KR10 to the destination MP10 is displayed.
  • a route KR10 to the destination MP10 is displayed.
  • an icon in a mode representing a point indicated by the related position information of the detected neighboring image is used as the notification display NH103.
  • step SP1089 the operation content recognition unit 1112 determines whether or not the neighborhood image displayed on the first display unit 1015 has been selected by the user.
  • the selection of the neighborhood image is performed, for example, by touching the notification display NH103. If it is determined that the neighboring image has not been selected, the operation process proceeds to step SP1092. On the other hand, if it is determined that the neighborhood image has been selected, the operation process proceeds to step SP1090.
  • step SP1090 the map acquisition unit 1116 changes the guide map. Specifically, the guide route is changed so as to go to the destination via the point indicated by the related position information included in the selected neighborhood image.
  • step SP1091 the display control unit 1113 displays the changed guide map on the first display unit 1015. Specifically, as shown in FIG. 30, a map MA104 including a route KS10 to the destination MP10 when passing through the point KP10 indicated by the notification display NH103 in FIG. 29 is displayed on the first display unit 1015.
  • step SP1092 the state detection unit 1114 determines whether or not the mobile phone 1001C is in an open state. If it is determined not to be in the open state, the operation process moves to step SP1081. On the other hand, when it determines with it being an open state, an operation
  • step SP1093 the display control unit 1113 displays the searched neighboring image on the second display unit 1016. Specifically, as shown in FIG. 30, the neighborhood image KG101 is displayed on the second display unit 1016.
  • step SP1093 ends, the operation process moves to step SP1081.
  • the route to the destination is changed based on the related position information of the selected neighboring image, and the changed route is displayed. Is displayed on the first display unit 1015. According to this, the convenience for the user can be further improved.
  • a map including a guide route is displayed on the first display unit 15 and an image photographed at the destination is displayed on the second display unit 16. It is not limited to this.
  • an image taken at the destination may be displayed on the first display unit 15, and a map including a guide route may be displayed on the second display unit 16.
  • FIG. 14 is a flowchart showing the display content switching operation by the touch panel operation.
  • step SP71 when contact with the touch panel is detected, in step SP71, the operation content recognition unit 112 causes the operation on the touch panel to be paid downward on the first display unit 15. It is determined whether or not the operation (also referred to as “flick”). Specifically, in the open state in which the first display unit 15 and the second display unit 16 are arranged side by side, the payment operation executed on the touch panel 105 provided in the first display unit 15 is performed by the first display unit. It is determined whether or not the operation is in a direction from 15 to the second display unit 16. If it is a downward payment operation, the operation process moves to step SP73. On the other hand, if the payment operation is not downward, the operation process moves to step SP72.
  • step SP72 the operation content recognition unit 112 causes the operation on the touch panel to be upward in the second display unit 16 (specifically, in the direction from the second display unit 16 toward the first display unit 15). It is determined whether or not. If it is an upward payment operation, the operation process moves to step SP72. On the other hand, if it is not an upward paying operation, the operation process moves to step SP76, and normal touch panel detection processing is performed.
  • step SP73 it is determined whether or not an image is displayed on the first display unit 15 and a map is displayed on the second display unit 16.
  • the operation process moves to step SP75.
  • the display content determination in step SP73 if it is determined that the determination condition is not satisfied, the operation process moves to step SP74.
  • step SP74 a display content determination is performed as to whether or not a map is displayed on the first display unit 15 and an image is displayed on the second display unit 16.
  • the operation process moves to step SP75.
  • the operation process moves to step SP76, and normal touch panel detection processing is performed.
  • step SP73 if the determination condition is satisfied, the display control unit 113 performs display content replacement processing in step SP75.
  • the map is displayed on the first display unit 1015 and the image is displayed on the second display unit 1016.
  • the present invention is not limited to this.
  • the display content of the display unit may be switched, an image may be displayed on the first display unit 1015, and a map may be displayed on the second display unit 1016.
  • the operation mode in which the map display is not performed before the search for the surrounding image is illustrated, but the present invention is not limited to this.
  • a normal map without guidance information is displayed on the first display unit 1015. May be.
  • the image data acquired from the Web site is illustrated as a data table and stored in the storage unit 1107.
  • the present invention is not limited to this.
  • the image data with position information may be saved as a file in a storage area different from the storage unit 1107, and the file path may be saved in the storage unit 1107.
  • the image selected by the touch panel operation is stored in the storage unit 1107.
  • the present invention is not limited to this. Instead, when an image with position information is displayed on the browser, image data relating to the displayed image may be stored in the storage unit 1107.
  • the image size may be resized to compress the capacity of the image data. According to this, it is possible to reduce the use area of the storage unit 1107 used for storing the image data with position information.
  • the peripheral image is searched from the image data with position information stored in the storage unit 1107.
  • the present invention is not limited to this.
  • the peripheral image may be searched using a predetermined server device that can search the image data based on the position information associated with the image data.
  • position information related to the current position or the designated point is input to the predetermined server device via the communication network 1005, and a search for surrounding images is performed in the predetermined server device.
  • the mobile phone acquires a search result by the predetermined server device via the communication network 1005 and causes the first display unit 1015 to display the search result.
  • the discovery of the peripheral image is communicated to the user by display on a map.
  • the present invention is not limited to this.
  • the user may be notified of the finding of the surrounding image by blinking the display units 1015 and 1016.
  • the blinking interval of the display units 1015 and 1016 may be changed according to the distance between the current position and the point indicated by the related position information of the peripheral image.
  • sound may be output from the sound output unit 1104 to notify the user of the discovery of the surrounding image.
  • an icon is displayed on the map to notify the user of the discovery of the peripheral image.
  • the size of the displayed icon and / or the transparency of the icon may be changed according to the distance between the current position (designated position in the fifth embodiment) and the point indicated by the related position information of the peripheral image.
  • FIG. 31 and FIG. 32 are diagrams showing display modes on the display units 1015 and 1016 of the mobile phone according to the modification.
  • a display NHW10 indicating that a plurality of surrounding images are found, and related position information of each surrounding image And a guide map MA110 including displays HQ101 to HQ105 are displayed on the first display unit 1015. Further, in this case, in the open state, a list GR10 of a plurality of discovered peripheral images is displayed on the second display unit 1016.
  • the second display unit 1016 displays the selected peripheral image KG101 and the first display unit 1015 as shown in FIG. Then, the display HQ102 indicating the related position information of the selected peripheral image may be left, and the display regarding other peripheral images may be deleted.
  • an open state is displayed while displaying a guidance map reflecting the search result on the first display unit 1015.
  • an operation mode for displaying a peripheral image is included, but a different operation mode may be used.
  • the searched peripheral image is displayed on the second display unit 1016 without displaying a guidance map reflecting the search result.
  • a map reflecting the search result may be displayed when a peripheral image is selected.
  • the neighborhood image is searched when the navigation mode is executed.
  • the present invention is not limited to this, and the current position information can be acquired by the position information acquisition unit 1115.
  • the neighborhood image may be searched. And when a neighborhood image is discovered, you may display a neighborhood image on the 1st display part 1015 (or 2nd display part 1016). Note that whether or not to perform the neighborhood image search operation when the navigation mode is not executed may be determined according to the application activated on the mobile phone 1001A.
  • the search area on the map set when searching for image data from the storage unit 1107 is set based on a preset search distance.
  • the search area may be changed according to the moving speed of the user.
  • the movement amount of the user per unit time is calculated, and the moving speed of the user is specified. If the user's moving speed is relatively slow, for example, it is assumed that the user is moving on foot or the like, the search distance is set short (for example, 500 m). On the other hand, when it is assumed that the moving speed of the user is relatively high, for example, the user is moving by a car or the like, the search distance is set to be long (for example, 2 km).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)

Abstract

 画像、および当該画像に関連する地図の視認性を向上させることが可能な技術を提供する。携帯電話機1Aは、第1表示部15を有する第1筐体と、第2表示部16を有する第2筐体と、画像データと当該画像データに関連付けられた位置情報とを取得する取得手段と、現在位置に関する現在位置情報を取得する位置情報取得部115と、画像データに関連付けられた位置情報と現在位置情報とに基づいて、現在位置から画像データに関連付けられた位置情報によって示される地点までの経路を表した案内地図を生成する案内情報取得部116と、第1表示部15および第2表示部16における表示内容を制御する表示制御部113とを備え、表示制御部113は、案内地図を第1表示部に表示させ、画像データに基づく画像を第2表示部に表示させる。

Description

携帯型電子機器、および携帯型電子機器の動作方法
 本発明は、携帯型電子機器を用いた情報提供技術に関する。
 近年、地図情報の電子化に伴い、画像データに関する位置情報と地図情報とを関連付けて利用する技術が存在する。
 例えば、特許文献1には、撮影地点の位置情報を含む画像データを入力し、撮影地点の情報を含む地図データを抽出して、当該地図データをディスプレイ等の画像出力装置に出力する地図検索装置が提案されている。
特開2002-202976号公報
 しかしながら、特許文献1に記載の技術では、画像をディスプレイに表示した状態から、当該画像に関連して抽出された地図をディスプレイに表示させると、画像を確認することができなくなる。
 そこで、本発明は、画像、および当該画像に関連する地図の視認性を向上させることが可能な技術を提供することを第1の目的とする。
 また、上記特許文献1に記載の技術では、撮影地点の位置情報を有する画像データは、目的地の地図データを抽出するための情報として用いられていたが、出力する地図に関連付けて有効に用いられていない。
 そこで、本発明は、位置情報を有する画像データを地図に関連付けて用いることが可能な技術を提供することを第2の目的とする。
 本発明の第1の態様に係る携帯型電子機器は、第1表示部を有する第1筐体と、第2表示部を有する第2筐体と、画像データと当該画像データに関連付けられた位置情報とを取得する取得手段と、現在位置に関する現在位置情報を取得する位置情報取得手段と、前記画像データに関連付けられた前記位置情報と前記現在位置情報とに基づいて、前記現在位置から前記画像データに関連付けられた前記位置情報によって示される地点までの経路を表した案内地図を取得する案内情報取得手段と、前記第1表示部および前記第2表示部における表示内容を制御する表示制御手段とを備え、前記表示制御手段は、前記案内地図を前記第1表示部に表示させ、前記画像データに基づく画像を前記第2表示部に表示させる。
 また、本発明の第2の態様に係る携帯型電子機器は、第1表示部を有する第1筐体と、 第2表示部を有する第2筐体と、画像データと当該画像データに関連付けられた位置情報とを記憶する記憶手段と、所定位置を含む地図を取得する地図取得手段と、前記画像データの中から、前記所定位置を含む所定領域内の位置情報を関連付けられた画像データを検索する画像検索手段と、前記第1表示部および前記第2表示部における表示内容を制御する表示制御手段とを備え、前記表示制御手段は、前記地図を前記第1表示部に表示させ、前記画像検索手段によって検索された画像データに基づく画像を前記第2表示部に表示させる。
 第1の態様に係る発明によれば、画像、および当該画像に関連する地図の視認性を向上させることができる。
 また、第2の態様に係る発明によれば、位置情報を有する画像データを地図に関連付けて用いることが可能になる。
 この発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
携帯型電子機器を含む通信システムの構成図である。 携帯電話機の外観構成を示す図である。 携帯電話機の外観構成を示す図である。 第1実施形態に係る携帯電話機の機能構成を示すブロック図である。 ナビゲーションモードにおける携帯電話機の動作を示すフローチャートである。 画像を選択する際の選択画面を示す図である。 データテーブルとして記憶された表示変更可否データを示す図である。 携帯電話機の各表示部における表示態様を示す図である。 携帯電話機の各表示部における表示態様を示す図である。 ナビゲーションモードにおける携帯電話機の動作を示すフローチャートである。 携帯電話機のスライド状態に応じた表示部の表示態様を示す図である。 第3実施形態に係る携帯電話機の機能構成を示すブロック図である。 ナビゲーションモードにおける携帯電話機の動作を示すフローチャートである。 タッチパネル操作による表示内容の入れ替え動作を示すフローチャートである。 第4実施形態に係る携帯型電子機器を含む通信システムの構成図である。 携帯電話機の外観構成を示す図である。 携帯電話機の外観構成を示す図である。 携帯電話機の機能構成を示すブロック図である。 位置情報付き画像データの記憶部への保存形式を示す図である。 Webサイトから位置情報付き画像データを取得する際の動作を示すフローチャートである。 携帯電話機のナビゲーションモードにおける動作を示すフローチャートである。 携帯電話機の第1表示部における表示態様を示す図である。 携帯電話機の各表示部における表示態様を示す図である。 携帯電話機の各表示部における表示態様を示す図である。 第5実施形態に係る携帯電話機のナビゲーションモードにおける動作を示すフローチャートである。 携帯電話機の第1表示部における表示態様を示す図である。 携帯電話機の各表示部における表示態様を示す図である。 第6実施形態に係る携帯電話機のナビゲーションモードにおける動作を示すフローチャートである。 携帯電話機の第1表示部における表示態様を示す図である。 携帯電話機の各表示部における表示態様を示す図である。 携帯電話機の各表示部における表示態様を示す図である。 携帯電話機の各表示部における表示態様を示す図である。
 以下、本発明の実施形態について図面を参照して説明する。
 <1.第1実施形態>
  [1-1.構成概要]
 図1は、第1実施形態に係る携帯型電子機器10を含む通信システムSY1の構成図である。なお、本実施形態では、携帯型電子機器10として携帯電話機1Aを採用する場合について例示する。図2および図3は、携帯電話機1Aの外観構成を示す図である。
 図1に示されるように、通信システムSY1は、携帯電話機1A、通信ネットワーク5、インターネット7、サーバ装置6、および衛星8を含んで構成され、現在位置から目的地までの経路を地図上に案内するサービスを携帯電話機1Aで提供する。携帯電話機1Aは、通信ネットワーク(移動体通信網)5を介してコンテンツプロバイダ側のサーバ装置6およびインターネット7に接続されている。また、携帯電話機1Aは、衛星8からのGPS信号を受信可能に構成され、衛星8からのGPS信号に基づいて現在位置を特定可能となっている。
 図2に示されるように、携帯電話機1Aは、2つの筐体11,12を有している。2つの筐体11,12は、互いの相対位置をオープン状態(開状態)とクローズ状態(閉状態)との間で変位可能にする機構によって連結されている。図2には、一方の筐体(例えば筐体12)を他方の筐体(例えば筐体11)に対してスライド移動させたオープン状態の携帯電話機1Aが示され、図3には、クローズ状態の携帯電話機1Aが示されている。
 また、筐体11,12には、液晶ディスプレイ、有機ELディスプレイ等の表示部15,16がそれぞれ設けられている。これにより、携帯電話機1Aのオープン状態では、ユーザ(使用者)は、筐体11,12に設けられた表示部15,16をそれぞれ視認することが可能になる。一方、携帯電話機1Aのクローズ状態では、第2表示部16は筐体11によって隠されるので、ユーザは、第2表示部16を視認することができなくなる。
  [1-2.携帯電話機1Aの機能]
 次に、携帯電話機1Aの機能構成について説明する。図4は、携帯電話機1Aの機能構成を示すブロック図である。
 図4に示されるように、携帯電話機1Aは、GPS受信部101、無線送受信部102、撮像部103、音声出力部104、第1表示部15、第2表示部16、第1表示部15に設けられたタッチパネル105、第2表示部16に設けられたタッチパネル106、および全体制御部110等を備えている。
 GPS受信部101は、アンテナを介して衛星8からのGPS信号を受信し、GPS信号を全体制御部110に伝達する機能を有している。
 無線送受信部102は、通信ネットワーク5に接続されたサーバ装置6およびインターネット7と、アンテナを介して通信可能な機能を有している。
 撮像部103は、光電変換素子である撮像素子(CCDまたはCMOS等)を備えて構成され、被写体像に係る画像信号を取得する。撮像素子で生成された画像信号には、A/D変換、および画像処理等が施された後、撮影画像として例えば記憶部107に記憶される。
 音声出力部104は、全体制御部110からの音声データを、音声に変換して外部出力する機能を有し、例えば、ナビゲーションモード(後述)では経路案内のための音声が出力される。
 第1表示部15および第2表示部16の各表示面には、操作部として機能する透過式タッチパネル(単に「タッチパネル」とも称する)105,106が設けられている。タッチパネル105,106は、ユーザによるタッチ位置(接触位置)を検出可能であり、ユーザは、表示部15,16に表示される図柄に対応した指示をタッチパネル105,106を介して携帯電話機1Aに入力することができる。
 全体制御部110は、マイクロコンピュータとして構成され、主にCPU110A、RAM110BおよびROM110C等を備えている。全体制御部110は、ROM110C内に格納されたプログラムを読み出し、当該プログラムをCPU110Aで実行することによって、各種機能を実現する。図4における、撮影制御部111、操作内容認識部112、表示制御部113、状態検出部114、位置情報取得部115、および案内情報取得部(案内地図取得部)116は、全体制御部110においてプログラムを実行することによって実現される機能を機能ブロックとして表したものである。
 撮影制御部111は、被写体を撮影する際の撮影モードにおいて撮像部103を用いた撮影動作を制御する機能を有している。
 操作内容認識部112は、表示部15,16の表示内容と、タッチパネル105,106のタッチ位置とに基づいて、ユーザの操作内容を認識する機能を有している。
 表示制御部113は、表示部15,16における表示内容を制御する。例えば、表示制御部113は、記憶部107に記憶された画像データを表示する画像表示モードにおいて、記憶部107に蓄えられた各画像を表示部15(または表示部16)に表示させる。
 状態検出部114は、携帯電話機1Aを構成する筐体11,12のスライド状態に応じて、携帯電話機1Aの状態検出を行う。当該状態検出部114では、2つの表示部15,16を視認可能なオープン状態と、第2表示部16を視認不可能なクローズ状態とが検出される。
 位置情報取得部115は、GPS受信部101で受信されたGPS信号に基づいて、現在位置に関する情報(「現在位置情報」とも称する)を取得する。
 案内情報取得部116は、例えば、ナビゲーション用のソフトウェアを実行することにより実現される機能部であり、現在位置(現在地)から目的地までの経路(案内経路)を表した案内地図を案内情報として取得する。案内地図は、目的地に関する情報(目的地情報)と現在位置情報とに基づいて案内情報取得部116で生成されて取得される態様としてもよく、案内情報取得部116によって携帯電話機1Aの外部から取得される態様としてもよい。
 具体的には、案内情報を内部生成する場合は、案内情報取得部116は、目的地情報と現在位置情報とに基づいて記憶部107(またはROM110C)に予め記憶されていた地図データ上において案内経路を特定し、当該案内経路を含んだ地図データを生成する。なお、地図データは記憶部107から取得される態様に限定されず、インターネット7から取得される態様としてもよい。一方、案内情報を外部取得する場合は、案内情報取得部116は、目的地情報と現在位置情報とをサーバ装置6に転送し、案内経路を含んだ案内地図をサーバ装置6からダウンロードすることによって取得する。
  [1-3.動作]
 以下では、携帯電話機1Aの動作について説明する。
 携帯電話機1Aでは、ユーザは、タッチパネル105,106等を用いた選択操作によって、ナビゲーションモード、撮影モード、および画像表示モード等を有効化させることができる。ここでは、目的地までの案内を行うナビゲーションモードが有効化されている場合の携帯電話機1Aの動作について説明する。図5は、ナビゲーションモードにおける携帯電話機1Aの動作を示すフローチャートである。図6は、画像を選択する際の選択画面を示す図である。図7は、データテーブルとして記憶された表示変更可否データを示す図である。図8および図9は、携帯電話機1Aの各表示部15,16における表示態様を示す図である。
 目的地までの案内を行うナビゲーションモードでは、目的地情報が携帯電話機1Aに入力されて、目的地までの案内地図が表示される。目的地情報の入力は、例えば、目的地の住所を携帯電話機1Aに直接入力すること、或いは地図上で目的地を指定することによって実現できるが、本実施形態では、関連付けられた位置情報(「関連位置情報」とも称する)を有する画像データをユーザが指定することによって目的地情報の入力を行う。すなわち、ここでは、画像データに関連付けられた位置情報によって示される地点を目的地として、目的地までの案内地図を表示する場合について例示する。
 なお、関連位置情報を有する画像データは、例えば、デジタルスチルカメラによって生成されるExifの規格に基づいた画像ファイルである。当該画像ファイルは、デジタルスチルカメラで撮影が行われた際に、撮影地点、撮影日時および撮影条件等の付加情報(「Exif情報」とも称する)を撮影画像に関連付けて生成される。また、関連位置情報には、撮影された際の撮影地点に関する情報が含まれていてもよく、被写体の存在位置に関する情報が含まれていてもよい。撮影地点および被写体の存在位置に関する各情報は、撮影後に、ユーザによって付加される場合も想定される。
 携帯電話機1Aの具体的動作としては、まず、図5に示されるように、ステップSP11において、表示制御部113によって第1表示部15に画像が表示される。画像の表示態様としては、例えば、図6に示されるように第1表示部15の画面に複数の縮小画像を並べて表示する表示態様を採用することができる。
 ステップSP11で第1表示部15に表示される画像は、記憶部107に予め記憶されている画像、或いは通信ネットワーク5を介して外部(インターネット7等)からリアルタイムに取得される画像であってもよい。なお、記憶部107に予め記憶されている画像は、ユーザが携帯電話機1Aで撮影した画像であってもよく、ユーザが通信ネットワーク5を介して外部から取得した画像であってもよい。すなわち、携帯電話機1Aが備える画像データの取得手段には、撮像部103および撮影制御部111によって実現される撮影手段、および無線送受信部102を用いた外部通信によって実現されるデータ取得手段が含まれる。
 ステップSP12では、表示面へのタッチ操作(タップ)によって、表示された画像の中から関連位置情報を有する画像(「位置情報付き画像」とも称する)が選択されたか否かが判断される。位置情報付き画像が選択されなかった場合は、目的地情報が入力されなかったことになるので、目的地までの案内動作を行うことなくステップSP14に移行され、画像選択に基づいた画像表示等の通常処理が実行される。一方、タッチ操作によって位置情報付き画像が選択された場合は、動作工程は、ステップSP13に移行される。
 ステップSP13では、第2表示部16の表示内容を表示変更可能か否かが判断される。表示変更可能か否かの判断(表示変更可否判断)は、ROM110Cに記憶された表示変更可否データHDに基づいて行うことができる。表示変更可否データHDは、例えば、図7に示されるようなデータテーブルとして記憶されていてもよい。図7に示される表示変更可否データHDでは、アプリケーションソフトウェアAP1,AP3,AP4,AP6に関する情報が第2表示部16に表示されている場合に、表示変更「可」と設定され、アプリケーションソフトウェアAP2,AP5に関する情報が第2表示部16に表示されている場合に、表示変更「不可」と設定されている。
 当該ステップSP13で、第2表示部16の表示変更が不可であると判定された場合は、目的地までの案内動作を行うことなくステップSP14の通常処理が実行される。一方、第2表示部16の表示変更が可能であると判定された場合は、動作工程は、ステップSP15に移行される。
 ステップSP15では、表示制御部113によって、第2表示部16の表示内容が変更され、第2表示部16に選択された画像(選択画像)が表示される。図8に示されるように、例えば、選択画像として画像SG6が選択された場合は、第2表示部16には画像SG6が拡大されて表示される。
 ステップSP16では、選択画像から目的地情報が取得される。具体的には、選択画像の画像データに関連付けられた位置情報が目的地情報として取得される。
 ステップSP17では、位置情報取得部115によって現在位置情報が取得される。
 ステップSP18では、案内情報取得部116によって地図データが取得され、ステップSP19では、案内情報取得部116によって、地図データ上における目的地(ここでは、関連位置情報が示す地点)までの案内経路が特定され、当該案内経路を含んだ地図データが生成される。
 そして、ステップSP20では、表示制御部113によって案内経路を含む地図が第1表示部15に表示される。具体的には、図9に示されるように、現在地CPから目的地MP(画像SG6の関連位置情報により得られた地点)までの案内経路KRを含む地図MAが、第1表示部15に表示される。
 次のステップSP21では、ナビゲーションモードが継続されているか否かが判定され、ナビゲーションモードが継続されていない場合は、ナビゲーションモードにおける携帯電話機1Aの動作は終了される。一方、ナビゲーションモードが継続されている場合は、動作工程は、ステップSP17に移行される。すなわち、ナビゲーションモードが継続されている間は、携帯電話機1Aでは、ステップSP17~ステップSP21の処理が繰り返し実行されることになる。
 以上のように、現在地CPから目的地MPまでの案内経路KRを含む地図MAを第1表示部15に表示させるとともに、第2表示部16に目的地で撮影された画像SG6を表示させることによれば、ユーザは、画像と当該画像に関連する地図とを同時に視認することが可能になるので、視認性を向上させることができる。
 また、同時に視認可能な第1表示部15と第2表示部16とを有する携帯電話機1Aでは、地図と画像とを異なる画面に別々に表示させることが可能になるので、地図および画像の視認性をさらに向上させることができる。
 <2.第2実施形態>
 次に、第2実施形態について説明する。上記第1実施形態では、携帯電話機1Aが常にオープン状態である場合を想定していたが、第2実施形態では、携帯電話機1Bのスライド状態に応じて第2表示部16の表示制御が行われる。
 なお、第2実施形態に係る携帯電話機1Bは、携帯電話機1Aとほぼ同様の構造および機能(図1~図4参照)を有しており、共通する部分については同じ符号を付して説明を省略する。
 携帯電話機1Bの動作について図10を用いて説明する。図10は、ナビゲーションモードにおける携帯電話機1Bの動作を示すフローチャートである。図11は、携帯電話機1Bのスライド状態に応じた表示部の表示態様を示す図である。
 図10に示されるように、携帯電話機1Bでは、ステップSP31において、表示制御部113(図4参照)によって第1表示部15に画像が表示される。
 ステップSP32では、表示面へのタッチ操作によって、表示された画像の中から関連位置情報を有する画像が選択されたか否かが判断される。位置情報付き画像が選択されなかった場合は、目的地情報が入力されなかったことになるので、目的地までの案内動作を行うことなくステップSP33に移行され、画像選択に基づいた画像表示等の通常処理が実行される。一方、タッチ操作によって位置情報付き画像が選択された場合は、動作工程は、ステップSP34に移行される。
 ステップSP34では、選択画像の画像データに関連付けられた位置情報が目的地情報として取得される。
 ステップSP35では、状態検出部114によって、携帯電話機1Bのスライド状態に応じた状態検出が行われる。ステップSP35でオープン状態でない(クローズ状態である)と判定された場合は、動作工程はステップSP36を飛ばしてステップSP37に移行される。なお、クローズ状態であると判定された場合は、第2表示部16の表示は、自動的にオフされる。
 一方、ステップSP35でオープン状態であると判定された場合は、動作工程はステップSP36に移行される。
 ステップSP36では、表示制御部113によって、第2表示部16に選択画像が拡大して表示される。
 ステップSP37では、位置情報取得部115によって現在位置情報が取得される。
 ステップSP38では、案内情報取得部116によって地図データが取得され、ステップSP39では、案内情報取得部116によって、地図データ上における目的地までの案内経路が特定され、当該案内経路を含んだ地図データが生成される。
 そして、ステップSP40では、表示制御部113によって案内経路を含む地図が第1表示部15に表示される。
 次のステップSP41では、ナビゲーションモードが継続されているか否かが判定され、ナビゲーションモードが継続されていない場合は、ナビゲーションモードにおける携帯電話機1Bの動作は終了される。一方、ナビゲーションモードが継続されている場合は、動作工程は、ステップSP35に移行される。すなわち、ナビゲーションモードが継続されている間は、携帯電話機1Bでは、ステップSP35~ステップSP41の処理が繰り返し実行されることになる。
 以上のように、携帯電話機1Bでは、オープン状態の検出に応じて第2表示部16に選択画像の表示が行われることになる。具体的には、図11に示されるように、クローズ状態ST1では、第1表示部15に案内経路KRを含む地図MAが表示され、オープン状態ST2になると、第1表示部15に案内地図MAが表示されるとともに、第2表示部16に選択画像SG6が表示される。これによれば、オープン状態では、ユーザは、地図と画像とを同時に視認することが可能になるので、利便性が向上する。
 <3.第3実施形態>
 次に、第3実施形態について説明する。上記第1実施形態では、目的地情報の入力を関連位置情報を有する画像データを指定することにより行っていたが、第3実施形態では、ユーザが目的地の住所を入力することによって、或いはユーザが地図上で目的地を指定することによって、目的地情報が入力される。図12は、第3実施形態に係る携帯電話機1Cの機能構成を示すブロック図である。
 なお、第3実施形態に係る携帯電話機1Cは、携帯電話機1Aとほぼ同様の構造および機能(図1~図4参照)を有しており、共通する部分については同じ符号を付して説明を省略する。
 図12に示されるように、携帯電話機1Cの全体制御部110では、画像検索部117がさらに実現される。
 画像検索部117は、入力された目的地情報に基づいて、記憶部107に記憶された、関連位置情報を有する画像データの中から、目的地周辺の位置情報を関連付けられた画像データを検索する機能を有している。なお、画像の検索領域としては、ユーザによって予め設定された領域としてもよく、例えば、目的地を中心とした所定範囲の領域を採用することができる。
 ここで、携帯電話機1Cの動作について説明する。図13は、ナビゲーションモードにおける携帯電話機1Cの動作を示すフローチャートである。
 図13に示されるように、携帯電話機1Cでは、ステップSP51において、目的地情報が携帯電話機1Cに入力されたか否かが判定される。目的地情報が入力された場合は、ステップSP52に移行され、入力されない場合は、待機状態となる。なお、目的地の入力は、目的地となる場所の住所入力、または、地図上での目的地の指定等によって行われる。
 ステップSP52では、位置情報取得部115によって現在位置情報が取得される。
 ステップSP53では、案内情報取得部116によって地図データが取得され、ステップSP54では、案内情報取得部116によって、入力された目的地までの案内経路が地図データ上で特定され、当該案内経路を含んだ地図データが生成される。
 そして、ステップSP55では、表示制御部113によって案内経路を含む地図が第1表示部15に表示される。
 ステップSP56では、状態検出部114によって、携帯電話機1Cのスライド状態に応じた状態検出が行われる。ステップSP56でオープン状態でない(クローズ状態である)と判定された場合は、動作工程はステップSP60に移行される。
 一方、ステップSP56でオープン状態であると判定された場合は、動作工程はステップSP57に移行される。
 ステップSP57では、画像検索部117によって、記憶部107に記憶されている画像の中から、目的地周辺の関連位置情報を有する画像(「周辺画像」とも称する)が検索される。周辺画像の検索は、画像データが有する関連位置情報により特定される地点が、検索領域に含まれるか否かに基づいて行われる。なお、本実施形態では、目的地周辺の画像検索は、オープン状態の検出後に行っているが、オープン状態の検出前(ステップSP56の前)で行ってもよい。
 ステップSP58では、記憶部107に記憶された画像データの中から周辺画像が発見(抽出)されたか否かが判断される。周辺画像が発見されなかった場合は、動作工程はステップSP60に移行される。一方、周辺画像が発見された場合は、動作工程はステップSP59に移行される。
 ステップSP59では、表示制御部113によって、第2表示部16に周辺画像が表示される。
 次のステップSP60では、ナビゲーションモードが継続されているか否かが判定され、ナビゲーションモードが継続されていない場合は、ナビゲーションモードにおける携帯電話機1Cの動作は終了される。一方、ナビゲーションモードが継続されている場合は、動作工程は、ステップSP52に移行される。すなわち、ナビゲーションモードが継続されている間は、携帯電話機1Cでは、ステップSP52~ステップSP60の処理が繰り返し実行されることになる。
 以上のように、撮像装置1Cでは、ユーザによって目的地に関する目的地情報が入力され、現在地から入力された目的地までの案内経路を含む地図が第1表示部15に表示される。そして、目的地周辺の関連位置情報を有する周辺画像が検索され、オープン状態の際には、当該周辺画像が第2表示部16に表示される。これによれば、オープン状態では、ユーザは、地図と目的地周辺の画像とを同時に視認することが可能になるので、利便性が向上する。
 <4.第4実施形態>
 次に、第4実施形態について説明する。
  [4-1.構成概要]
 図15は、第4実施形態に係る携帯型電子機器1010を含む通信システムSY2の構成図である。なお、本実施形態では、携帯型電子機器1010として携帯電話機1001Aを採用する場合について例示する。図16および図17は、携帯電話機1001Aの外観構成を示す図である。
 図15に示されるように、通信システムSY2は、携帯電話機1001A、通信ネットワーク1005、インターネット1007、サーバ装置1006、および衛星1008を含んで構成され、地図を利用した様々なサービスを携帯電話機1001Aで提供する。携帯電話機1001Aは、通信ネットワーク(移動体通信網)1005を介してコンテンツプロバイダ側のサーバ装置1006およびインターネット1007に接続されている。また、携帯電話機1001Aは、衛星1008からのGPS信号を受信可能に構成され、衛星1008からのGPS信号に基づいて現在位置を特定可能となっている。
 図16に示されるように、携帯電話機1001Aは、2つの筐体1011,1012を有している。2つの筐体1011,1012は、互いの相対位置をオープン状態(開状態)とクローズ状態(閉状態)との間で変位可能にする機構によって連結されている。図16には、一方の筐体(例えば筐体1012)を他方の筐体(例えば筐体1011)に対してスライド移動させたオープン状態の携帯電話機1001Aが示され、図17には、クローズ状態の携帯電話機1001Aが示されている。
 また、筐体1011,1012には、液晶ディスプレイ、有機ELディスプレイ等の表示部1015,1016がそれぞれ設けられている。これにより、携帯電話機1001Aのオープン状態では、ユーザ(使用者)は、筐体1011,1012に設けられた表示部1015,1016をそれぞれ視認することが可能になる。一方、携帯電話機1001Aのクローズ状態では、第2表示部1016は筐体1011によって隠されるので、ユーザは、第2表示部1016を視認することができなくなる。
  [4-2.携帯電話機1001Aの機能]
 次に、携帯電話機1001Aの機能構成について説明する。図18は、携帯電話機1001Aの機能構成を示すブロック図である。図19は、位置情報付き画像データの記憶部への保存形式を示す図である。
 図18に示されるように、携帯電話機1001Aは、GPS受信部1101、無線送受信部1102、撮像部1103、音声出力部1104、第1表示部1015、第2表示部1016、第1表示部1015に設けられたタッチパネル1105、第2表示部1016に設けられたタッチパネル1106、および全体制御部1110等を備えている。
 GPS受信部1101は、アンテナを介して衛星1008からのGPS信号を受信し、GPS信号を全体制御部1110に伝達する機能を有している。
 無線送受信部1102は、通信ネットワーク1005に接続されたサーバ装置1006およびインターネット1007と、アンテナを介して通信可能な機能を有している。
 撮像部1103は、光電変換素子である撮像素子(CCDまたはCMOS等)を備えて構成され、被写体像に係る画像信号を取得する。撮像素子で生成された画像信号には、A/D変換、および画像処理等が施された後、撮影画像として例えば記憶部1107に記憶される。
 音声出力部1104は、全体制御部1110からの音声データを、音声に変換して外部出力する機能を有している。
 第1表示部1015および第2表示部1016の各表示面には、操作部として機能する透過式タッチパネル(単に「タッチパネル」とも称する)1105,1106が設けられている。タッチパネル1105,1106は、ユーザによるタッチ位置(接触位置)を検出可能であり、ユーザは、表示部1015,1016に表示される図柄に対応した指示をタッチパネル1105,1106を介して携帯電話機1001Aに入力することがきる。
 全体制御部1110は、マイクロコンピュータとして構成され、主にCPU1110A、RAM1110BおよびROM1110C等を備えている。全体制御部1110は、ROM1110C内に格納されたプログラムを読み出し、当該プログラムをCPU1110Aで実行することによって、各種機能を実現する。図18における、撮影制御部1111、操作内容認識部1112、表示制御部1113、状態検出部1114、位置情報取得部1115、地図取得部(地図生成部)1116、および画像検索部1117は、全体制御部1110においてプログラムを実行することによって実現される機能を機能ブロックとして表したものである。
 撮影制御部1111は、被写体を撮影する際の撮影モードにおいて撮像部1103を用いた撮影動作を制御する機能を有している。
 操作内容認識部1112は、表示部1015,1016の表示内容と、タッチパネル1105,1106のタッチ位置とに基づいて、ユーザの操作内容を認識する機能を有している。
 表示制御部1113は、表示部1015,1016における表示内容を制御する。例えば、表示制御部1113は、記憶部1107に記憶された画像データを表示する画像表示モードにおいて、記憶部1107に蓄えられた各画像を表示部1015(または表示部1016)に表示させる。
 状態検出部1114は、携帯電話機1001Aを構成する筐体1011,1012のスライド状態に応じて、携帯電話機1001Aの状態検出を行う。当該状態検出部1114では、2つの表示部1015,1016を視認可能なオープン状態と、1つの表示部1015を視認可能なクローズ状態とが検出される。
 位置情報取得部1115は、GPS受信部1101で受信されたGPS信号に基づいて、現在位置(現在地)に関する情報(「現在位置情報」とも称する)を取得する。
 地図取得部1116は、例えば、ナビゲーション用のソフトウェアを実行することにより実現される機能部であり、地図上の所定地点を含む地図を取得する。また、地図取得部1116は、上記所定地点における案内情報を付加した地図(案内地図)を取得(生成)する機能をも有している。なお、本実施形態では、位置情報取得部1115によって取得された現在位置を地図上の上記所定地点とした場合について例示する。
 画像検索部1117は、記憶部1107に記憶された、関連付けられた位置情報(「関連位置情報」とも称する)を有する画像データの中から、地図上の所定領域(「検索領域」または「検索範囲」とも称する)内の位置情報を有する画像データを検索する機能を有している。具体的には、画像検索部1117は、位置情報取得部1115で取得された現在位置情報と、予め設定された検索距離とに基づいて検索対象とする検索領域を地図上で設定する。そして、画像検索部1117は、設定された検索領域、および画像データに関連付けられた位置情報に基づいて、記憶部1107に記憶されている画像データの中から、位置情報によって示される地点が検索領域に含まれる画像データを抽出する。
 なお、関連位置情報を有する画像データ(「位置情報付き画像データ」とも称する)は、例えば、デジタルスチルカメラによって生成されるExifの規格に基づいた画像ファイルである。当該画像ファイルは、デジタルスチルカメラで撮影が行われた際に、撮影地点、撮影日時および撮影条件等の付加情報(「Exif情報」とも称する)を撮影画像に関連付けて生成される。また、関連位置情報には、撮影された際の撮影地点に関する情報が含まれていてもよく、或いは被写体の存在位置に関する情報が含まれていてもよい。撮影地点および被写体の存在位置に関する各情報は、撮影後に、ユーザによって画像データに付加される場合も想定される。
 また、記憶部1107に記憶されている画像データは、ユーザが携帯電話機1001Aで撮影して取得した画像データであってもよい。この場合、記憶部1107へ保存する際には、図19に示されるように、関連位置情報と画像データとを関連づけてデータテーブル化してもよい。このようにデータテーブル化して保存することによれば、画像データの検索速度を向上させることができる。
 或いは、記憶部1107に記憶されている画像データは、ユーザが通信ネットワーク1005を介して外部のWebサイトから取得した画像であってもよい。Webサイトから位置情報付き画像データを取得する場合は、次述の図20に示される各工程を経て記憶部1107に位置情報付き画像データが保存される。図20は、Webサイトから位置情報付き画像データを取得する際の動作を示すフローチャートである。
 具体的には、ブラウザを起動してWebサイト上の画像データを表示部(例えば、第1表示部1015)に表示している状態で、タッチパネル操作により位置情報付き画像が選択されると(ステップSP1011)、動作工程は、ステップSP1012に移行される。
 ステップSP1012では、選択された位置情報付き画像(選択画像)が、記憶部1107に保存される。
 次のステップSP1013では、ブラウザの起動が継続されているか否かが判定され、ブラウザの起動が継続されていない場合は、Webサイトからの画像データの保存処理は終了する。一方、ブラウザの起動が継続されている場合は、動作工程はステップSP1011に移行される。すなわち、ブラウザの起動が継続されている間は、ステップSP1011~ステップSP1013の各工程が繰り返し実行され、Webサイトからの位置情報付き画像データの取得が継続して行われる。
 なお、ステップSP1012で位置情報付き画像データを記憶部1107へ保存する際には、位置情報付き画像データをそのままの形式で保存してもよく、図19に示されるように、位置情報を取り出してデータテーブル化して保存してもよい。
  [4-3.動作]
 以下では、携帯電話機1001Aの動作について説明する。
 携帯電話機1001Aでは、ユーザは、タッチパネル1105,1106等を用いた選択操作によって、ナビゲーションモード、撮影モード、および画像表示モード等を有効化させることができる。ここでは、地図表示を行うナビゲーションモードが有効化されている場合の携帯電話機1001Aの動作について説明する。図21は、ナビゲーションモードにおける携帯電話機1001Aの動作を示すフローチャートである。図22は、携帯電話機1001Aの第1表示部1015における表示態様を示す図である。図23および図24は、携帯電話機1001Aの各表示部1015,1016における表示態様を示す図である。
 図21に示されるように、携帯電話機1001Aでは、ステップSP1021においてナビゲーションモードが実行中であるか否かが判定される。ナビゲーションモードが実行中であった場合は、動作工程は、ステップSP1022に移行され、ナビゲーションモードが実行中でなかった場合は、ナビゲーションモードにおける携帯電話機1001Aの動作は終了される。
 ステップSP1022では、位置情報取得部1115によって現在位置情報が取得される。
 ステップSP1023では、画像検索部1117によって、検索領域の設定が行われる。検索領域は、予め設定された検索距離と現在位置情報とに基づいて、第1表示部1015に表示される地図上において設定される。ここでは、現在位置を円の中心、検索距離を円の半径とした場合に形成される円に囲まれる領域が検索領域として地図上で設定されることになる。
 ステップSP1024では、画像検索部1117によって、記憶部1107に記憶されている画像データの中から、検索領域内の位置情報を関連付けられた画像データ(「近隣画像」または「周辺画像」とも称する)が検索される。近隣画像の検索は、画像データが有する関連位置情報によって特定される地点が検索領域に含まれるか否かに基づいて行われる。そして、このような近隣画像の検索処理によって抽出された画像データは、現在位置における案内情報として用いられる。
 ステップSP1025では、記憶部1107に記憶された画像データの中から近隣画像が発見(抽出)されたか否かが判断される。近隣画像が発見されなかった場合は、動作工程はステップSP1021に移行される。一方、近隣画像が発見された場合は、動作工程はステップSP1026に移行される。
 ステップSP1026では、地図取得部1116によって、近隣画像が発見されたことを示す情報が地図データに付加され、案内地図が取得される。
 そして、ステップSP1027では、表示制御部1113によって、案内地図が第1表示部1015に表示される。具体的には、図22に示されるように、現在位置を示す表示CP10とともに、近隣画像が発見されたことを示す表示(「お知らせ表示」とも称する)NH101を含む地図MA101が、第1表示部1015に表示される。なお、図22では、発見された近隣画像の位置を示す態様のアイコンが、お知らせ表示NH101として用いられている。このように、案内地図には、近隣画像に関する画像データの関連位置情報によって示される地点が地図上に表されている。
 次のステップSP1028では、状態検出部1114によって携帯電話機1001Aがオープン状態であるか否かが判定される。オープン状態でないと判定された場合は、動作工程は、ステップSP1021に移行される。一方、オープン状態であると判定された場合は、動作工程は、ステップSP1029に移行される。
 ステップSP1029では、表示制御部1113によって第2表示部1016に検索された近隣画像が表示される。具体的には、図23に示されるように、第2表示部1016に近隣画像KG101が表示される。このように、携帯電話機1001Aでは、オープン状態の検出に応じて、近隣画像KG101を第2表示部1016に表示するように制御されるので、ユーザは、クローズ状態からオープン状態に変更することで、近隣画像KG101を視認することが可能になる。なお、第2表示部1016の表示態様は、図23に示される態様に限定されず、図24に示されるように近隣画像KG101に加えて近隣画像KG101の被写体に関する付属情報HF10をさらに表示してもよい。
 ステップSP1029が終了すると、動作工程は、ステップSP1021に移行される。
 以上のように、携帯電話機1001Aは、記憶部1107に記憶された、関連位置情報を有する画像データの中から、現在位置付近の関連位置情報を有する画像データを検索し、現在位置付近の関連位置情報を有する画像データが存在した場合、現在位置付近の関連位置情報を有する画像データに基づく画像を第2表示部1016に表示させる。これによれば、関連位置情報を有する画像データを地図に関連付けて用いることが可能になり、ユーザの利便性が向上する。
 またさらに、検索された当該画像データの関連位置情報によって示される地点を表した案内地図を取得し、当該案内地図を第1表示部1015に表示させる。これによれば、関連位置情報を有する画像データを地図にさらに関連付けて用いることが可能になる。
 一般に、記憶部1107に記憶された画像データは、ユーザが過去または現在において興味を持った画像である可能性が高い。このような画像データの中から、現在位置に対して比較的近い関連位置情報を有する画像データを検索し、検索された画像をユーザに知らせることによれば、ユーザが興味を有していた場所、或いはユーザの嗜好に合致する場所にユーザが立ち寄る機会を逃すことを防止することができる。
 また、同時に視認可能な第1表示部1015と第2表示部1016とを有する携帯電話機1001Aでは、地図と画像とを異なる画面に別々に表示させることが可能になるので、地図および画像の視認性を向上させることができる。
 <5.第5実施形態>
 次に、第5実施形態について説明する。上記第4実施形態では、位置情報取得部1115によって取得された現在位置付近の画像が案内情報として取得されていたが、第5実施形態では、地図上においてユーザによって指定された地点(「指定地点」または「指定位置」とも称する)付近の画像が案内情報として取得される。
 なお、第5実施形態に係る携帯電話機1001Bは、携帯電話機1001Aとほぼ同様の構造および機能(図15~図18参照)を有しており、共通する部分については同じ符号を付して説明を省略する。
 ここで、携帯電話機1001Bの動作について説明する。図25は、ナビゲーションモードにおける携帯電話機1001Bの動作を示すフローチャートである。図26は、携帯電話機1001Bの第1表示部1015における表示態様を示す図である。図27は、携帯電話機1001Bの各表示部1015,1016における表示態様を示す図である。
 図25に示されるように、携帯電話機1001Bでは、ステップSP1051においてナビゲーションモードが実行中であるか否かが判定される。ナビゲーションモードが実行中であった場合は、動作工程は、ステップSP1052に移行され、ナビゲーションモードが実行中でなかった場合は、ナビゲーションモードにおける携帯電話機1001Bの動作は終了される。
 ステップSP1052では、地図が表示されている第1表示部1015において、ユーザによって位置指定が行われたか否かが判定される。位置指定は、第1表示部1015の表示面へのタッチ操作によって行われ、第1表示部1015に表示された地図と、タッチパネル1105で検出されたタッチ位置とに基づいて、操作内容認識部1112により地図上の指定地点が特定される。
 ステップSP1053では、画像検索部1117によって、検索領域の設定が行われる。検索領域は、予め設定された検索距離と指定地点とに基づいて設定される。例えば、検索距離が100メートルに設定されていた場合は、指定地点を中心とした半径100メートルの円で規定される領域が検索領域として地図上で設定されることになる。
 ステップSP1054では、画像検索部1117によって、記憶部1107に記憶されている画像データの中から、検索領域内の位置情報を関連付けられた画像データ(「周辺画像」とも称する)が検索される。周辺画像の検索は、画像データが有する関連位置情報によって特定される地点が検索領域に含まれるか否かに基づいて行われる。そして、このような周辺画像の検索処理によって抽出された画像データは、指定地点における案内情報として用いられる。
 ステップSP1055では、記憶部1107に記憶された画像データの中から周辺画像が発見(抽出)されたか否かが判断される。周辺画像が発見されなかった場合は、動作工程はステップSP1051に移行される。一方、周辺画像が発見された場合は、動作工程はステップSP1056に移行される。
 ステップSP1056では、地図取得部1116によって、周辺画像が発見されたことを示す情報が地図データに付加され、案内地図が取得される。
 そして、ステップSP1057では、表示制御部1113によって、案内地図が第1表示部1015に表示される。具体的には、図26に示されるように、指定地点を示す表示TP10とともに、指定地点TP10の周辺画像が発見されたことを示す表示(お知らせ表示)NH102を含む地図NH102が、第1表示部1015に表示される。なお、図26では、発見された周辺画像の位置を示す態様のアイコンが、お知らせ表示NH102として用いられている。
 次のステップSP1058では、状態検出部1114によって携帯電話機1001Bがオープン状態であるか否かが判定される。オープン状態でないと判定された場合は、動作工程は、ステップSP1051に移行される。一方、オープン状態であると判定された場合は、動作工程は、ステップSP1059に移行される。
 ステップSP1059では、表示制御部1113によって第2表示部1016に検索された周辺画像が表示される。具体的には、図27に示されるように、第2表示部1016に周辺画像KG102が表示される。
 ステップSP1059が終了すると、動作工程は、ステップSP1051に移行される。
 以上のように、携帯電話機1001Bは、記憶部1107に記憶された画像データの中から、ユーザによって指定された指定位置付近の関連位置情報を有する画像データを検索し、指定位置付近の関連位置情報を有する画像データが存在した場合、指定位置付近の関連位置情報を有する画像データに基づく画像を第2表示部1016に表示させる。これによれば、関連位置情報を有する画像データを地図に関連付けて用いることが可能になり、ユーザの利便性が向上する。
 またさらに、検索された当該画像データの関連位置情報によって示される地点を表した案内地図を取得し、当該案内地図を第1表示部1015に表示させる。これによれば、関連位置情報を有する画像データを地図にさらに関連付けて用いることが可能になる。また、ユーザは、移動前に、所望の場所に関する情報を取得することができるので、移動前に興味のあった場所或いはユーザの嗜好に合致する場所に立ち寄る計画を立て易くなる。
 <6.第6実施形態>
 次に、第6実施形態について説明する。第6実施形態に係る携帯電話機1001Cでは、地図上に目的地までの案内経路が表示されるとともに、当該案内経路が周辺画像の選択により変更される。
 なお、第6実施形態に係る携帯電話機1001Cは、携帯電話機1001Aとほぼ同様の構造および機能(図15~図18参照)を有しており、共通する部分については同じ符号を付して説明を省略する。
 ここで、携帯電話機1001Cの動作について説明する。図28は、ナビゲーションモードにおける携帯電話機1001Cの動作を示すフローチャートである。図29は、携帯電話機1001Cの第1表示部1015における表示態様を示す図である。図30は、携帯電話機1001Cの各表示部1015,1016における表示態様を示す図である。
 図28に示されるように、携帯電話機1001Cでは、ステップSP1081においてナビゲーションモードが実行中であるか否かが判定される。ナビゲーションモードが実行中であった場合は、動作工程は、ステップSP1082に移行され、ナビゲーションモードが実行中でなかった場合は、ナビゲーションモードにおける携帯電話機1001Cの動作は終了される。
 ステップSP1082では、ユーザによって目的地に関する目的地情報が入力されたか否かが判定される。目的地情報が入力されなかった場合は、動作工程はステップSP1081に移行され、ステップSP1081の動作が再度実行される。一方、目的地情報が入力された場合は、動作工程はステップSP1083に移行される。
 ステップSP1083では、位置情報取得部1115によって現在位置情報が取得される。
 ステップSP1084では、画像検索部1117によって、検索領域の設定が行われる。検索領域は、予め設定された検索距離と現在位置情報とに基づいて、第1表示部1015に表示される地図上において設定される。ここでは、現在位置を円の中心、検索距離を円の半径とした場合に形成される円に囲まれる領域が検索領域として地図上で設定されることになる。
 ステップSP1085では、画像検索部1117によって、記憶部1107に記憶されている画像データの中から、検索領域内の位置情報を関連付けられた画像データ(「近隣画像」または「周辺画像」とも称する)が検索される。近隣画像の検索は、画像データが有する関連位置情報によって特定される地点が検索領域に含まれるか否かに基づいて行われる。そして、このような近隣画像の検索処理によって抽出された画像データは、現在位置における案内情報として用いられる。
 ステップSP1086では、記憶部1107に記憶された画像データの中から近隣画像が発見(抽出)されたか否かが判断される。近隣画像が発見されなかった場合は、動作工程はステップSP1081に移行される。一方、近隣画像が発見された場合は、動作工程はステップSP1087に移行される。
 ステップSP1087では、近隣画像が発見されたことを示す情報と目的地までの経路(案内経路)KR10が地図データに付加され、地図取得部1116によって、案内地図が取得される。
 そして、ステップSP1088では、表示制御部1113によって、案内地図が第1表示部1015に表示される。具体的には、図29に示されるように、現在位置CP10とともに、近隣画像が発見されたことを示す表示(「お知らせ表示」とも称する)NH103および目的地MP10までの経路KR10を含む地図MA103が、第1表示部1015に表示される。なお、図29では、発見された近隣画像の関連位置情報が示す地点を表す態様のアイコンが、お知らせ表示NH103として用いられている。
 ステップSP1089では、操作内容認識部1112において、第1表示部1015に表示された近隣画像がユーザに選択されたか否かが判定される。近隣画像の選択は、例えば、お知らせ表示NH103をタッチすることにより行われる。近隣画像が選択されなかったと判定された場合は、動作工程は、ステップSP1092に移行される。一方、近隣画像が選択されたと判定された場合は、動作工程は、ステップSP1090に移行される。
 ステップSP1090では、地図取得部1116によって、案内地図の変更が行われる。具体的には、選択された近隣画像が有する関連位置情報によって示される地点を経由して目的地に向かうように案内経路が変更される。
 ステップSP1091では、表示制御部1113によって、変更された案内地図が第1表示部1015に表示される。具体的には、図30に示されるように、図29のお知らせ表示NH103によって示される地点KP10を経由した場合の目的地MP10までの経路KS10を含む地図MA104が、第1表示部1015に表示される。
 次のステップSP1092では、状態検出部1114によって携帯電話機1001Cがオープン状態であるか否かが判定される。オープン状態でないと判定された場合は、動作工程は、ステップSP1081に移行される。一方、オープン状態であると判定された場合は、動作工程は、ステップSP1093に移行される。
 ステップSP1093では、表示制御部1113によって、第2表示部1016に検索された近隣画像が表示される。具体的には、図30に示されるように、第2表示部1016に近隣画像KG101が表示される。
 ステップSP1093が終了すると、動作工程は、ステップSP1081に移行される。
 以上のように、携帯電話機1001Cでは、案内地図に表示された近隣画像が選択されると、選択された近隣画像の関連位置情報に基づいて、目的地までの経路が変更され、変更された経路が第1表示部1015に表示される。これによれば、ユーザの利便性をさらに向上させることができる。
 <7.変形例>
 以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
 例えば、上記第1、第2および第3実施形態では、第1表示部15に案内経路を含む地図を表示し、第2表示部16に目的地で撮影された画像を表示していたが、これに限定されない。
 具体的には、第1表示部15に目的地で撮影された画像を表示し、第2表示部16に案内経路を含む地図を表示してもよい。
 また、第1表示部15の表示内容と第2表示部16の表示内容とをタッチパネル上での所定操作に応じて入れ替えてもよい。図14は、タッチパネル操作による表示内容の入れ替え動作を示すフローチャートである。
 具体的には、図14に示されるように、タッチパネルへの接触が検出されると、ステップSP71では、操作内容認識部112によって、タッチパネル上での操作が第1表示部15における下方への払い操作(「フリック」とも称する)であるか否かが判定される。具体的には、第1表示部15と第2表示部16とが並んで配置されるオープン状態において、第1表示部15に設けられたタッチパネル105で実行される払い操作が、第1表示部15から第2表示部16に向かう方向への操作であるか否かが判定される。下方への払い操作であった場合は、動作工程はステップSP73に移行される。一方、下方への払い操作でなかった場合は、動作工程はステップSP72に移行される。
 ステップSP72では、操作内容認識部112によって、タッチパネル上での操作が第2表示部16における上方への(詳細には、第2表示部16から第1表示部15に向かう方向への)払い操作であるか否かが判定される。上方への払い操作であった場合は、動作工程はステップSP72に移行される。一方、上方への払い操作でなかった場合は、動作工程はステップSP76に移行され、通常のタッチパネル検出処理が行われる。
 ステップSP73では、第1表示部15に画像が表示され、かつ第2表示部16に地図が表示されているか否かの表示内容判定が行われる。ステップSP73の表示内容判定において、判定条件を満足すると判定された場合は、動作工程はステップSP75に移行される。一方、ステップSP73の表示内容判定において、判定条件を満足しないと判定された場合は、動作工程はステップSP74に移行される。
 ステップSP74では、第1表示部15に地図が表示され、かつ第2表示部16に画像が表示されているか否かの表示内容判定が行われる。ステップSP74の表示内容判定において、判定条件を満足すると判定された場合は、動作工程はステップSP75に移行される。一方、ステップSP74の表示内容判定において、判定条件を満足しないと判定された場合は、動作工程はステップSP76に移行され、通常のタッチパネル検出処理が行われる。
 ステップSP73またはステップSP74の表示内容判定において、判定条件を満足する場合は、ステップSP75において、表示制御部113によって表示内容の入れ替え処理が行われる。
 このように、ユーザの指示により第1表示部15の表示内容と第2表示部16の表示内容とを入れ替えることによれば、ユーザの利便性をさらに向上させることができる。
 また、上記第4、第5および第6実施形態では、第1表示部1015に地図を表示し、第2表示部1016に画像を表示していたが、これに限定されない。
 具体的には、表示部の表示内容を入れ替えて、第1表示部1015に画像を表示し、第2表示部1016に地図を表示してもよい。
 また、上記第4、第5および第6実施形態では、周辺画像の検索前には地図表示を行わない動作態様を例示していたが、これに限定されない。具体的には、周辺画像の検索前に、換言すれば、案内地図を表示する前に、案内情報が付加されていない(案内情報未付加の)通常の地図を第1表示部1015に表示してもよい。
 また、上記第4、第5および第6実施形態では、Webサイトから取得した画像データをデータテーブル化して記憶部1107に保存する場合について例示したが、これに限定されない。具体的には、位置情報付き画像データを記憶部1107とは別の記憶領域にファイル保存し、ファイルパスを記憶部1107に保存してもよい。
 また、上記第4、第5および第6実施形態では、Webサイトから位置情報付き画像データを取得する際、タッチパネル操作により選択された画像を記憶部1107に保存していたが、これに限定されず、ブラウザに位置情報付きの画像が表示された際に、表示された画像に関する画像データを記憶部1107に保存するようにしてもよい。
 また、位置情報付き画像データを記憶部1107へ保存する際には、画像サイズをリサイズして画像データの容量を圧縮してもよい。これによれば、位置情報付き画像データを保存するために利用される記憶部1107の使用領域を節減することができる。
 また、上記第4、第5および第6実施形態では、記憶部1107に保存されていた位置情報付き画像データの中から、周辺画像を検索していたが、これに限定されない。
 具体的には、画像データに関連付けられた位置情報に基づいて画像データを検索可能な所定のサーバ装置を利用して、周辺画像の検索を行ってもよい。この場合、現在位置または指定地点に関する位置情報が、通信ネットワーク1005を介して上記所定のサーバ装置に入力され、当該所定のサーバ装置において周辺画像の検索が行われる。そして、携帯電話機は、上記所定のサーバ装置による検索結果を通信ネットワーク1005を介して取得し、検索結果を第1表示部1015に表示させる。
 また、上記第4、第5および第6実施形態では、周辺画像の検索によって周辺画像が発見された場合、周辺画像の発見を地図上の表示でユーザに伝えていたが、これに限定されない。
 具体的には、周辺画像が発見された場合、表示部1015,1016を点滅させることによって、周辺画像の発見をユーザに伝えてもよい。なお、表示部1015,1016の点滅間隔を、現在位置と周辺画像の関連位置情報が示す地点との距離に応じて変更してもよい。また、音声出力部1104から音声を出力して、周辺画像の発見をユーザに伝えてもよい。
 また、上記第4、第5および第6実施形態では、周辺画像の検索によって周辺画像が発見された場合、地図上にアイコンを表示してユーザに周辺画像の発見を伝えていたが、地図に表示されるアイコンの大きさおよび/またはアイコンの透過度を、現在位置(第5実施形態では指定位置)と周辺画像の関連位置情報が示す地点との距離に応じて変更させてもよい。
 また、上記第4、第5および第6実施形態では、周辺画像の検索によって、1つの周辺画像が発見された場合を例示していたがこれに限定されず、周辺画像の検索によって、複数の周辺画像が発見されてもよい。図31および図32は、変形例に係る携帯電話機の各表示部1015,1016における表示態様を示す図である。
 例えば、第4実施形態のステップSP1024において複数の周辺画像が発見された場合、図31に示されるように、複数の周辺画像が発見されたことを示す表示NHW10と、各周辺画像の関連位置情報を示す表示HQ101~HQ105を含む案内地図MA110とが第1表示部1015に表示される。またこの場合、オープン状態のときには、発見された複数の周辺画像の一覧GR10が第2表示部1016に表示される。
 またさらに、複数の周辺画像の中から周辺画像が一つ選択された場合は、図32に示されるように、第2表示部1016では選択された周辺画像KG101を表示し、第1表示部1015では選択された周辺画像の関連位置情報を示す表示HQ102を残し、他の周辺画像に関する表示を消去してもよい。
 また、上記第4、第5および第6実施形態には、クローズ状態において周辺画像の検索が行われた場合に、検索結果を反映した案内地図を第1表示部1015に表示しつつ、オープン状態にされると周辺画像を表示する動作態様が含まれていたが、さらに異なる動作態様であってもよい。具体的には、オープン状態で周辺画像の検索が行われた場合に、検索結果を反映した案内地図を表示することなく、検索された周辺画像を第2表示部1016に表示し、表示された周辺画像が選択されたときに検索結果を反映した地図を表示してもよい。
 また、上記第4実施形態では、ナビゲーションモードが実行されているときに、近隣画像の検索を行っていたが、これに限定されず、位置情報取得部1115によって現在位置情報が取得可能であれば、近隣画像の検索を行ってもよい。そして、近隣画像が発見された場合は、第1表示部1015(または第2表示部1016)に近隣画像を表示させてもよい。なお、ナビゲーションモードが実行されていないときの近隣画像の検索動作を実行するか否かは、携帯電話機1001Aで起動されているアプリケーションに応じて決定してもよい。
 また、上記第4実施形態では、記憶部1107から画像データを検索する際に設定される地図上の検索領域は、予め設定された検索距離に基づいて設定されていたが、これに限定されず、ユーザの移動速度に応じて検索領域を変更してもよい。
 具体的には、位置情報取得部1115で取得された現在位置情報に基づいて、単位時間当たりのユーザの移動量を算出して、ユーザの移動速度を特定する。そして、ユーザの移動速度が比較的遅く、例えば徒歩等で移動していると想定される場合は、検索距離を短く(例えば500m)設定する。一方、ユーザの移動速度が比較的速く、例えば車等で移動していると想定される場合は、検索距離を長く(例えば2km)設定する。
 このように、ユーザの移動速度に応じて検索距離を設定し、検索領域を変更することによれば、ユーザの移動可能範囲の関連位置情報を有する画像データを検索することが可能になるので、ユーザの移動手段に応じた情報提供を行うことができる。
 この発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1A,1B,1001A,1001B,1001C 携帯電話機
 10,1010 携帯型電子機器
 11,12,1011,1012 筐体
 15,1015 第1表示部
 16,1016 第2表示部
 105,106,1105,1106 タッチパネル
 107,1107 記憶部
 111,1111 撮影制御部
 112,1112 操作内容認識部
 113,1113 表示制御部
 114,1114 状態検出部
 115,1115 位置情報取得部
 116 案内情報取得部
 1116 地図取得部
 1117 画像検索部
 KR 案内経路
 MA 案内地図
 MP 目的地
 ST1 クローズ状態
 ST2 オープン状態

Claims (15)

  1.  第1表示部を有する第1筐体と、
     第2表示部を有する第2筐体と、
     画像データと当該画像データに関連付けられた位置情報とを取得する取得手段と、
     現在位置に関する現在位置情報を取得する位置情報取得手段と、
     前記画像データに関連付けられた前記位置情報と前記現在位置情報とに基づいて、前記現在位置から前記画像データに関連付けられた前記位置情報によって示される地点までの経路を表した案内地図を取得する案内情報取得手段と、
     前記第1表示部および前記第2表示部における表示内容を制御する表示制御手段と、
    を備え、
     前記表示制御手段は、前記案内地図を前記第1表示部に表示させ、前記画像データに基づく画像を前記第2表示部に表示させる携帯型電子機器。
  2.  前記第2表示部を視認可能な第1状態と、前記第2表示部を視認不可能な第2状態との間で変位可能に、前記第1筐体と前記第2筐体とを連結する機構と、
     前記第1状態と前記第2状態とを検出する状態検出手段と、
    をさらに備え、
     前記表示制御手段は、前記案内地図を前記第1表示部に表示させるとともに、前記状態検出手段によって前記第1状態が検出された場合、前記画像データに基づく画像を前記第2表示部に表示させる請求項1に記載の携帯型電子機器。
  3.  前記第1表示部の表示面に設けられた第1タッチパネル、
    をさらに備え、
     前記表示制御手段は、前記第1タッチパネル上での所定操作に応じて、第1表示部の表示内容と第2表示部の表示内容とを入れ替える請求項2に記載の携帯型電子機器。
  4.  前記第2表示部の表示面に設けられた第2タッチパネル、
    をさらに備え、
     前記表示制御手段は、前記第2タッチパネル上での所定操作に応じて、第1表示部の表示内容と第2表示部の表示内容とを入れ替える請求項2に記載の携帯型電子機器。
  5.  第1表示部を有する第1筐体と、
     第2表示部を有する第2筐体と、
     画像データと当該画像データに関連付けられた位置情報とを記憶する記憶手段と、
     所定位置を含む地図を取得する地図取得手段と、
     前記画像データの中から、前記所定位置を含む所定領域内の位置情報を関連付けられた画像データを検索する画像検索手段と、
     前記第1表示部および前記第2表示部における表示内容を制御する表示制御手段と、
    を備え、
     前記表示制御手段は、前記地図を前記第1表示部に表示させ、前記画像検索手段によって検索された画像データに基づく画像を前記第2表示部に表示させる携帯型電子機器。
  6.  前記第2表示部を視認可能な第1状態と、前記第2表示部を視認不可能な第2状態との間で変位可能に、前記第1筐体と前記第2筐体とを連結する機構と、
     前記第1状態と前記第2状態とを検出する状態検出手段と、
     現在位置に関する現在位置情報を取得する位置情報取得手段と、
    をさらに備え、
     前記所定位置は、入力された目的地であり、
     前記地図取得手段は、前記目的地に関する目的地情報と前記現在位置情報とに基づいて、前記現在位置から前記目的地までの経路を表した案内地図を取得し、
     前記表示制御手段は、前記案内地図を前記第1表示部に表示させるとともに、前記状態検出手段によって前記第1状態が検出された場合、前記画像検索手段によって検索された画像データに基づく画像を前記第2表示部に表示させる請求項5に記載の携帯型電子機器。
  7.  前記第1表示部の表示面に設けられた第1タッチパネル、
    をさらに備え、
     前記表示制御手段は、前記第1タッチパネル上での所定操作に応じて、第1表示部の表示内容と第2表示部の表示内容とを入れ替える請求項6に記載の携帯型電子機器。
  8.  前記第2表示部の表示面に設けられた第2タッチパネル、
    をさらに備え、
     前記表示制御手段は、前記第2タッチパネル上での所定操作に応じて、第1表示部の表示内容と第2表示部の表示内容とを入れ替える請求項6に記載の携帯型電子機器。
  9.  現在位置を取得する位置情報取得手段をさらに備え、
     前記所定位置は、前記位置情報取得手段によって取得された現在位置である請求項5に記載の携帯型電子機器。
  10.  前記地図取得手段は、前記画像検索手段によって検索された画像データの位置情報によって示される地点を表した案内地図を取得し、
     前記表示制御手段は、前記第1表示部に表示させる前記地図として前記案内地図を表示させる請求項9に記載の携帯型電子機器。
  11.  前記第2表示部を視認可能な第1状態と、前記第2表示部を視認不可能な第2状態との間で変位可能に、前記第1筐体と前記第2筐体とを連結する機構と、
     前記第1状態と前記第2状態とを検出する状態検出手段と、
    をさらに備え、
     前記表示制御手段は、前記案内地図を前記第1表示部に表示させるとともに、前記状態検出手段によって前記第1状態が検出された場合、前記画像検索手段によって検索された画像データに基づく画像を前記第2表示部に表示させる請求項10に記載の携帯型電子機器。
  12.  前記第1表示部で表示された地図上において、ユーザによって指定された指定位置を特定する特定手段をさらに備え、
     前記所定位置は、前記特定手段によって特定された指定位置である請求項5に記載の携帯型電子機器。
  13.  前記地図取得手段は、前記画像検索手段によって検索された画像データの位置情報によって示される地点を表した案内地図を取得し、
     前記表示制御手段は、前記第1表示部に表示させる前記地図として前記案内地図を表示させる請求項12に記載の携帯型電子機器。
  14.  前記第2表示部を視認可能な第1状態と、前記第2表示部を視認不可能な第2状態との間で変位可能に、前記第1筐体と前記第2筐体とを連結する機構と、
     前記第1状態と前記第2状態とを検出する状態検出手段と、
    をさらに備え、
     前記表示制御手段は、前記案内地図を前記第1表示部に表示させるとともに、前記状態検出手段によって前記第1状態が検出された場合、前記画像検索手段によって検索された画像データに基づく画像を前記第2表示部に表示させる請求項13に記載の携帯型電子機器。
  15.  前記第1表示部は、表示面においてタッチパネルを有し、
     前記特定手段は、前記タッチパネルで検出されるユーザの接触位置に基づいて前記指定地点を特定する請求項14に記載の携帯型電子機器。
PCT/JP2010/060901 2009-06-26 2010-06-25 携帯型電子機器、および携帯型電子機器の動作方法 WO2010150892A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/379,597 US8880338B2 (en) 2009-06-26 2010-06-25 Portable electronic device, and method for operating portable electronic device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009153001A JP4757933B2 (ja) 2009-06-26 2009-06-26 携帯型電子機器、および携帯型電子機器の動作方法
JP2009153010A JP4757934B2 (ja) 2009-06-26 2009-06-26 携帯型電子機器、および携帯型電子機器の動作方法
JP2009-153001 2009-06-26
JP2009-153010 2009-06-26

Publications (1)

Publication Number Publication Date
WO2010150892A1 true WO2010150892A1 (ja) 2010-12-29

Family

ID=43386659

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/060901 WO2010150892A1 (ja) 2009-06-26 2010-06-25 携帯型電子機器、および携帯型電子機器の動作方法

Country Status (2)

Country Link
US (1) US8880338B2 (ja)
WO (1) WO2010150892A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252071A (ja) * 2011-06-01 2012-12-20 Nissan Motor Co Ltd 表示システム
WO2013031584A1 (ja) * 2011-08-29 2013-03-07 Necカシオモバイルコミュニケーションズ株式会社 画像表示装置及び方法、画像生成装置及び方法、並びにプログラム
CN104220999A (zh) * 2012-04-13 2014-12-17 Nec卡西欧移动通信株式会社 便携式终端装置、终端通信系统、终端通信方法及程序
WO2016135971A1 (ja) * 2015-02-27 2016-09-01 楽天株式会社 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体
US10757380B2 (en) 2016-06-02 2020-08-25 Sony Corporation Display control device, display control method, display device, and mobile device to control display of media content in a mobile object

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9182937B2 (en) 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
US8599105B2 (en) * 2010-07-02 2013-12-03 Nokia Corporation Method and apparatus for implementing a multiple display mode
JP2013539137A (ja) 2010-10-01 2013-10-17 ゼット124 ユーザインタフェースにおけるドラッグ移動ジェスチャ
US9405444B2 (en) 2010-10-01 2016-08-02 Z124 User interface with independent drawer control
JP5815275B2 (ja) 2011-04-26 2015-11-17 京セラ株式会社 携帯端末装置およびプログラム
US20130054358A1 (en) * 2011-08-24 2013-02-28 Bank Of America Computer System for Identifying Green Merchants Within a Range of a Mobile Device
US20130061147A1 (en) * 2011-09-07 2013-03-07 Nokia Corporation Method and apparatus for determining directions and navigating to geo-referenced places within images and videos
JPWO2013111603A1 (ja) * 2012-01-27 2015-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法、および情報処理プログラム
US9325797B2 (en) 2012-02-29 2016-04-26 Google Inc. System and method for requesting an updated user location
CN104457765B (zh) * 2013-09-25 2018-06-01 联想(北京)有限公司 定位方法、电子设备和服务器
TWM475768U (en) * 2013-12-17 2014-04-01 Weistech Technology Co Ltd An address converter and address resolution system with the converter
CN104981024B (zh) * 2014-04-02 2018-08-31 联想(北京)有限公司 发射端电子设备、接收端电子设备、及其信息处理方法
JP6221961B2 (ja) 2014-06-18 2017-11-01 株式会社デンソー 2個のディスプレイを制御するディスプレイ制御装置およびディスプレイ制御装置用のプログラム
US10474409B2 (en) * 2014-09-19 2019-11-12 Lenovo (Beijing) Co., Ltd. Response control method and electronic device
KR101667727B1 (ko) * 2014-10-31 2016-10-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2016095502A (ja) * 2014-11-11 2016-05-26 株式会社半導体エネルギー研究所 表示システム、表示装置
WO2016208067A1 (ja) 2015-06-26 2016-12-29 日産自動車株式会社 車両位置判定装置及び車両位置判定方法
JP6816492B2 (ja) * 2016-12-14 2021-01-20 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2019126957A1 (zh) * 2017-12-25 2019-07-04 深圳前海达闼云端智能科技有限公司 端云结合定位方法、装置及电子设备、计算机程序产品
CN109379484B (zh) 2018-09-19 2020-09-25 维沃移动通信有限公司 一种信息处理方法及终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001280979A (ja) * 2000-03-31 2001-10-10 Kenwood Corp 車載用ナビゲーション装置
JP2004101366A (ja) * 2002-09-10 2004-04-02 Hitachi Ltd 携帯通信端末及びこれを用いたナビゲーションシステム
JP2006347478A (ja) * 2005-06-20 2006-12-28 Fujitsu Ten Ltd タッチパネルディスプレイを有する車載用機器
JP2007109240A (ja) * 2005-10-14 2007-04-26 Lg Electronics Inc 移動通信端末機及びそのマルチメディア表示方法
JP2008267844A (ja) * 2007-04-17 2008-11-06 Alpine Electronics Inc ナビゲーション装置
JP2009068866A (ja) * 2007-09-11 2009-04-02 Clarion Co Ltd 観光情報表示装置、ナビゲーション装置および観光情報表示システム
JP2009071588A (ja) * 2007-09-13 2009-04-02 Kyocera Corp 携帯通信端末機
JP2009111879A (ja) * 2007-10-31 2009-05-21 Fujifilm Corp 携帯機器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101819511B (zh) * 2003-12-10 2011-12-07 松下电器产业株式会社 便携式信息终端装置
US8311556B2 (en) * 2009-01-22 2012-11-13 Htc Corporation Method and system for managing images and geographic location data in a mobile device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001280979A (ja) * 2000-03-31 2001-10-10 Kenwood Corp 車載用ナビゲーション装置
JP2004101366A (ja) * 2002-09-10 2004-04-02 Hitachi Ltd 携帯通信端末及びこれを用いたナビゲーションシステム
JP2006347478A (ja) * 2005-06-20 2006-12-28 Fujitsu Ten Ltd タッチパネルディスプレイを有する車載用機器
JP2007109240A (ja) * 2005-10-14 2007-04-26 Lg Electronics Inc 移動通信端末機及びそのマルチメディア表示方法
JP2008267844A (ja) * 2007-04-17 2008-11-06 Alpine Electronics Inc ナビゲーション装置
JP2009068866A (ja) * 2007-09-11 2009-04-02 Clarion Co Ltd 観光情報表示装置、ナビゲーション装置および観光情報表示システム
JP2009071588A (ja) * 2007-09-13 2009-04-02 Kyocera Corp 携帯通信端末機
JP2009111879A (ja) * 2007-10-31 2009-05-21 Fujifilm Corp 携帯機器

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252071A (ja) * 2011-06-01 2012-12-20 Nissan Motor Co Ltd 表示システム
US9357135B2 (en) 2011-08-29 2016-05-31 Nec Corporation Image display device and method
JPWO2013031584A1 (ja) * 2011-08-29 2015-03-23 Necカシオモバイルコミュニケーションズ株式会社 画像表示装置及び方法、画像生成装置及び方法、並びにプログラム
EP2753074A4 (en) * 2011-08-29 2015-08-05 PICTURE DISPLAY DEVICE AND METHOD, PICTURE GENERATING DEVICE AND METHOD AND PROGRAM
WO2013031584A1 (ja) * 2011-08-29 2013-03-07 Necカシオモバイルコミュニケーションズ株式会社 画像表示装置及び方法、画像生成装置及び方法、並びにプログラム
JP2017060178A (ja) * 2011-08-29 2017-03-23 日本電気株式会社 画像表示装置及び方法、画像生成装置及び方法、並びにプログラム
US9706128B2 (en) 2011-08-29 2017-07-11 Nec Corporation Image generation device, image generation method and storage medium for attaching to image information a condition which device needs to satisfy to display the image information
US9807309B2 (en) 2011-08-29 2017-10-31 Nec Corporation Image display device and method, image generation device and method, and program for conditionally displaying image information
CN104220999A (zh) * 2012-04-13 2014-12-17 Nec卡西欧移动通信株式会社 便携式终端装置、终端通信系统、终端通信方法及程序
EP2838030A4 (en) * 2012-04-13 2015-11-11 Nec Corp MOBILE TERMINAL DEVICE, MOBILE COMMUNICATION SYSTEM, MOBILE COMMUNICATION METHOD AND PROGRAM
US10002111B2 (en) 2012-04-13 2018-06-19 Nec Corporation Mobile terminal with dual displays for displaying differing amounts of information
WO2016135971A1 (ja) * 2015-02-27 2016-09-01 楽天株式会社 経路検索システム、経路検索装置、経路検索方法、プログラム、及び情報記憶媒体
US10757380B2 (en) 2016-06-02 2020-08-25 Sony Corporation Display control device, display control method, display device, and mobile device to control display of media content in a mobile object

Also Published As

Publication number Publication date
US20120101722A1 (en) 2012-04-26
US8880338B2 (en) 2014-11-04

Similar Documents

Publication Publication Date Title
WO2010150892A1 (ja) 携帯型電子機器、および携帯型電子機器の動作方法
US11831977B2 (en) Photographing and processing method and electronic device
JP5892239B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP4757934B2 (ja) 携帯型電子機器、および携帯型電子機器の動作方法
US9721392B2 (en) Server, client terminal, system, and program for presenting landscapes
KR101606727B1 (ko) 휴대 단말기 및 그 동작 방법
JP4757933B2 (ja) 携帯型電子機器、および携帯型電子機器の動作方法
EP2071841A2 (en) Method, apparatus and computer program product for displaying virtual media items in a visual media
KR20110130603A (ko) 전자 기기 및 전자 기기의 제어 방법
EP3128411B1 (en) Interface display method, terminal, computer program and recording medium
JP2010238098A (ja) 端末装置、情報提示システム及び端末画面表示方法
WO2009087509A1 (en) Method, apparatus and computer program product for displaying an indication of an object within a current field of view
EP2887648B1 (en) Method of performing previewing and electronic device for implementing the same
KR20120018631A (ko) 이동 단말기 및 그 제어방법
CN113676655B (zh) 拍摄方法、装置、移动终端及芯片系统
KR20140142081A (ko) 그룹 리코딩 방법, 저장 매체 및 전자 장치
KR101688176B1 (ko) 호출 전환 방법, 장치, 단말기, 프로그램 및 기록매체
KR20160034838A (ko) 콘텐츠를 표시하는 방법, 장치, 프로그램 및 저장매체
CN114816200A (zh) 一种显示方法及电子设备
US8948798B2 (en) Transmission control device, reception control device, and content transceiving system
JP6003626B2 (ja) 表示制御装置、表示制御方法および記録媒体
JP5276083B2 (ja) 携帯型電子機器、および携帯型電子機器の動作方法
JP5650793B2 (ja) 携帯型電子機器、および携帯型電子機器の動作方法
KR101673196B1 (ko) 위치정보를 사용하는 영상기록 장치, 이와 연계된 스마트폰 및 그의 제어방법
KR20120001104A (ko) 이동 단말기 및 이것의 디스플레이 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10792210

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13379597

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10792210

Country of ref document: EP

Kind code of ref document: A1