WO2019159333A1 - 携帯情報端末、情報提示システム及び情報提示方法 - Google Patents

携帯情報端末、情報提示システム及び情報提示方法 Download PDF

Info

Publication number
WO2019159333A1
WO2019159333A1 PCT/JP2018/005531 JP2018005531W WO2019159333A1 WO 2019159333 A1 WO2019159333 A1 WO 2019159333A1 JP 2018005531 W JP2018005531 W JP 2018005531W WO 2019159333 A1 WO2019159333 A1 WO 2019159333A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
image data
terminal
information terminal
Prior art date
Application number
PCT/JP2018/005531
Other languages
English (en)
French (fr)
Inventor
吉澤 和彦
益岡 信夫
永田 英之
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to CN201880089242.9A priority Critical patent/CN111712807A/zh
Priority to US16/769,200 priority patent/US11647370B2/en
Priority to PCT/JP2018/005531 priority patent/WO2019159333A1/ja
Publication of WO2019159333A1 publication Critical patent/WO2019159333A1/ja
Priority to US18/129,551 priority patent/US20230284000A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32106Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • the present invention relates to a portable information terminal that captures an image and stores it in an information server, acquires the image from the information server, and displays the image, an information presentation system, and an information presentation method.
  • the spread of portable information terminals such as smart phones and tablet terminals is progressing.
  • the mobile information terminal is equipped with a camera function, and the user can take various images using the camera function and save the taken images in a storage unit or a cloud storage of the mobile information terminal. .
  • the user can recall the situation and impression at the time when the image was taken by playing back and displaying the image stored in the storage unit or cloud storage using the portable information terminal.
  • Patent Document 1 states that “a user actually goes to the place or stays at home and experiences the situation and state of another person at the place, The challenge is to be able to feel a loose connection, or to relive the past situation and state of the place at that location, so that memories can be recalled.
  • the server receives the image information of the photograph taken at a position within a certain distance from the current position, the information indicating the photographing position, and the photographer at the time of photographing.
  • An information presentation method is disclosed that transmits biometric information to the user terminal, which displays the transmitted information in a spatial expression or presents it by vibration or blinking light.
  • Patent Document 1 The technique described in Patent Document 1 is to select an image based on a current position (or set position), a shooting position, and a distance thereof according to a user's operation instruction, and present it together with biological information. At this time, position information of the current position and the shooting position is used as an image selection condition. However, it seems difficult to effectively provide an image that reminds the user of the memories only with this condition.
  • the season in order to effectively remind the user of the memories at the time of shooting, the season (month / day) and time when the image was shot in the past, the direction that was aimed at the shooting object (subject), etc. It is necessary to select an image in consideration of various conditions. For example, if an image taken on a winter day is presented in the same season (or the same month and day), it is easy to recall the memories of that time. Also, if an image taken in the evening of a certain day is presented in the same time zone (evening), it is easy to recall the memories at that time.
  • Patent Document 1 an image captured in the past is displayed while being linked to a map, and biological information acquired from the user at the time of shooting is also presented.
  • the memory image is displayed with respect to the camera image being photographed. That is, when a plurality of images are selected, it is desirable not to display them uniformly, but to display an image that the user is particularly interested in.
  • An object of the present invention is to provide a portable information terminal, an information presenting system, and an information presenting method for effectively selecting and displaying an image captured and saved in the past by a user under conditions set by the user. That is.
  • the portable information terminal of the present invention is an information acquisition unit that acquires various information including date and time information, position information, direction information, and distance information to a subject as an image input unit that inputs captured image data and the status of the portable information terminal.
  • a communication unit that transmits and receives image data and various types of information between the communication unit and the information server via the network, and an association between the input image by the image data input to the image input unit and / or the image data received by the communication unit
  • a display unit that displays an image; and a control unit that controls the operation of each unit of the portable information terminal.
  • the control unit stores various information indicating the status of the portable information terminal acquired by the information acquisition unit and user identification information that can identify the user of the portable information terminal.
  • various information indicating the current status of the portable information terminal acquired by the information acquisition unit and the user of the portable information terminal are identified.
  • the current terminal information including possible user identification information and the image search condition describing the reproduction condition of the image data set by the user of the portable information terminal are transmitted to the information server. Control is performed so that image data searched based on the image search condition is acquired and displayed on the display unit as a related image.
  • the portable information terminal includes an image input unit that inputs captured image data, and various types of information including date and time information, position information, direction information, and distance information to the subject as the status of the portable information terminal.
  • Received by an information acquisition unit that acquires image data a communication unit that transmits and receives image data and various types of information to and from an information server via a network, and an input image and / or communication unit that is input to the image input unit
  • the information server includes a storage unit that stores image data and various types of information transmitted from the mobile information terminal, an image search unit that searches for corresponding image data from the storage unit in response to a request from the mobile information terminal, and a network.
  • a communication unit that transmits and receives image data and various information to and from the portable information terminal.
  • the portable information terminal stores captured image data in the information server, various information indicating the status of the portable information terminal at the time of photographing acquired by the information acquisition unit, and user identification that can identify the user of the portable information terminal
  • Various information indicating the current status of the portable information terminal acquired by the information acquisition unit and the user of the portable information terminal when requesting image data stored in the information server and transmitted together with related information at the time of shooting including information
  • Current terminal information including user identification information that can be identified, and an image search condition describing a reproduction condition of image data set by the user of the portable information terminal is transmitted to the information server.
  • the information server retrieves corresponding image data from the storage unit based on the current terminal information and the image retrieval condition received from the portable information terminal, and transmits the retrieved image data to the portable information terminal.
  • the mobile information terminal when the mobile information terminal stores captured image data in the information server, together with the captured image data, date and time information indicating the status of the mobile information terminal at the time of shooting, position information, direction information, Transmitting various information including distance information to the subject and related information at the time of shooting including user identification information capable of identifying the user of the portable information terminal to the information server, and the information server is transmitted from the portable information terminal Storing image data and related information at the time of photographing in a storage unit.
  • various information indicating the current state of the portable information terminal and user identification information that can identify the user of the portable information terminal are included.
  • an image captured and stored in the past by the user is selected under the conditions set by the user, and a deeply related image is displayed with emphasis. Recall effectively.
  • the block diagram of an information presentation system The external view of a portable information terminal.
  • the hardware block diagram of an information server. The figure which shows the memory control setting screen of a portable information terminal.
  • the flowchart of a memory image registration process The block diagram of the image database in an information server.
  • the flowchart of a memory image reproduction process (the portable information terminal side).
  • the flowchart of the memory image search process (information server side).
  • the figure which shows the example of the display screen of a memory image (display example 1).
  • the figure which shows the example of the display screen of a memory image (display example 2).
  • the figure which shows the example of the display screen of a memory image (display example 3).
  • the term “memory image” is used, but it is an image that can recall memories by reproducing the situation and impression at the time of shooting for the user who shot the image.
  • various conditions (date and time, position, etc.) at the time of shooting are often related to the current situation (date and time, position, etc.), and can generally be called “related images”. .
  • the portable information terminal used in this embodiment may be a mobile phone, a smart phone, a tablet terminal, or the like.
  • it may be a substitute for the head-mounted information terminal by fixing a smart phone, a tablet terminal or the like to the adapter.
  • a PDA Personal Digital Assistant
  • a notebook PC Personal Computer
  • an electronic book reader or the like
  • other digital devices such as a digital still camera, a video camera capable of shooting a moving image, and a portable game machine may be used.
  • a smart phone is mainly used as a portable information terminal will be described.
  • FIG. 1 is a system configuration diagram illustrating an example of an information presentation system according to the present embodiment.
  • the information presentation system includes a portable information terminal 100, a broadband network 200 such as the Internet, and an information server 300.
  • the portable information terminal 100 can be connected to a network (Internet) 200 via an access point (not shown) or a base station of a mobile telephone communication network (not shown). It is possible to transmit / receive data to / from each server device. Connection between the portable information terminal 100 and the access point is performed by a wireless communication method such as Wi-Fi (registered trademark) or other communication methods.
  • the connection between the portable information terminal 100 and the base station of the mobile telephone communication network is W-CDMA (Wideband Code Division Multiple Access) (registered trademark) method, GSM (Global System for mobile communications) (registered trademark) method, LTE ( Long Term Evolution) method or other communication methods.
  • W-CDMA Wideband Code Division Multiple Access
  • GSM Global System for mobile communications
  • LTE Long Term Evolution
  • the information server 300 is a server device installed by a company that performs an information storage / presentation service.
  • the information server 300 receives and stores the image data and related information transmitted from the portable information terminal 100, and stores the image data and related information retrieved in response to a request from the portable information terminal 100 in the portable information terminal 100. Send.
  • FIG. 1 only one portable information terminal 100 and one information server 300 connected to the network 200 are shown, but a plurality of portable information terminals 100 and a plurality of information servers 300 are appropriately connected to each other. Can send and receive data.
  • FIG. 2A is an external view showing an example of the portable information terminal 100.
  • a front (front) view (a) and a back (back) view (b) when the portable information terminal 100 is a smart phone are shown.
  • an operation indicator 124 On the front surface of the portable information terminal 100, an operation indicator 124, a first image input unit 133, a monaural speaker 142, and a touch screen 180 are provided.
  • the operation indicator 124 displays the operation state of the portable information terminal 100 depending on whether an LED (Light (Emitting Diode) is lit / flashing.
  • the touch screen 180 includes a touch panel 123 and a display unit 131.
  • a touch sensor 122 On the back surface of the portable information terminal 100, a touch sensor 122, a second image input unit 134, an auxiliary light emission / infrared distance measuring device 135, and a stereo speaker 143 are provided.
  • the auxiliary light emission / infrared distance measuring device 135 emits auxiliary light for compensating for the shortage of light amount when inputting an image from the second image input unit 134.
  • the auxiliary light emission / infrared distance measuring device 135 measures the distance to the subject using infrared rays.
  • the first image input unit 133 disposed on the front surface is referred to as “in camera”, and the second image input unit 134 disposed on the rear surface is referred to as “out camera”.
  • the touch sensor 122 may be arranged not on the back surface of the portable information terminal 100 but on a side surface, a lower front surface (a portion that does not overlap the touch screen 180), or the like. Further, the touch panel 123 constituting the touch screen 180 may have the function of the touch sensor 122. In this case, the function of the touch sensor 122 (for example, the fingerprint authentication function) can be executed at an arbitrary position on the touch screen 180.
  • a power key 121p which is one of the operation keys 121, is provided at the upper end of the portable information terminal 100.
  • a voice input unit 145 and a ⁇ -USB input unit 170u which is one of the extended interface units 170 are provided.
  • FIG. 2B is a diagram illustrating an example of a home screen displayed on the portable information terminal 100.
  • the home screen 180a displayed on the touch screen 180 includes a main function icon display area 180a1, a general icon display area 180a2, an other information display area 180a3, a control key area 180a4, and a notification area 180a5.
  • the home screen 180a is a basic screen that is displayed when a home key is touched while an arbitrary application is being executed after the portable information terminal 100 is powered on or released from the sleep state.
  • the main function icon display area 180a1 is an icon display area associated with a main application frequently used in the portable information terminal 100.
  • the general icon display area 180a2 is a display area for icons associated with other applications.
  • the other information display area 180a3 is an area for displaying general information such as time information and weather information.
  • the control key area 180a4 is an area for displaying “back key”, “home key”, and “application history key”.
  • the notification area 180a5 is an area where information such as a radio wave state and a remaining battery level is notified.
  • FIG. 2C is a diagram illustrating an example of a hardware configuration of the portable information terminal 100.
  • the portable information terminal 100 includes a main control unit 101, a system bus 102, a ROM 103, a RAM 104, a storage unit 110, an operation input unit 120, an image processing unit 130, an audio processing unit 140, a sensor unit 150, a communication unit 160, and an expansion interface unit 170. , And is configured.
  • the main control unit 101 is a microprocessor unit that controls the entire portable information terminal 100 in accordance with a predetermined operation program.
  • the system bus 102 is a data communication path for transmitting and receiving various commands and data between the main control unit 101 and each operation block in the portable information terminal 100.
  • a ROM (Read Only Memory) 103 is a memory in which a basic operation program such as an operating system and other operation programs (applications, the same applies hereinafter) are stored. For example, rewriting such as an EEPROM (Electrically Erasable Programmable ROM) or a flash ROM A possible ROM is used.
  • a RAM (Random Access Memory) 104 serves as a work area when executing a basic operation program and other operation programs.
  • the ROM 103 and the RAM 104 may be integrated with the main control unit 101. Further, the ROM 103 may not use an independent configuration as shown in FIG. 2C but may use a partial storage area in the storage unit 110.
  • the storage unit 110 stores an operation program and an operation setting value of the portable information terminal 100, personal information and authentication information of an authorized user of the portable information terminal 100, and the like. Further, it is possible to store an operation program downloaded from the network, various data created by the operation program, and the like. In addition, it is possible to store content such as moving images, still images, and audio downloaded from the network. In addition, it is possible to store data such as moving images and still images taken using the camera function. All or some of the functions of the ROM 103 may be substituted with a partial area of the storage unit 110. In addition, the storage unit 110 needs to hold stored information even when power is not supplied to the portable information terminal 100 from the outside.
  • a device such as a semiconductor element memory such as a flash ROM or SSD (Solid State Drive) or a magnetic disk drive such as an HDD (Hard Disc Drive) is used.
  • a semiconductor element memory such as a flash ROM or SSD (Solid State Drive) or a magnetic disk drive such as an HDD (Hard Disc Drive) is used.
  • Each operation program stored in the ROM 103 or the storage unit 110 can be updated and expanded in function by download processing from each server device on the network.
  • the operation input unit 120 is an instruction input unit that inputs an operation instruction to the portable information terminal 100.
  • the operation input unit 120 is arranged so as to overlap the operation key 121 in which button switches and the like are arranged, the touch sensor 122 that detects that the finger of the operator (user) is touched based on the change in capacitance, and the display unit 131.
  • a touch panel 123 Furthermore, as another operation device, a keyboard connected to the extension interface unit 170, a separate portable terminal device connected by wired communication or wireless communication, and the like may be used. Alternatively, the portable information terminal 100 may be operated by voice input.
  • the touch sensor 122 has a function of detecting a fingerprint or palm print of a finger touching the sensor unit.
  • the image processing unit 130 includes a display unit 131, an image signal processing unit 132, a first image input unit 133, and a second image input unit 134.
  • the display unit 131 is a display device such as a liquid crystal panel, for example, and displays the image data processed by the image signal processing unit 132 and provides it to the user of the portable information terminal 100.
  • the image signal processing unit 132 includes a video RAM (not shown), and drives the display unit 131 based on the input image data. Also, the image signal processing unit 132 performs decoding processing of the encoded video signal, format conversion processing, menu and other OSD (On Screen Display) signal superimposing processing, etc., as necessary.
  • OSD On Screen Display
  • the first image input unit 133 and the second image input unit 134 are photographing units such as an in-camera and an out-camera, and lenses using an electronic device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) sensor.
  • the light input from is converted into an electrical signal, and the image data of the subject is captured.
  • the audio processing unit 140 includes an audio output unit 141, an audio signal processing unit 144, and an audio input unit 145.
  • the audio output unit 141 is a speaker, and provides the audio signal processed by the audio signal processing unit 144 to the user of the portable information terminal 100.
  • the monaural speaker 142 outputs monaural sound during a voice call or the like, and the stereo speaker 143 outputs stereo sound during music playback or the like.
  • the audio signal processing unit 144 performs a decoding process on the encoded audio signal as necessary.
  • the voice input unit 145 is a microphone, which converts a user's voice and the like into voice data and inputs the voice data.
  • the sensor unit 150 is a group of various sensors for detecting the state of the portable information terminal 100.
  • the sensor includes a GPS (Global Positioning System) receiver 151, a gyro sensor 152, a geomagnetic sensor 153, and an acceleration sensor 154, and detects the position, tilt, direction, and movement of the portable information terminal 100.
  • GPS Global Positioning System
  • a gyro sensor 152 a gyro sensor
  • a geomagnetic sensor 153 e.gyro sensor
  • an acceleration sensor 154 e.g., a Bosch Sensortec 154
  • an illuminance sensor, a proximity sensor, an atmospheric pressure sensor, and the like may be provided to detect ambient brightness, proximity of surrounding objects, and the like.
  • the communication unit 160 includes a LAN (Local Area Network) communication unit 161, a telephone network communication unit 162, and an NFC (Near Field Communication) unit 163.
  • the LAN communication unit 161 is connected to a network 200 such as the Internet via an access point or the like, and transmits / receives data to / from the information server 300 on the network. Connection to an access point or the like is performed by wireless connection such as Wi-Fi (registered trademark).
  • the telephone network communication unit 162 performs telephone communication (call) and data transmission / reception by wireless communication with a base station of a mobile telephone communication network. Communication with a base station or the like may be performed by a W-CDMA (registered trademark) system, an LTE system, or the like.
  • the NFC unit 163 performs wireless communication when close to the corresponding reader / writer.
  • the LAN communication unit 161, the telephone network communication unit 162, and the NFC unit 163 each include an encoding circuit, a decoding circuit, an antenna, and the like.
  • the communication unit 160 may further include a Bluetooth (registered trademark) communication unit, an infrared communication unit, and the like.
  • the extended interface unit 170 is an interface group for extending the functions of the portable information terminal 100, and includes a video / audio interface, a USB (Universal Serial Bus) interface, a memory interface, and the like.
  • the video / audio interface inputs / outputs video signals / audio signals to / from external video / audio devices.
  • the USB interface is connected to a PC, keyboard, or other USB device to transmit / receive data.
  • the memory interface transmits and receives data by connecting a memory card and other memory media.
  • the configuration example of the portable information terminal 100 illustrated in FIG. 2C includes a number of configurations that are not essential for the operation of the present embodiment, and the effects of the present embodiment are impaired even if these configurations are not provided. There is nothing.
  • FIG. 2D is a diagram illustrating an example of a software configuration of the portable information terminal 100.
  • the storage unit 110 stores a basic operation program 1001, a shooting program 1002, an information acquisition program 1003, a memory image control program 1004, and other operation programs 1009.
  • the storage unit 110 also includes an identification information storage area 1011 that stores user identification information that can identify the portable information terminal 100 or its user, and various information storage areas 1019 that store other information.
  • the basic operation program 1001 stored in the storage unit 110 is expanded in the RAM 104, and the main control unit 101 executes the expanded basic operation program to configure the basic operation unit 1101.
  • the photographing program 1002, the information acquisition program 1003, the memory image control program 1004, and other operation programs 1009 are expanded in the RAM 104, and the main control unit 101 executes the expanded operation programs.
  • the photographing function unit 1102, the information acquisition unit 1103, the memory image control unit 1104, and the other operation unit 1109 are configured.
  • the RAM 104 also includes a temporary storage area 1200 for temporarily storing data created when each operation program is executed.
  • the photographing function unit 1102 controls image photographing processing using camera units such as the first image input unit 133 and the second image input unit 134. Since general operations / processes in the image photographing process are known, detailed description thereof is omitted.
  • the information acquisition unit 1103 includes a date information acquisition unit 1103A, a position information acquisition unit 1103B, a direction information acquisition unit 1103C, and a distance information acquisition unit 1103D.
  • the date / time information acquisition unit 1103A acquires date / time information from an internal clock (not shown) or a standard time server connected to the network.
  • the position information acquisition unit 1103B acquires the position information of the portable information terminal 100 based on the signal received by the GPS reception unit 151. Alternatively, a beacon signal can be received by a Bluetooth (registered trademark) communication unit.
  • the direction information acquisition unit 1103C acquires direction information directed by the portable information terminal 100 based on the geomagnetic information detected by the geomagnetic sensor 153.
  • the distance information acquisition unit 1103D acquires distance information between the portable information terminal 100 and the photographing object (subject) using a known technique such as distance measurement by the auxiliary light emission / infrared distance measuring device 135.
  • the memory image control unit 1104 includes an image registration unit 1104A, an image request unit 1104B, and an image display unit 1104C.
  • the image registration unit 1104A performs control for registering and saving an image captured by the user in the information server 300.
  • the image request unit 1104B performs control for acquiring an image registered and stored from the information server 300 in accordance with a user request.
  • the image display unit 1104C performs control to display the image acquired from the information server 300 on the display unit 131.
  • each operation program is stored in the storage unit 110 in advance at the time of product shipment. Alternatively, after product shipment, it may be acquired from each server device on the network via the LAN communication unit 161 or the telephone network communication unit 162. Further, each operation program stored in a memory card, an optical disk or the like may be acquired via the expansion interface unit 170 or the like.
  • FIG. 3 is a diagram illustrating an example of a hardware configuration (including a partial software configuration) of the information server 300.
  • the information server 300 includes a main control unit 301, a system bus 302, a RAM 304, a storage unit 310, and a LAN communication unit 360.
  • the main control unit 301 is a microprocessor unit that controls the entire information server 300 in accordance with a predetermined operation program.
  • a system bus 302 is a data communication path for transmitting and receiving various commands and data between the main control unit 301 and each operation block in the information server 300.
  • the RAM 304 is a work area when executing each operation program. The RAM 304 may be integrated with the main control unit 301.
  • the storage unit 310 stores an information management program 3001 and an image search program 3002.
  • the storage unit 310 includes an image data storage area 3011 and a related information storage area 3012.
  • the information management program 3001 and the image search program 3002 stored in the storage unit 310 are expanded in the RAM 304, and the main control unit 301 further executes the expanded information management program and the image search program 3002, thereby the information management unit 3101.
  • the image search unit 3102 are configured.
  • the RAM 304 includes a temporary storage area (not shown) that temporarily stores data created when each operation program is executed as necessary.
  • the information management unit 3101 stores the memory image and the related information transmitted from the portable information terminal 100 in the image data storage area 3011 and the related information storage area 3012.
  • the image search unit 3102 searches for a corresponding memory image in response to a request from the portable information terminal 100.
  • the LAN communication unit 360 is connected to the network 200 such as the Internet via a router device (not shown), and transmits / receives data to / from the portable information terminal 100 on the network.
  • the connection to the Internet or the like via the router device may be a wired connection or a wireless connection.
  • the LAN communication unit 360 includes an encoding circuit, a decoding circuit, and the like.
  • Memory image control processing In the following, image data captured using the portable information terminal 100 is stored in the information server 300 as a memory image, and the memory image stored in the information server 300 is retrieved, provided to the portable information terminal 100, and reproduced and displayed. A memory image control process will be described. In the following, “memory image control processing” or the like may be simply referred to as “memory control processing” or the like.
  • FIG. 4A is a diagram illustrating an example of a memory image control setting screen (memory control setting screen) in the portable information terminal 100.
  • the memory control setting screen 180b is displayed by starting the memory control application.
  • the activation control of the memory control application is performed by tapping the icon of the memory control application displayed in the main function icon or general icon display areas 180a1 and 180a2 on the home screen 180a of FIG. 2B.
  • the basic operation unit 1101 delegates the control subject to the memory image control unit 1104 according to the user's instruction, and the memory image control unit 1104 sets a memory image control condition on the touch screen 180 (display unit 131).
  • the setting screen 180b is displayed.
  • the memory control setting screen 180b includes a login setting area 180b1, a registration condition setting area 180b2, and a reproduction condition setting area 180b3.
  • the login setting area 180b1 is an area for inputting login name information for logging in to the information server 300 and password information for user authentication.
  • the portable information terminal 100 logs into the information server 300 using each information input in the login setting area 180b1.
  • the registration condition setting area 180b2 is an area for setting whether to register image data captured using the camera function as a memory image and whether to share the image data registered as a memory with other users.
  • the reproduction condition setting area 180b3 is an area for setting under what conditions a memory image captured in the past and stored in the information server 300 is selected for reproduction display. As specific selection conditions, based on the current terminal information acquired by the portable information terminal 100 (current date and time information, current position information, current direction information, etc.), a memory image with a shooting condition related thereto is selected. It is also possible to acquire and reproduce and display image data registered as memories by other users (friends). The user may check the item of the desired condition on the setting screen 180b. Further, the “detail” key displayed in the registration condition setting area 180b2 and the reproduction condition setting area 180b3 can be tapped to input detailed conditions for each setting item.
  • Each information input to the login setting area 180b1 is stored in the identification information storage area 1011 of the storage unit 110.
  • Each information input to the registration condition setting area 180b2 and the reproduction condition setting area 180b3 is stored in various information storage areas 1019 of the storage unit 110.
  • FIG. 4B is a diagram for explaining the detailed setting in the registration condition setting area 180b2.
  • the user checks the item “Share an image” and shares image data registered as a memory image with another user will be described.
  • the “Share image” item it is possible to select whether the registered image data is “shared with registered users” or “shared with all users”, that is, the image disclosure level.
  • the disclosure level is limited, and a user who is allowed to share image data is registered (set) as a setting range.
  • User registration is specified by mail address information, login name information for logging in to the information server 300, or the like.
  • the latter case of “sharing with all users” all the users who have logged in to the information server 300 are to be shared.
  • FIG. 4C is a diagram for explaining detailed settings in the reproduction condition setting area 180b3.
  • the conditions for reproducing and displaying the memory image stored in the information server 300 are set in detail.
  • the X value can be further set so as to reproduce an image shot at a position within Xm east-west and / or north-south from the current position of the portable information terminal 100.
  • the specified position is further set in latitude / longitude, and an X value is set so that an image taken at a position within Xm from the specified position east-west and / or north-south is played back.
  • the X value may be designated by the latitude / longitude change width. The radius may be designated within Xm from the designated position.
  • If the “Play according to direction” item is checked, set the detailed condition as “Direction” or “When facing the object”.
  • X value can be set to In the case of reproducing according to “when facing the direction of the object”, when the mobile information terminal 100 faces the direction of the object (subject) in the image captured in the past, the image including the object Is to play. Also in this case, the X value can be set so as to reproduce an image whose angle difference is within ⁇ X degrees.
  • each setting condition (date and time, position, direction, friend image) for the above-described reproduction display may be single or a plurality of combinations.
  • a logical expression such as logical sum (OR) or logical product (AND). This makes it possible to set the playback conditions according to the user's preference by combining not only the shooting date and time but also the shooting position and shooting direction conditions, and the memory image that recalls the situation and impression at the time when the user shot. Can be presented.
  • the reproduction of the image including the object when “turning to the direction of the object” is a particularly unique process in the present embodiment. A method will be described.
  • FIG. 4D is a diagram for explaining a method of calculating the direction of an object visible from the portable information terminal.
  • the user has photographed the object S using the portable information terminal 100 at the point A and saved the photographed image in the information server 300 as a memory image.
  • the distance between the portable information terminal 100 and the object S is L
  • the direction in which the portable information terminal 100 is directed is ⁇ .
  • the distance L is measured by the distance information acquisition unit 1103D of the information acquisition unit 1103.
  • the direction in which the position of the object S will be described. From the position information acquired at point A and the position information acquired at point B, the distance M and angle ⁇ between AB can be calculated. From this information (distance L, distance M, angle ⁇ , angle ⁇ ), the direction ⁇ from which the object S can be seen from the point B and the distance N from the point B to the object S can be calculated by calculation of triangulation. is there. That is, when the user is currently at point B, if the direction in which the portable information terminal 100 is directed is the calculated direction ⁇ (or within ⁇ X degrees thereof), the portable information terminal 100 is directed toward the object S. Can be determined.
  • FIG. 5A is a diagram illustrating an example of a camera function screen of the portable information terminal 100.
  • the camera function screen 180c includes a camera control key area 180c1, a camera setting key area 180c3, and a focus position display mark 180c4.
  • a first image input unit (in-camera) 133 that is a camera unit, or a second image.
  • the image data input from the input unit (out camera) 134 is superimposed on the touch screen 180 and displayed.
  • the camera control key area 180c1 is provided with a shutter key 180c2.
  • the camera unit is switched by tapping a camera switching key prepared in the camera setting key area 180c3.
  • FIG. 5B is a flowchart showing the memory image registration process. This process is mainly controlled by the image registration unit 1104A of the memory image control unit 1104.
  • the user instructs activation of the camera function application by operating the home screen 180a displayed on the portable information terminal 100.
  • the camera function application icon displayed in the main function icon or general icon display areas 180a1 and 180a2 in FIG. 2B is tapped.
  • the basic operation unit 1101 confirms the memory image registration setting 180b2 in FIG. 4A and delegates the control subject to the image registration unit 1104A of the memory image control unit 1104 in accordance with a user instruction.
  • the image registration unit 1104A activates the shooting function unit 1102 (S101).
  • the imaging function unit 1102 validates, for example, the second image input unit (out camera) 134 of the camera units, and starts input of image data from the second image input unit 134.
  • the photographing function unit 1102 displays the camera function screen 180c together with the image data input from the second image input unit 134 on the touch screen 180 (display unit 131) (S102).
  • the basic operation unit 1101 confirms whether or not an operation instruction is input by a user's touch operation on the touch screen 180 (touch panel 123), and notifies the confirmation result to the image registration unit 1104A (S103).
  • the basic operation unit 1101 waits until receiving the instruction.
  • the type of operation instruction is confirmed (S104).
  • the process proceeds to S105, where the image registration unit 1104A ends the operation of the photographing function unit 1102, and returns the control subject to the basic operation unit 1101. .
  • the basic operation unit 1101 displays the home screen 180a on the touch screen 180 (S106).
  • the process proceeds to S107, and the photographing function unit 1102 starts an acquisition sequence of image data input from the second image input unit 134.
  • the imaging function unit 1102 acquires image data from the second image input unit 134 and stores it in the temporary storage area 1200 of the RAM 104 (S107).
  • Image data acquisition processing includes pre-processing such as focusing and exposure, processing for converting the output of an electronic device such as a CCD or CMOS sensor into digital data, post-processing such as gamma correction, noise removal, and image compression processing.
  • the image registration unit 1104A requests the information acquisition unit 1103 to acquire various types of information (date information, etc.) at the time of shooting.
  • the date / time information acquisition unit 1103A acquires shooting date / time information (year, month, day, hour, minute, second) when the image data is acquired (S108).
  • the position information acquisition unit 1103B acquires shooting position information (longitude, latitude) of the portable information terminal 100 when the image data is acquired (S109).
  • the direction information acquisition unit 1103C acquires shooting direction information directed by the portable information terminal 100 when the image data is acquired (S110).
  • the distance information acquisition unit 1103D acquires subject distance information to the shooting target (subject) (S111).
  • Whether or not the captured image data is registered as a memory image can be selected by the user by setting the memory control application shown in FIG. 4A. Or you may enable it to set from a user menu.
  • the process proceeds to S113, and the image registration unit 1104A generates related information at the time of shooting related to the image to be registered.
  • related information at the time of shooting user identification information that can identify the user of the portable information terminal 100 (or terminal identification information that can identify the portable information terminal 100) and information at the time of shooting acquired by the information acquisition unit 1103 may be used.
  • Various information date and time information, position information, direction information, distance information), disclosure level setting information set in the “share image” item in the registration condition setting area 180b2 of the memory control setting screen 180b, and the like.
  • the image registration unit 1104A transmits the image data acquired in the process of S107 and the related information at the time of shooting generated in the process of S113 to the information server 300 via the communication unit 160 and the network (Internet) 200 ( S114).
  • the transmitted image data and the related information at the time of shooting are stored in the image data storage area 3011 and the related information storage area 3012 in association with each other.
  • the image data acquired in the process of S107 and the related information at the time of shooting generated in the process of S113 may be stored together in various information storage areas 1019 of the storage unit 110 in the portable information terminal 100. Then, the process returns to S103 and the above processing is repeated.
  • the image registration unit 1104A generates an image file from the image data acquired in S107 and various information (date information, position information, direction information, distance information) at the time of shooting acquired in S108 to S111 (S115).
  • This image file may be in a known EXIF (Exchangeable Image File Format) format.
  • the image registration unit 1104A stores the image file generated in S115 in various information storage areas 1019 of the storage unit 110 (S116). Then, the process returns to S103 and the above processing is repeated.
  • the image data captured in the determination of S112 is not registered as a memory image
  • the image data acquired at that time and various information at the time of shooting are stored in the storage unit 110. Therefore, after that, the user can transmit the image as a memory image to the information server 300 for additional registration.
  • the processing of S115 to S116 may be performed by the photographing function unit 1102 as a control subject instead of the image registration unit 1104A.
  • the image data of the memory image transmitted from the portable information terminal 100 and the related information at the time of shooting are stored in the image data storage area 3011 and the related information storage area 3012 by the information management unit 3101 of the information server 300.
  • the configuration in which these data are stored will be described.
  • FIG. 6A is a diagram illustrating an example of an image database stored in the image data storage area 3011 of the information server 300.
  • the configuration of the image database is divided into folders for each user identification information that can identify the user of the portable information terminal 100, and the image data transmitted from the portable information terminal 100 is stored in the corresponding folder.
  • Each of these folders is managed by login name information in the user database (FIG. 6B) described below and user identification information in the related information database (FIG. 6C).
  • Each image data in the folder is managed by a file name corresponding to the image identification information in the related information database.
  • FIG. 6B is a diagram illustrating an example of a user database stored in the related information storage area 3012 of the information server 300.
  • the user database is a database that stores a list of users who use the information storage / presentation service, and information such as login names, passwords, names, e-mail addresses, and contact numbers is registered. Other information such as address information and credit card information may be further registered.
  • the login name is identification information for identifying a user who uses the information storage / presentation service, and is used when logging into the information storage / presentation service.
  • the login name is uniquely determined for each user.
  • the password is authentication information used for user authentication when logging into the information storage / presentation service. Each user can arbitrarily specify a password.
  • the name is information related to the name of the user who uses the information storage / presentation service.
  • the e-mail address and the contact number are information relating to contact information for each user who uses the information storage / presentation service, and are used when various types of contact are made.
  • login setting area 180a1 shown in FIG. 4A login is performed by inputting a login name and a password, respectively.
  • FIG. 6C is a diagram illustrating an example of a related information database stored in the related information storage area 3012 of the information server 300.
  • the related information database is a database that stores related information at the time of shooting related to each image data transmitted from the portable information terminal 100.
  • the image identification information is identification information that can identify each image data transmitted from the portable information terminal 100.
  • the user identification information is user identification information that can identify the person who has taken (registered) each image data, and a login name in the user database (FIG. 6B) is used.
  • Image data can be uniquely identified by combining image identification information and user identification information.
  • the shooting date / time information is the shooting date / time information of each image data transmitted from the portable information terminal 100.
  • the shooting position information, shooting direction information, and subject distance information (not shown) of each image data are image identification information. It is registered corresponding to.
  • information such as terminal identification information capable of identifying the portable information terminal and public level setting information may be registered.
  • FIG. 7A and 7B are flowcharts showing the memory image reproduction process.
  • FIG. 7A shows the process on the portable information terminal 100 side
  • FIG. 7B shows the process on the information server 300 side.
  • the image reproduction process on the portable information terminal 100 side will be described with reference to FIG. 7A.
  • the following processing is controlled by the image request unit 1104B of the memory image control unit 1104. Note that whether or not to execute the memory image reproduction process can be selected by setting the memory control application. Or you may enable it to set from a user menu.
  • the process flow shown in FIG. 7A is always operating.
  • the image request unit 1104B of the memory image control unit 1104 uses the user identification information of the portable information terminal 100 and the memory image search condition describing the playback condition set in the playback condition setting area 180b3 of the memory control setting screen 180b (hereinafter referred to as “remember image search condition”). , Image search condition). Further, the image request unit 1104B transmits the image search condition generated in the process of S201 to the information server 300 via the communication unit 160 and the network 200 (S202). The transmitted image search condition is stored in the related information storage area 3012 of the information server 300.
  • the image request unit 1104B requests the information acquisition unit 1103 to acquire the current terminal status (date information, etc.).
  • the date information acquisition unit 1103A acquires the current date information (S203)
  • the position information acquisition unit 1103B acquires the current position information of the portable information terminal 100 (S204).
  • the direction information acquisition unit 1103C acquires the direction information that the portable information terminal 100 is currently directed to (S205).
  • step S ⁇ b> 206 the image request unit 1104 ⁇ / b> B determines the current terminal state information (hereinafter referred to as “the current terminal state information”) from the current date and time information, current position information and current direction information acquired by the information acquisition unit 1103 and user identification information of the portable information terminal 100. Current terminal information). Further, the image request unit 1104B transmits the current terminal information generated in S206 to the information server 300 via the communication unit 160 and the network 200 (S207).
  • the current terminal state information hereinafter referred to as “the current terminal state information”
  • the corresponding image data is searched from the database based on the image search condition (S202) and the current terminal information (S207) transmitted from the portable information terminal 100. Then, it is transmitted to the portable information terminal 100 together with related information at the time of shooting as a memory image.
  • the image request unit 1104 ⁇ / b> B of the portable information terminal 100 determines whether a memory image and related information are received from the information server 300.
  • the operating status of the display unit 131 of the portable information terminal 100 is determined (S209), and the memory image display process (S210) or the memory image notification process (S211) is executed.
  • the processing of S210 and S211 is mainly controlled by the image display unit 1104C of the memory image control unit 1104.
  • the image display unit 1104C determines that the user is using the portable information terminal 100. In this case, the process proceeds to S210, and the image display unit 1104C displays the received memory image on the display unit 131. The details of the memory image display method will be described later. Thereafter, the process proceeds to S212.
  • the image display unit 1104C determines that the user is not using the portable information terminal 100. In this case, the process proceeds to S ⁇ b> 211, and the image display unit 1104 ⁇ / b> C outputs a notification sound notifying that the memory image has been received from the stereo speaker 143, or vibrates the casing of the portable information terminal 100 with a vibrator not shown. Thereby, the user can know that the memory image has been received.
  • the process proceeds to S212.
  • the image request unit 1104B confirms whether or not the reproduction condition set in the reproduction condition setting area 180b3 of the memory control setting screen 180b has been updated. If the reproduction condition has been updated, the process returns to S201 and is repeated. If the playback condition has not been updated, the process returns to S203 and is repeated.
  • FIG. 7B shows image search processing of the information server 300.
  • the memory image search condition (hereinafter, image search condition) transmitted from the portable information terminal 100 in S202 of FIG. 7A is stored.
  • the following processing is mainly controlled by the image search unit 3102.
  • the information server 300 receives current terminal information (current date information, current position information, current direction information, user identification information) from the portable information terminal 100 (corresponding to S207 in FIG. 7A).
  • the image search unit 3102 acquires user identification information of the transmission source portable information terminal 100 from the received current terminal information. Then, among the image search conditions transmitted from the portable information terminal 100 in advance, the image search condition corresponding to the user identification information is confirmed (S302).
  • the image search unit 3102 refers to the related information database stored in the related information storage area 3012 and determines whether there is an image that matches the image search condition. This determination is based on the current terminal information (current date / time information, current position information, current direction information, user identification information) received in S301 and related information (date / time information, position information) at the time of shooting registered in the related information database. , Direction information, distance information) and referring to the reproduction condition described in the image search condition. Specific examples thereof will be described later. If there is an image that matches the search condition, the process proceeds to S304. If there is no image that matches the search condition, the process ends.
  • S304 it is determined whether or not an image matching the search condition (hereinafter referred to as the image) is an image registered by the user of the portable information terminal 100.
  • the user identification information acquired from the current terminal information may be compared with the user identification information of the image data registered in the related information database.
  • the process proceeds to S306. If the image is not image data registered by the user of the portable information terminal 100, the process proceeds to S305.
  • S305 it is determined whether or not the image data is permitted to be shared with the user identified by the user identification information acquired from the current terminal information.
  • the user identification information acquired from the current terminal information may be compared with information on the disclosure level setting of the image data in the related information database.
  • the process proceeds to S306. If the image data is not permitted to be shared with the identified user, the process ends.
  • the image search unit 3102 acquires the image data from the image database in the image data storage area 3011 based on the image identification information of the image data. Further, the image search unit 3102 transmits the acquired image data as a memory image to the portable information terminal 100 together with the related information at the time of shooting registered in the related information database (S307).
  • the information server 300 can search the image database for an image that matches the search condition based on the memory image search condition set by the mobile information terminal 100 and transmit it to the mobile information terminal 100 as a memory image. it can.
  • the memory image search process of FIG. 7B will be specifically described with reference to the registration data described in FIGS. 6A to 6C.
  • the current terminal information current date / time information, current position information, current direction information
  • the current terminal information acquired from the portable information terminal 100 is compared with the data of the shooting conditions registered in the related information database in FIG. 6C.
  • the corresponding image is searched with reference to the reproduction condition (FIG. 4C) described in the memory image search condition.
  • ⁇ Search example 1> The current date and time information of the terminal is “October 01, 2017 13:25:15”, and the playback condition is “Reproduction of memory image based on year”. “Memory image taken more than two years before the current date and time” Is set to “play back”, the image data “img_000001” and the image data “img_000002” are extracted.
  • ⁇ Search example 2> The current date and time information of the terminal is “October 01, 2017 13:25:15”, and the playback condition is “Reproduction of memory image based on year”. “Memory image taken more than two years before the current date and time” Image data “img_000002” is extracted when “Reproduce memory image taken within one month before or after” is selected in “Reproduce memory image based on month”. Is done.
  • ⁇ Search example 3> The current date and time information of the terminal is “October 01, 2017 13:25:15”, the playback condition is “Playback of the memory image based on time”, “Play back the memory image taken within 15 minutes before and after ”Is extracted, image data“ img_000001 ”and image data“ img_000027 ”are extracted.
  • the current position information of the terminal is “35.4030 / 139.5329”
  • the playback condition is “playback of the memory image based on the current position”
  • the latitude and / or longitude error is within 0.0010 is played back. ”Is extracted, image data“ img_000002 ”and image data“ img_000027 ”are extracted.
  • the image data “img_000003” is extracted regardless of the current location information of the mobile phone.
  • ⁇ Search example 6> The current direction information of the terminal is "192 degrees”, the playback condition is set to "Play only memory images shot within ⁇ 5 degrees of direction difference” with “Playback of memory images based on directions” The image data “img_000003” is extracted.
  • the current date and time information of the terminal is “October 01, 2017 13:25:15”
  • the current position information of the terminal is “35.4030 / 139.5329”
  • the playback condition is “Reproduction of memories based on the year” It is set to “play back a memorized image taken two years or more before the date and time”, and “play back a memorized image taken within one month before or after” in “play back a memorized image based on the moon”
  • the image data “img_000002” is extracted.
  • ⁇ Search example 8> When the current direction information of the terminal is “ ⁇ degrees” and the reproduction condition is set to “reproduce when facing the direction of the object”, the current position is determined by the procedure shown in FIG. 4D for each image data. The direction ⁇ of the object is calculated from the image data. If there is image data in which the angle difference between the calculated direction ⁇ and the current direction ⁇ is within a predetermined value (X degrees), the image data is extracted. In calculating the direction ⁇ , the current position information and imaging conditions (position information, direction information, distance information) registered in the related information database are used.
  • the playback condition is “reproduction of a memory image based on the direction” (search example 6), and “when facing the direction of the object” “Playback” (search example 8) is a particularly unique process.
  • the image display method in the memory image display process (S210) of FIG. 7A will be specifically described.
  • the portable information terminal 100 displays the memory image received from the information server 300, but the information server 300 also sends related information at the time of shooting the image.
  • the image display unit 1104C compares the related information at the time of shooting the image to be displayed with the current status (current terminal information) of the portable information terminal 100, and displays based on the degree of coincidence of each information. Take control.
  • Several display examples are shown below.
  • FIG. 8A shows a display screen corresponding to the search result of ⁇ Search Example 3> described above.
  • the current date and time information of the portable information terminal 100 is “October 01, 2017 13:25:15” and the playback condition is “playback of a memory image based on time”
  • the two extracted from the information server 300 Image data “img_000001”, “img_000027” and their related information are received.
  • the image display unit 1104C superimposes the received image data “img_000001” and “img_000027” on the image data (hereinafter, camera image) 180d1 input from the second image input unit 134, respectively. It is displayed as 180d2 and 180d3.
  • the display sizes of the image data 180d2 and the image data 180d3 are changed, and the image data 180d3 is displayed larger.
  • This compares the current date and time information with the related information (photographing date and time information) of each image data, and controls the size according to the degree of coincidence. That is, in this example, the current time information (13:25:15) is compared with the time information of each image data, and the smaller image data 180d3 “img_000027” (13:22:53) is increased.
  • the other image data 180d2 “img_000001” (13:36:41) is displayed in a small size.
  • FIG. 8B shows a display screen corresponding to the search result of ⁇ Search Example 4> described above.
  • the current position information of the portable information terminal 100 is “35.4030 / 139.5329” and the reproduction condition is “reproduction of a memory image based on the current position”
  • two pieces of image data “img_000002” and “img_000027” extracted from the information server 300 are displayed.
  • ”And related information instead of displaying two pieces of image data, the related information (shooting position information) of each image data is compared with the current position information, and the image data with the higher degree of matching (the one with the smaller error) is selected. Is displayed.
  • image data (camera image) 180e1 input from the second image input unit 134 is selected as image data (memory image) 180e2 by selecting image data of “img_000027” (shooting position information is “35.4031 / 139.5330”). Are displayed side by side.
  • FIG. 8B (a) shows a case where the error between the two is small (the degree of coincidence is high), and the display ratio of the image data (memory image) 180e2 is increased.
  • FIG. 8B (b) shows a case where the error between the two is large (the degree of coincidence is small), and the display ratio of the image data (memory image) 180e2 is reduced.
  • the display ratio is controlled to be updated according to the current position.
  • FIG. 8C shows a display screen corresponding to the search result of ⁇ Search Example 6> described above.
  • the current direction information of the portable information terminal 100 is “192 degrees” and the reproduction condition is “reproduction of a memory image based on the direction”
  • one piece of image data “img_000003” extracted from the information server 300 and its related information Receive is displayed as image data (memory image) 180f2 superimposed on the image data (camera image) 180f1 input from the second image input unit 134.
  • the display size of the image data (memory image) 180f2 depends on the degree of coincidence between the related information of the image data and the current status (current date information, current position information, current direction information, etc.) of the portable information terminal 100. Control accordingly.
  • the shooting direction information (195 degrees) of “img_000003” and the current direction information (192 degrees) are compared.
  • FIG. 8C (a) shows a case where the degree of coincidence is large (the error is small) and the image data 180f2 is displayed large.
  • FIG. 8C (b) shows a case where the degree of coincidence is small (the error is large), and the image data 180f2 is displayed small.
  • ⁇ Display Example 3> in FIG. 8C can also be applied to the case where the search result of ⁇ Search Example 8> described above is displayed.
  • the current direction information of the portable information terminal 100 is “ ⁇ degrees” and the reproduction condition is set to “reproduce when facing the direction of the object”, the direction ⁇ of the object becomes the current direction ⁇ .
  • Receive near image data (memory image). Also in this case, as shown in FIG. 8C, the received image data (memory image) is displayed as image data 180f2.
  • the display size of the image data 180f2 is compared with the direction ⁇ of the object and the current direction ⁇ . If the error is small, the image data 180f2 is displayed large as shown in FIG. The image data 180f2 is displayed small as shown in (b). Alternatively, the image data 180f2 may be displayed larger if the calculated distance N to the object is small, and the image data 180f2 may be displayed smaller if the distance N to the object is large.
  • the size of the memory image is changed according to the degree of coincidence between the current terminal status and the related information at the time of shooting, but the image transmission is performed according to the degree of coincidence. It may be displayed at different degrees.
  • control may be performed so that when one of the memory images being displayed is selected by a user operation instruction, a full screen display is performed.
  • the display ratio of the selected image and the camera image may be controlled to be switched.
  • the camera images 180d1 and 180f1 may be surrounding scenery that has been transmitted through the display.
  • the memory images 180d2 and 180f2 are superimposed and displayed on the surrounding scenery.
  • the portable information terminal 100 is related to the current terminal status (date and time, position, direction, etc.) among memory images that the user has captured and registered in the information server 300 in the past.
  • a deep image is acquired and superimposed or displayed side by side on the current surrounding scenery.
  • the image particularly deeply related to the current status is highlighted and displayed. Thus, it is possible to effectively remind the user of memories.
  • a viewing apparatus that can be mounted on a user's head and can display VR (Virtual Reality) or the like will be described.
  • FIG. 9A is a diagram showing a use state in which the portable information terminal 100 is inserted into the viewing device (adapter) 10 and the user 1 wears it.
  • (A) is a top view of the user 1 wearing the viewing apparatus 10 as seen from directly above
  • (b) is a front view of the user 1 wearing the viewing apparatus 10 as seen from the front.
  • HMD Head-Mounted Display
  • the user 1 may hold and use the portable information terminal 100 with both hands or one hand so that the portable information terminal 100 is placed in front of the eyes.
  • the viewing apparatus 10 has a configuration in which the portable information terminal 100 such as a smartphone or a tablet terminal is inserted and supported in the slit portion 20.
  • the user 1 places the viewing apparatus 10 with the portable information terminal 100 inserted in front of his / her eyes and fixes it to the head using a belt or the like.
  • the display screen (display unit 131) of the portable information terminal 100 has a VR (Virtual Reality) that superimposes an artificial object created by computer graphics (CG) on the image data (camera image) input from the second image input unit 134.
  • Display MR (Mixed Reality) display, and the like can be performed.
  • AR Augmented Reality
  • the image displayed on the display screen of the portable information terminal 100 enters the eyes of the user 1 through the lens unit 11 disposed inside the viewing device 10. Further, the partition wall portion 12 prevents mixing of images that have passed through the left and right lens portions 11.
  • the slit portion 20, the lens portion 11, the partition wall portion 12 and the like described above are for explaining the internal structure of the viewing device 10, and are not exposed to the outside during normal times. Further, during normal times, the portable information terminal 100 is covered with a part of the housing of the viewing device 10 like a lid, and the portable information terminal 100 is dropped or displaced even when the head of the user 1 moves up and down and left and right. It is desirable to have a structure that prevents this.
  • a window 13 is provided in the housing of the viewing device 10, and the second image input unit 134 provided on the back surface of the portable information terminal 100 is exposed.
  • FIG. 9B is a diagram illustrating changes in the user's line of sight and the pointing direction of the portable information terminal 100 when the user 1 moves his / her head.
  • (A) is the top view which looked at user 1 from right above.
  • the portable information terminal 100 inserted into the viewing device 10 moves from the position 100a to the position 100b.
  • the direction in which the portable information terminal 100 points at the position 100a is Da
  • the direction toward the position 100b is Db
  • the relative angle difference is ⁇ .
  • (b) is a diagram in which the change of the directivity direction (Da ⁇ Db) of the portable information terminal 100 in (a) is expressed with the center position of the portable information terminal 100 fixed.
  • the size of the image data 180f2 is controlled according to the size of the angle difference ⁇ . Further, the transparency of the image data 180f2 may be changed according to the magnitude of the angle difference ⁇ .
  • the display size is also controlled to be updated as appropriate.
  • the image data registered in the image database of the information server 300 may not be image data captured by the portable information terminal 100 and uploaded via the network 200.
  • the store manager creates and registers an advertisement image of the store on the PC.
  • the sale date of the own store is registered as shooting date information
  • the latitude / longitude information in front of the front entrance of the own store is registered as shooting position information.
  • the shooting direction information the direction information at the time of directing from the position in front of the own store front entrance to the own store front entrance is registered.
  • “Share with all users” is selected as the setting of the “Share image” item in the public level setting.
  • an arbitrary user points the portable information terminal 100 toward the front entrance of the store in front of the front entrance of the store managed by the store manager on the day when the information on the special sale date and the “day” coincides.
  • the mobile information terminal 100 can acquire the advertisement image from the information server 300 and display it.
  • the store manager can effectively promote the store itself by preparing an advertisement image and registering it as a memory image in advance.
  • Modification 2 When registering image data captured by the portable information terminal 100 and related information thereof in the information server 300, other related data (for example, voice data, text data, etc.) are registered simultaneously.
  • the related data is registered in a related file database (not shown) of the information server 300.
  • the related data is received simultaneously. Thereafter, when the image data (memory image) is displayed on the display unit 131 (S210), the related data is reproduced simultaneously. If it is voice data, voice playback software is activated and voice is output from the speaker. If it is text data, it is displayed on the display unit 131 by a notepad application or the like. Alternatively, only the related data is acquired in the process of S208, and the acquired related data is reproduced after the image data (memory image) displayed on the display unit 131 is selected by a user operation instruction. Also good. By performing such control, it is possible to reproduce the data related to the image simultaneously with the display of the image data (memory image), and therefore it is possible to recall the memory more effectively.
  • Each of the functional blocks of the present invention described above may be realized by hardware, for example, by realizing part or all of them by an integrated circuit.
  • the microprocessor unit or the like may be realized by software by interpreting and executing a program that realizes each function or the like. Hardware and software may be used together.
  • the software may be stored in advance in the ROM 103 or the storage unit 110 of the portable information terminal 100 at the time of product shipment. It may be obtained from various server devices on the Internet after product shipment. Further, the software provided by a memory card, an optical disk or the like may be acquired.
  • control lines and information lines shown in the figure are those that are considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • DESCRIPTION OF SYMBOLS 10 ... Viewing apparatus, 100 ... Portable information terminal, 104 ... RAM, 110 ... Storage part, 131 ... Display part, 133 ... First image input part, 134 ... Second image input part, 150 ... Sensor part, 160 ... Communication , 180 ... touch screen, 180b ... memory image control setting screen, 180c ... camera function screen, 180d-f ... display screen example, 200 ... network, 300 ... information server, 304 ... RAM, 310 ... storage unit, 360 ... LAN communication section, 1102 ... shooting function section, 1103 ... information acquisition section, 1104 ... memory image control section, 3101 ... information management section, 3102 ... image search section, 3011 ... image data storage area, 3012 ... related information storage area.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Telephone Function (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Abstract

携帯情報端末100は、撮影した画像データを情報サーバ300に保存するとき、撮影時の関連情報(日時情報、位置情報、方角情報、被写体までの距離情報、ユーザ識別情報)を情報サーバに送信する。また、情報サーバに保存されている画像データを要求するとき、現在の端末情報と、画像データの再生条件を記述した画像検索条件とを情報サーバに送信する。情報サーバは、現在の端末情報と画像検索条件とに基づいて、該当する画像データを検索し、携帯情報端末に送信する。携帯情報端末は、受信した画像データを関連画像として表示部に表示する。その際、撮影時の関連情報と現在の端末情報とを比較し、情報の一致度に応じて、関連画像の大きさを変えて表示する。これによりユーザは、撮影当時の状況や感動といった思い出を効果的に想起することができる。

Description

携帯情報端末、情報提示システム及び情報提示方法
 本発明は、画像を撮影して情報サーバに保存し、情報サーバから画像を取得して表示する携帯情報端末と、情報提示システム及び情報提示方法に関する。
 スマートホンやタブレット端末等の携帯情報端末の普及が進んでいる。携帯情報端末にはカメラ機能が搭載されており、ユーザは、カメラ機能を用いて様々な画像を撮影し、撮影した画像を携帯情報端末のストレージ部やクラウドストレージ等に保存することが可能である。また、ユーザは、携帯情報端末を用いてストレージ部やクラウドストレージ等に保存されている画像を再生表示することにより、画像を撮影した当時の状況や感動を思い返すことができる。
 例えば特許文献1には、「ユーザが、実際に当該の場所に出かけて、または自宅などに居ながら、当該の場所での他の人の状況や状態を体験して、その人との間に緩やかな繋がりを感じることができ、または当該の場所での過去の自分の状況や状態を追体験して、思い出を想起することができるようにする」ことを課題として、「ユーザ端末で現在位置が計測または指示され、サーバに送信されたとき、サーバは、その現在位置に対して一定の距離内の位置で撮影された写真の画像情報、撮影位置を示す情報、及び撮影時の撮影者の生体情報を当該ユーザ端末に送信する。当該ユーザ端末では、その送信された情報を、空間表現によって表示し、または振動や光の点滅によって呈示する」構成の情報呈示方法が開示されている。
特開2009-187233号公報
 前記特許文献1に記載の技術は、ユーザの操作指示により、現在位置(或いは、設定位置)と撮影位置及びその距離に基づいて画像を選択して、生体情報と共に提示するものである。その際、画像の選択条件として、現在位置と撮影位置の位置情報が用いられているが、この条件だけでは、ユーザに思い出を想起させる画像を効果的に提供することが困難と思われる。
 すなわち、ユーザに撮影した当時の思い出を効果的に想起させるためには、過去に画像を撮影した際の季節(月日)や時刻、撮影対象物(被写体)に対して指向していた方角など、様々な条件を加味して画像を選択する必要がある。例えば、冬のある日に撮影された画像が同じ季節(或いは、同じ月日)に提示されれば、当時の思い出を想起し易い。また、ある日の夕方に撮影された画像が同様の時間帯(夕方)に提示されれば、当時の思い出を想起し易い。また、過去に撮影した撮影対象物(被写体)が無くなってしまった後でも、当時の撮影位置から撮影対象物(被写体)があった方角を向いた場合に画像が提示されれば、当時の思い出を想起し易い。そしてこのような選択条件(季節、月日、時刻、方角等)は、ユーザごとに、またユーザの置かれた状況ごとに、変化するものであるから、ユーザが適宜設定できることが望ましい。
 また、選択された思い出画像をユーザに提示する際、その表示方法においても工夫が必要である。前記特許文献1では、過去に撮影した画像を地図とリンクさせて表示すると共に、撮影時にユーザから取得した生体情報を併せて提示するようにしている。しかしながら、現在、ユーザが携帯端末を用いて撮影を行っている状況において、撮影中のカメラ画像に対し、思い出画像をどのように表示するかについて考慮されていない。つまり、複数の画像が選択されたとき、これらを画一的に表示するのではなく、ユーザが特に関心を持つと思われる画像を強調して表示するのが望ましい。
 本発明の目的は、ユーザが過去に撮影して保存した画像を、ユーザが設定した条件で選択してユーザに対して効果的に表示する携帯情報端末、情報提示システム及び情報提示方法を提供することである。
 本発明の携帯情報端末は、撮影した画像データを入力する画像入力部と、携帯情報端末の状況として、日時情報、位置情報、方角情報、被写体までの距離情報を含む各種情報を取得する情報取得部と、ネットワークを介して情報サーバとの間で画像データ及び各種情報の送受信を行う通信部と、画像入力部に入力された画像データによる入力画像及び/または通信部で受信した画像データによる関連画像を表示する表示部と、携帯情報端末の各部の動作を制御する制御部と、を備える。前記制御部は、撮影した画像データを情報サーバに保存するとき、情報取得部で取得した撮影時の携帯情報端末の状況を示す各種情報、及び携帯情報端末のユーザを識別可能なユーザ識別情報を含む撮影時の関連情報とともに送信し、情報サーバに保存されている画像データを要求するとき、情報取得部で取得した現在の携帯情報端末の状況を示す各種情報、及び携帯情報端末のユーザを識別可能なユーザ識別情報を含む現在の端末情報と、携帯情報端末のユーザにより設定された画像データの再生条件を記述した画像検索条件とを情報サーバに送信し、情報サーバにて現在の端末情報と画像検索条件とに基づいて検索された画像データを取得し、関連画像として表示部に表示するように制御する。
 本発明の情報提示システムにおいて、携帯情報端末は、撮影した画像データを入力する画像入力部と、携帯情報端末の状況として、日時情報、位置情報、方角情報、被写体までの距離情報を含む各種情報を取得する情報取得部と、ネットワークを介して情報サーバとの間で画像データ及び各種情報の送受信を行う通信部と、画像入力部に入力された画像データによる入力画像及び/または通信部で受信した画像データによる関連画像を表示する表示部と、を備える。情報サーバは、携帯情報端末から送信された画像データと各種情報を保存するストレージ部と、携帯情報端末からの要求に応じて、ストレージ部から該当する画像データを検索する画像検索部と、ネットワークを介して携帯情報端末との間で画像データ及び各種情報の送受信を行う通信部と、を備える。
 前記携帯情報端末は、撮影した画像データを前記情報サーバに保存するとき、情報取得部で取得した撮影時の携帯情報端末の状況を示す各種情報、及び携帯情報端末のユーザを識別可能なユーザ識別情報を含む撮影時の関連情報とともに送信し、情報サーバに保存されている画像データを要求するとき、情報取得部で取得した現在の携帯情報端末の状況を示す各種情報、及び携帯情報端末のユーザを識別可能なユーザ識別情報を含む現在の端末情報と、携帯情報端末のユーザにより設定された画像データの再生条件を記述した画像検索条件とを前記情報サーバに送信する。前記情報サーバは、携帯情報端末から受信した現在の端末情報と画像検索条件とに基づいてストレージ部から該当する画像データを検索し、検索した画像データを携帯情報端末に送信する。
 本発明の情報提示方法は、携帯情報端末が、撮影した画像データを情報サーバに保存するとき、撮影した画像データとともに、撮影時の携帯情報端末の状況を示す日時情報、位置情報、方角情報、被写体までの距離情報を含む各種情報、及び携帯情報端末のユーザを識別可能なユーザ識別情報を含む撮影時の関連情報を情報サーバに送信するステップと、情報サーバが、携帯情報端末から送信された画像データと撮影時の関連情報をストレージ部に保存するステップと、を備える。また、携帯情報端末が、情報サーバに保存されている画像データを要求するとき、現在の携帯情報端末の状況を示す各種情報、及び携帯情報端末のユーザを識別可能なユーザ識別情報を含む現在の端末情報と、携帯情報端末のユーザにより設定された画像データの再生条件を記述した画像検索条件とを情報サーバに送信するステップと、情報サーバが、携帯情報端末から受信した現在の端末情報と画像検索条件とに基づいて、ストレージ部から該当する画像データを検索し、検索した画像データを携帯情報端末に送信するステップと、携帯情報端末が、情報サーバから送信された画像データを関連画像として表示部に表示するステップと、を備える。
 本発明によれば、ユーザが過去に撮影して保存した画像をユーザが設定した条件で選択し、関連の深い画像が強調して表示されるので、ユーザは撮影当時の状況や感動といった思い出を効果的に想起することができる。
情報提示システムの構成図。 携帯情報端末の外観図。 携帯情報端末のホーム画面を示す図。 携帯情報端末のハードウェア構成図。 携帯情報端末のソフトウェア構成図。 情報サーバのハードウェア構成図。 携帯情報端末の思い出制御設定画面を示す図。 登録条件設定の詳細を説明する図。 再生条件設定の詳細を説明する図。 対象物の方向の算出法を説明する図。 携帯情報端末のカメラ機能画面を示す図。 思い出画像登録処理のフローチャート。 情報サーバにおける画像データベースの構成図。 情報サーバにおけるユーザデータベースの構成図。 情報サーバにおける関連情報データベースの構成図。 思い出画像再生処理のフローチャート(携帯情報端末側)。 思い出画像検索処理のフローチャート(情報サーバ側)。 思い出画像の表示画面の例を示す図(表示例1)。 思い出画像の表示画面の例を示す図(表示例2)。 思い出画像の表示画面の例を示す図(表示例3)。 携帯情報端末を挿入した視聴用装置の使用状態を示す図。 ユーザの視線及び携帯情報端末の指向方向の変化の説明図。
 以下、本発明の実施形態の例を、図面を用いて説明する。以下に述べる実施例では、「思い出画像」という用語を用いているが、その画像を撮影したユーザにとって、撮影した当時の状況や感動を再現して思い出を想起することができる画像のことである。具体的には、撮影時の様々な条件(日時、位置、ほか)が現在の状況(日時、位置、ほか)に関連したものであることが多く、一般には「関連画像」と呼ぶことができる。
 本実施例で用いる携帯情報端末は、携帯電話やスマートホン、タブレット端末等であって良い。あるいは、ヘッドマウントディスプレイ(HMD=Head Mounted Display)等の頭部装着型情報端末であっても良い。さらには、スマートホンやタブレット端末等をアダプタに固定することにより頭部装着型情報端末の代替としたものであっても良い。その他、PDA(Personal Digital Assistants)やノート型PC(Personal Computer)、電子ブックリーダ等であっても良い。また、デジタルスチルカメラや動画撮影可能なビデオカメラ、携帯型ゲーム機等、その他のデジタル機器であっても良い。以下の実施例では、携帯情報端末として主にスマートホンを用いた場合について説明する。
 [情報提示システム構成]
  図1は、本実施例の情報提示システムの一例を示すシステム構成図である。情報提示システムは、携帯情報端末100とインターネット等のブロードバンドネットワーク200と情報サーバ300とで構成される。
 携帯情報端末100は、図示を省略したアクセスポイント等を介して、或いは、図示を省略した移動体電話通信網の基地局等を介して、ネットワーク(インターネット)200と接続可能であり、ネットワーク200上の各サーバ装置とのデータ送受信が可能である。携帯情報端末100とアクセスポイントとの接続は、Wi-Fi(登録商標)等の無線通信方式やその他の通信方式により行われる。携帯情報端末100と移動体電話通信網の基地局との接続は、W-CDMA(Wideband Code Division Multiple Access)(登録商標)方式やGSM(Global System for Mobile communications)(登録商標)方式、LTE(Long Term Evolution)方式、或いはその他の通信方式によって行われる。
 情報サーバ300は、情報記憶/提示サービスを行う業者によって設置されるサーバ装置である。情報サーバ300は、携帯情報端末100から送信された画像データ及び関連情報を受信して記憶し、また、携帯情報端末100からの要求に応じて検索した画像データ及び関連情報を携帯情報端末100に送信する。
 なお、図1では、ネットワーク200に接続される携帯情報端末100及び情報サーバ300は、それぞれ1台のみ記載しているが、適宜複数の携帯情報端末100と複数の情報サーバ300を接続し、相互にデータ送受信を行うことができる。
 [携帯情報端末の外観]
  図2Aは、携帯情報端末100の一例を示す外観図である。ここでは、携帯情報端末100がスマートホンである場合の前面(表面)図(a)、及び背面(裏面)図(b)を示す。
 (a)において携帯情報端末100の前面には、動作インジケータ124、第一画像入力部133、モノラルスピーカ142、タッチスクリーン180、が備えられる。動作インジケータ124は、LED(Light Emitting Diode)の点灯/点滅の有無により携帯情報端末100の動作状態を表示する。タッチスクリーン180は、タッチパネル123と表示部131で構成される。
 (b)において携帯情報端末100の背面には、タッチセンサ122、第二画像入力部134、補助光発光/赤外線測距器135、ステレオスピーカ143、が備えられる。補助光発光/赤外線測距器135は、第二画像入力部134からの画像入力時に、光量不足を補うための補助光を発光する。また、補助光発光/赤外線測距器135は、赤外線を用いて被写体までの距離測定を行う。
 ここで、2つの画像入力部のうち、前面に配置される第一画像入力部133を「インカメラ」、背面に配置される第二画像入力部134を「アウトカメラ」と呼ぶことにする。タッチセンサ122は、携帯情報端末100の背面ではなく、側面や前面下部(タッチスクリーン180と重ならない部分)等に配置されても良い。また、タッチスクリーン180を構成するタッチパネル123がタッチセンサ122の機能を併せ持っていても良い。この場合、タッチスクリーン180上の任意の位置においてタッチセンサ122の機能(例えば、指紋認証機能)を実行することが可能である。
 携帯情報端末100の上端には、操作キー121の一つである電源キー121pが備えられる。携帯情報端末100の下端には、音声入力部145、拡張インタフェース部170の一つであるμ-USB入力部170uが備えられる。
 [携帯情報端末のホーム画面]
  図2Bは、携帯情報端末100で表示されるホーム画面の一例を示す図である。タッチスクリーン180に表示されるホーム画面180aは、主機能アイコン表示領域180a1、一般アイコン表示領域180a2、その他情報表示領域180a3、制御キー領域180a4、通知領域180a5、で構成される。ホーム画面180aは、携帯情報端末100の電源オン後やスリープ状態の解除後、任意のアプリケーションを実行中に、ホームキーをタッチした場合等に表示される基本画面である。
 主機能アイコン表示領域180a1は、携帯情報端末100で頻繁に使用される主要アプリケーションに関連付けられたアイコンの表示領域である。一般アイコン表示領域180a2は、その他のアプリケーションに関連づけられたアイコンの表示領域である。その他情報表示領域180a3は、時刻情報や気象情報等の一般的な情報を表示する領域である。制御キー領域180a4は、「バックキー」、「ホームキー」、「アプリ履歴キー」を表示する領域である。通知領域180a5は、電波状態やバッテリ残量等の情報が通知される領域である。
 [携帯情報端末のハードウェア構成]
  図2Cは、携帯情報端末100のハードウェア構成の一例を示す図である。携帯情報端末100は、主制御部101、システムバス102、ROM103、RAM104、ストレージ部110、操作入力部120、画像処理部130、音声処理部140、センサ部150、通信部160、拡張インタフェース部170、を備えて構成される。
 主制御部101は、所定の動作プログラムに従って携帯情報端末100全体を制御するマイクロプロセッサユニットである。システムバス102は、主制御部101と携帯情報端末100内の各動作ブロックとの間で各種コマンドやデータの送受信を行うためのデータ通信路である。
 ROM(Read Only Memory)103は、オペレーティングシステムなどの基本動作プログラムやその他の動作プログラム(アプリケーション、以下同様)が格納されたメモリであり、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュROMのような書き換え可能なROMが用いられる。RAM(Random Access Memory)104は、基本動作プログラムやその他の動作プログラム実行時のワークエリアとなる。ROM103及びRAM104は、主制御部101と一体構成であっても良い。また、ROM103は、図2Cに示したような独立構成とはせず、ストレージ部110内の一部記憶領域を使用するようにしても良い。
 ストレージ部110は、携帯情報端末100の動作プログラムや動作設定値、携帯情報端末100の正規ユーザの個人情報や認証情報等を記憶する。また、ネットワーク上からダウンロードした動作プログラムや該動作プログラムで作成した各種データ等を記憶可能である。また、ネットワーク上からダウンロードした動画や静止画や音声等のコンテンツを記憶可能である。また、カメラ機能を使用して撮影した動画や静止画等のデータを記憶可能である。ストレージ部110の一部領域を以ってROM103の機能の全部または一部を代替しても良い。また、ストレージ部110は、携帯情報端末100に外部から電源が供給されていない状態であっても記憶している情報を保持する必要がある。従って、例えば、フラッシュROMやSSD(Solid State Drive)などの半導体素子メモリ、HDD(Hard Disc Drive)などの磁気ディスクドライブ、等のデバイスが用いられる。なお、ROM103やストレージ部110に記憶された各動作プログラムは、ネットワーク上の各サーバ装置からのダウンロード処理により更新及び機能拡張することが可能である。
 操作入力部120は、携帯情報端末100に対する操作指示の入力を行う指示入力部である。操作入力部120は、ボタンスイッチ等を並べた操作キー121、静電容量の変化に基づいて操作者(ユーザ)の手指が触れたことを検出するタッチセンサ122、表示部131に重ねて配置したタッチパネル123、で構成される。更に、その他の操作デバイスとして、拡張インタフェース部170に接続したキーボード、有線通信または無線通信により接続された別体の携帯端末機器、等を用いても良い。あるいは音声入力により携帯情報端末100の操作を行っても良い。なお、タッチセンサ122はセンサ部に触れた手指の指紋や掌紋を検出する機能を備える。
 画像処理部130は、表示部131、画像信号処理部132、第一画像入力部133、第二画像入力部134、で構成される。表示部131は、例えば液晶パネル等の表示デバイスであり、画像信号処理部132で処理した画像データを表示し、携帯情報端末100のユーザに提供する。画像信号処理部132は図示を省略したビデオRAMを備え、入力した画像データに基づいて表示部131を駆動する。また、画像信号処理部132は、必要に応じて、符号化映像信号の復号処理、フォーマット変換処理、メニューやその他のOSD(On Screen Display)信号の重畳処理等を行う。第一画像入力部133及び第二画像入力部134は、インカメラ、アウトカメラなどの撮影ユニットであり、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の電子デバイスを用いてレンズから入力した光を電気信号に変換し、被写体の画像データを取り込む。
 音声処理部140は、音声出力部141、音声信号処理部144、音声入力部145、で構成される。音声出力部141はスピーカであり、音声信号処理部144で処理した音声信号を携帯情報端末100のユーザに提供する。モノラルスピーカ142は音声通話時等にモノラル音声の出力を行い、ステレオスピーカ143は音楽再生時等にステレオ音声の出力を行う。音声信号処理部144は、必要に応じて、符号化音声信号の復号処理等を行う。音声入力部145はマイクであり、ユーザの声などを音声データに変換して入力する。
 センサ部150は、携帯情報端末100の状態を検出するための各種センサ群である。センサとして、GPS(Global Positioning System)受信部151、ジャイロセンサ152、地磁気センサ153、加速度センサ154を有し、携帯情報端末100の位置、傾き、方角、動きを検出する。その他に、照度センサ、近接センサ、気圧センサ等を備え、周囲の明るさ、周囲物の近接状況等を検出しても良い。
 通信部160は、LAN(Local Area Network)通信部161、電話網通信部162、NFC(Near Field Communication)部163、で構成される。LAN通信部161はアクセスポイント等を介してインターネット等のネットワーク200と接続され、ネットワーク上の情報サーバ300とデータの送受信を行う。アクセスポイント等との接続はWi-Fi(登録商標)等の無線接続で行う。電話網通信部162は移動体電話通信網の基地局等との無線通信により、電話通信(通話)及びデータの送受信を行う。基地局等との通信はW-CDMA(登録商標)方式やLTE方式等で行われて良い。NFC部163は対応するリーダ/ライタとの近接時に無線通信を行う。LAN通信部161と電話網通信部162とNFC部163は、それぞれ符号化回路や復号回路やアンテナ等を備える。通信部160は、更に、Bluetooth(登録商標)通信部や赤外線通信部等を備えていても良い。
 拡張インタフェース部170は、携帯情報端末100の機能を拡張するためのインタフェース群であり、映像/音声インタフェース、USB(Universal Serial Bus)インタフェース、メモリインタフェース等で構成される。映像/音声インタフェースは、外部映像/音声機器との間で映像信号/音声信号の入力/出力を行う。USBインタフェースは、PCやキーボード、その他のUSB機器と接続して、データの送受信を行う。メモリインタフェースは、メモリカードやその他のメモリ媒体を接続してデータの送受信を行う。
 なお、図2Cに示した携帯情報端末100の構成例は、本実施例の動作に必須ではない構成も多数含んでおり、これらが備えられていない構成であっても本実施例の効果を損なうことはない。
 [携帯情報端末のソフトウェア構成]
  図2Dは、携帯情報端末100のソフトウェア構成の一例を示す図である。ここには、ストレージ部110(或いはROM103、以下同様)及びRAM104におけるソフトウェアの構成を示す。ストレージ部110には、基本動作プログラム1001、撮影プログラム1002、情報取得プログラム1003、思い出画像制御プログラム1004、その他の動作プログラム1009、が記憶される。また、ストレージ部110は、携帯情報端末100或いはそのユーザを識別可能なユーザ識別情報を記憶する識別情報記憶領域1011と、その他の情報を記憶する各種情報記憶領域1019を備える。
 ストレージ部110に記憶された基本動作プログラム1001はRAM104に展開され、更に主制御部101が前記展開された基本動作プログラムを実行することにより、基本動作部1101を構成する。同様に、撮影プログラム1002と情報取得プログラム1003と思い出画像制御プログラム1004とその他の動作プログラム1009は、それぞれRAM104に展開され、更に主制御部101が前記展開された各動作プログラムを実行することにより、撮影機能部1102と情報取得部1103と思い出画像制御部1104とその他の動作部1109を構成する。また、RAM104は、各動作プログラム実行時に作成したデータを一時的に記憶する一時記憶領域1200を備える。
 なお、以下では動作説明を簡単にするために、主制御部101がストレージ部110に記憶された基本動作プログラム1001をRAM104に展開して実行することにより各動作ブロックの制御を行う処理を、基本動作部1101が各動作ブロックの制御を行うものとして記述する。他の動作プログラムによる他の機能ブロックの動作に関しても、同様の記述を行う。
 撮影機能部1102は、第一画像入力部133や第二画像入力部134等のカメラユニットを用いた画像撮影処理を制御する。なお、画像撮影処理における一般的な動作/処理に関しては公知であるため、詳細な説明を省略する。
 情報取得部1103は、日時情報取得部1103Aと位置情報取得部1103Bと方角情報取得部1103Cと距離情報取得部1103Dとを備える。日時情報取得部1103Aは、図示を省略した内蔵時計やネットワークに接続された標準時刻サーバから、日時情報を取得する。位置情報取得部1103Bは、GPS受信部151が受信した信号に基づいて、携帯情報端末100の位置情報を取得する。あるいは、Bluetooth(登録商標)通信部によりビーコン信号を受信することでも可能である。方角情報取得部1103Cは、地磁気センサ153が検出した地磁気情報に基づいて、携帯情報端末100が指向する方角情報を取得する。距離情報取得部1103Dは、補助光発光/赤外線測距器135による距離測定等の公知技術を用いて、携帯情報端末100と撮影対象物(被写体)との距離情報を取得する。
 思い出画像制御部1104は、画像登録部1104A、画像要求部1104B、画像表示部1104Cを備える。画像登録部1104Aは、ユーザが撮影した画像を情報サーバ300に登録保存するための制御を行う。画像要求部1104Bは、ユーザの要求にしたがい情報サーバ300から登録保存されている画像を取得するための制御を行う。画像表示部1104Cは、情報サーバ300から取得した画像を表示部131に表示する制御を行う。
 なお、前記各動作プログラムは、製品出荷の時点で、予めストレージ部110に記憶された状態とする。あるいは、製品出荷後に、ネットワーク上の各サーバ装置からLAN通信部161または電話網通信部162等を介して取得しても良い。また、メモリカードや光ディスク等に格納された前記各動作プログラムを、拡張インタフェース部170等を介して取得しても良い。
 [情報サーバのハードウェア構成]
  図3は、情報サーバ300のハードウェア構成(一部ソフトウェア構成を含む)の一例を示す図である。情報サーバ300は、主制御部301、システムバス302、RAM304、ストレージ部310、LAN通信部360、で構成される。
 主制御部301は、所定の動作プログラムに従って情報サーバ300全体を制御するマイクロプロセッサユニットである。システムバス302は、主制御部301と情報サーバ300内の各動作ブロックとの間で各種コマンドやデータの送受信を行うためのデータ通信路である。RAM304は、各動作プログラム実行時のワークエリアである。RAM304は、主制御部301と一体構成であっても良い。
 ストレージ部310には、情報管理プログラム3001と画像検索プログラム3002が記憶される。また、ストレージ部310は、画像データ記憶領域3011と関連情報記憶領域3012が備えられる。ストレージ部310に記憶された情報管理プログラム3001と画像検索プログラム3002はRAM304に展開され、更に主制御部301が前記展開された情報管理プログラムと画像検索プログラム3002を実行することにより、情報管理部3101と画像検索部3102を構成する。また、RAM304は、各動作プログラム実行時に作成したデータを、必要に応じて一時的に記憶する一時記憶領域(図示省略)を備える。ここに情報管理部3101は、携帯情報端末100から送信された思い出画像とその関連情報を、画像データ記憶領域3011と関連情報記憶領域3012に保存する。画像検索部3102は、携帯情報端末100からの要求に応じて、該当する思い出画像を検索する。
 LAN通信部360は、図示を省略したルータ装置等を介してインターネット等のネットワーク200と接続され、ネットワーク上の携帯情報端末100とデータの送受信を行う。ルータ装置を介したインターネット等との接続は、有線接続でも無線接続でも良い。LAN通信部360は、符号化回路や復号回路等を備える。
 [思い出画像の制御処理]
  以下では、携帯情報端末100を用いて撮影した画像データを思い出画像として情報サーバ300に保存するとともに、情報サーバ300に保存された思い出画像を検索して携帯情報端末100に提供して再生表示する思い出画像の制御処理に関して説明する。なお、以下では「思い出画像の制御処理」等を単に「思い出制御処理」等と呼ぶ場合がある。
 [思い出制御設定処理]
  図4Aは、携帯情報端末100における思い出画像の制御設定画面(思い出制御設定画面)の一例を示す図である。思い出制御設定画面180bは、思い出制御アプリケーションを起動することにより表示される。思い出制御アプリケーションの起動指示は、図2Bのホーム画面180aにおいて、主機能アイコンまたは一般アイコンの表示領域180a1、180a2に表示されている思い出制御アプリケーションのアイコンをタップすることで行う。基本動作部1101は、ユーザの指示に応じて思い出画像制御部1104に制御主体を委譲し、思い出画像制御部1104は、タッチスクリーン180(表示部131)に思い出画像の制御条件を設定する思い出制御設定画面180bを表示する。
 思い出制御設定画面180bは、ログイン設定領域180b1、登録条件設定領域180b2、再生条件設定領域180b3、で構成される。ログイン設定領域180b1は、情報サーバ300にログインするためのログイン名情報、及びユーザ認証のためのパスワード情報を入力する領域である。思い出制御アプリケーションが起動されると、携帯情報端末100は、ログイン設定領域180b1に入力された各情報を用いて、情報サーバ300にログインする。
 登録条件設定領域180b2は、カメラ機能を用いて撮影した画像データを思い出画像として登録するか否か、及び思い出として登録した画像データを他のユーザと共有するか否かを設定する領域である。再生条件設定領域180b3は、過去に撮影して情報サーバ300に保存した思い出画像を、どのような条件に基づいて選択し再生表示するかを設定する領域である。具体的な選択条件として、携帯情報端末100が取得した現在の端末の情報(現在日時情報、現在位置情報、現在方角情報等)に基づき、これに関連した撮影条件の思い出画像を選択する。また、他のユーザ(友達)が思い出として登録した画像データを取得して再生表示することも可能である。ユーザは、設定画面180bの所望する条件の項目をチェックすれば良い。さらに、登録条件設定領域180b2及び再生条件設定領域180b3に表示される「詳細」キーは、これをタップすることで各設定項目について詳細な条件を入力できる。
 ログイン設定領域180b1に入力された各情報は、ストレージ部110の識別情報記憶領域1011に記憶される。登録条件設定領域180b2及び再生条件設定領域180b3に入力された各情報は、ストレージ部110の各種情報記憶領域1019に記憶される。
 図4Bは、登録条件設定領域180b2における詳細設定を説明する図である。ここでは、ユーザが「画像を共有」の項目をチェックし、思い出画像として登録した画像データを他のユーザと共有する場合について説明する。
 「画像を共有」の項目では、登録した画像データを、「登録済みユーザと共有する」のか、「全てのユーザと共有する」のか、すなわち画像の公開レベルを選択可能である。前者の「登録済みユーザと共有する」場合には公開レベルを制限し、更に設定範囲として、画像データの共有を許可するユーザを登録(設定)する。ユーザの登録は、メールアドレス情報や情報サーバ300にログインするためのログイン名情報等で指定する。一方、後者の「全てのユーザと共有する」場合には、情報サーバ300にログインしている全てのユーザが共有の対象となる。
 図4Cは、再生条件設定領域180b3における詳細設定を説明する図である。ここでは、情報サーバ300に保存した思い出画像をどのような条件で再生表示するかを詳細に設定する。
 「日時に応じて再生」の項目をチェックした場合は、日時の詳細条件として、「年」、「月」、「日」、「時刻」に分けて設定する。「年」に応じて再生する場合は、更に設定範囲として、現在日時と同じ年に撮影された画像のみを再生するか、現在日時からX年以上前に撮影された画像を再生するか、を選択できる。「月」に応じて再生する場合は、更に、現在日時と同じ月に撮影された画像のみを再生するか、現在日時と同じ月の前後Xか月以内に撮影された画像を再生するか、を選択できる。「日」に応じて再生する場合は、更に、現在日時と同じ日に撮影された画像のみを再生するか、現在日時と同じ日の前後X日以内に撮影された画像を再生するか、を選択できる。「時刻」に応じて再生する場合は、更に、現在時刻と同じ時刻の前後X分以内に撮影された思い出画像を再生する、ことを設定できる。なお、日時についての「年」、「月」、「日」、「時刻」の条件は、単独の条件でも、あるいは複数の条件を組み合わせたものでも良い。
 「位置に応じて再生」の項目をチェックした場合は、詳細条件として「現在位置」または「指定位置」に分けて設定する。「現在位置」に応じて再生する場合は、更に、携帯情報端末100の現在位置から東西及び/または南北にXm以内の位置で撮影された画像を再生するようにX値を設定できる。「指定位置」に応じて再生する場合は、更に、指定位置を緯度/経度にて設定し、指定位置から東西及び/または南北にXm以内の位置で撮影された画像を再生するようにX値を設定する。あるいはX値は緯度/経度の変化幅により指定しても良い。指定位置から半径Xm以内と指定しても良い。
 「方角に応じて再生」の項目をチェックした場合は、詳細条件として「方角」または「対象物の方向を向いたとき」に分けて設定する。「方角」に応じて再生する場合は、更に、携帯情報端末100が現在指向する方角と過去に撮影した際に指向していた方角との角度差が±X度以内となる画像を再生するようにX値を設定できる。「対象物の方向を向いたとき」に応じて再生する場合は、携帯情報端末100が過去に撮影した画像内の対象物(被写体)の方向を向いたときに、その対象物が含まれる画像を再生するものである。この場合にも、角度差が±X度以内となる画像を再生するようにX値を設定できる。
 「友達の画像を再生」の項目をチェックした場合は、詳細条件として「特定のユーザ」または「全てのユーザ」に分けて設定する。「特定のユーザ」の画像を再生する場合は、更に、どのユーザの撮影した画像を再生するかを設定する。ユーザの設定は、メールアドレス情報や情報サーバ300にログインするためのログイン名情報を用いる。なお、「特定のユーザ」は、図4Bの「画像を共有」の項目で登録したユーザと同じでも良い。「全てのユーザ」の画像を再生する場合は、情報サーバ300に登録されている全てのユーザの画像が再生の対象となる。
 また、上記した再生表示のための各設定条件(日時、位置、方角、友達の画像)は、単独でも複数の組み合わせでも良い。複数の設定条件を組み合わせる場合は、論理和(OR)、論理積(AND)などの論理式を用いて、再生条件をより好適に絞り込むことができる。これにより、単に撮影日時だけでなく撮影位置や撮影方向の条件を組み合わせることで、ユーザの好みに応じた再生条件を設定でき、ユーザが撮影した当時の状況や感動を効果的に想起させる思い出画像を提示することが可能となる。
 また、「方角に応じて再生」の中で、「対象物の方向を向いたとき」に対象物の含まれる画像を再生することは本実施例において特にユニークな処理であり、以下、その算出方法について説明する。
 図4Dは、携帯情報端末から見える対象物の方向の算出法を説明する図である。
  過去に、ユーザがA地点にて携帯情報端末100を用いて対象物Sの撮影を行い、その撮影画像を思い出画像として情報サーバ300に保存したとする。この際、携帯情報端末100と対象物Sとの距離はLであり、携帯情報端末100の指向する方角はαであったものする。なお、距離Lは、情報取得部1103の距離情報取得部1103Dで測定する。これらの撮影関連情報(A地点の位置情報、撮影方角α、距離L)は対象物Sの撮影画像データとともに情報サーバ300に保存される。
 一方、現在ユーザがB地点にいる場合、対象物Sの位置がどの方向となるかを説明する。A地点で取得した位置情報とB地点で取得した位置情報から、AB間の距離M及び角度βが算出できる。これらの情報(距離L、距離M、角度α、角度β)から、三角測量の計算により、B地点から対象物Sが見える方角γ、及びB地点から対象物Sまでの距離Nが算出可能である。すなわち、現在ユーザがB地点にいる場合、携帯情報端末100の指向する方角が前記算出した方角γ(或いは、その±X度以内)であれば、携帯情報端末100が対象物Sの方向を向いたものと判定することができる。
 [思い出画像登録処理]
  以下では、携帯情報端末100を用いて被写体の画像を撮影し、撮影した画像データを思い出画像としてその関連情報とともに情報サーバ300に登録保存する思い出画像登録処理について説明する。
 図5Aは、携帯情報端末100のカメラ機能画面の一例を示す図である。ユーザが、図2Bのホーム画面180aに表示されているカメラ機能アプリケーションのアイコンをタップすることで、タッチスクリーン180にはカメラ機能画面180cが表示される。カメラ機能画面180cは、カメラ制御キー領域180c1、カメラ設定キー領域180c3、焦点位置表示マーク180c4、で構成される、一方、カメラユニットである第一画像入力部(インカメラ)133、或いは第二画像入力部(アウトカメラ)134から入力した画像データは、タッチスクリーン180に重畳されて表示される。カメラ制御キー領域180c1にはシャッタキー180c2が備えられる。また、カメラユニットの切り替えは、カメラ設定キー領域180c3に用意されたカメラ切り替えキーをタップすることにより行われる。
 図5Bは、思い出画像登録処理を示すフローチャートである。この処理は、主に思い出画像制御部1104の画像登録部1104Aにより制御される。
 先ず、ユーザが携帯情報端末100に表示されたホーム画面180aを操作することにより、カメラ機能アプリケーションの起動を指示する。具体的には、図2Bの主機能アイコンまたは一般アイコンの表示領域180a1、180a2に表示されているカメラ機能アプリケーションのアイコンをタップする。基本動作部1101は、図4Aの思い出画像登録設定180b2を確認すると共に、ユーザの指示に応じて思い出画像制御部1104の画像登録部1104Aに制御主体を委譲する。画像登録部1104Aは、撮影機能部1102を起動する(S101)。撮影機能部1102は、カメラユニットのうち例えば第二画像入力部(アウトカメラ)134を有効化すると共に、第二画像入力部134から画像データの入力を開始する。更に撮影機能部1102は、図5Aに示したように、タッチスクリーン180(表示部131)に、第二画像入力部134から入力した画像データと共にカメラ機能画面180cを表示する(S102)。
 続いて、基本動作部1101は、タッチスクリーン180(タッチパネル123)へのユーザのタッチ操作による操作指示入力の有無を確認し、確認結果を画像登録部1104Aに知らせる(S103)。タッチスクリーン180への操作指示入力が無い場合は、指示を受けるまで待機する。タッチスクリーン180への操作指示入力がある場合、操作指示の種別を確認する(S104)。
 S104で確認した操作指示の種別がカメラ機能アプリケーションの終了の指示である場合は、S105へ進み、画像登録部1104Aは撮影機能部1102の動作を終了させ、制御主体を基本動作部1101に返還する。基本動作部1101は、タッチスクリーン180にホーム画面180aを表示する(S106)。
 S104で確認した操作指示の種別がシャッタ操作である場合は、S107へ進み、撮影機能部1102は第二画像入力部134から入力した画像データの取得シーケンスを開始する。先ず、撮影機能部1102が、第二画像入力部134から画像データを取得して、RAM104の一時記憶領域1200に記憶する(S107)。画像データの取得処理には、合焦や露光等の前処理、CCDやCMOSセンサ等の電子デバイスの出力をデジタルデータに変換する処理、ガンマ補正やノイズ除去や画像圧縮処理等の後処理を含む。次に、画像登録部1104Aは、情報取得部1103に対し撮影時の各種情報(日時情報ほか)の取得を要求する。
 これに応じて日時情報取得部1103Aは、前記画像データを取得した際の撮影日時情報(年、月、日、時、分、秒)を取得する(S108)。位置情報取得部1103Bは、前記画像データを取得した際の携帯情報端末100の撮影位置情報(経度、緯度)を取得する(S109)。方角情報取得部1103Cは、前記画像データを取得した際に携帯情報端末100が指向する撮影方角情報を取得する(S110)。更に距離情報取得部1103Dは、撮影対象物(被写体)までの被写体距離情報を取得する(S111)。
 次に、撮影した画像データを思い出画像として登録するか否かを判定する(S112)。撮影した画像データを思い出画像として登録するか否かは、図4Aに示した思い出制御アプリケーションの設定によりユーザが選択可能である。あるいは、ユーザメニュー等から設定できるようにしても良い。
 S112の判定で思い出画像として登録する場合は、S113へ進み、画像登録部1104Aは、登録する画像に関連する撮影時の関連情報を生成する。撮影時の関連情報としては、携帯情報端末100のユーザを識別可能なユーザ識別情報(または、携帯情報端末100を識別可能な端末識別情報でも良い)と、情報取得部1103が取得した撮影時の各種情報(日時情報、位置情報、方角情報、距離情報)、思い出制御設定画面180bの登録条件設定領域180b2の「画像を共有」項目で設定した公開レベル設定情報、などを含む。更に、画像登録部1104Aは、S107の処理で取得した画像データとS113の処理で生成した撮影時の関連情報を、通信部160及びネットワーク(インターネット)200を介して、情報サーバ300に送信する(S114)。
 情報サーバ300においては、画像データ記憶領域3011と関連情報記憶領域3012に、前記送信された画像データと撮影時の関連情報がそれぞれ関連付けられて記憶される。なお、S107の処理で取得した画像データとS113の処理で生成した撮影時の関連情報は、携帯情報端末100内のストレージ部110の各種情報記憶領域1019において併せて記憶しても良い。そしてS103へ戻り、上記の処理を繰り返す。
 一方、S112の判定で、撮影した画像データを思い出画像として登録しない場合は、S115へ進み、通常の撮影処理を行う。画像登録部1104Aは、S107で取得した画像データと、S108~S111で取得した撮影時の各種情報(日時情報、位置情報、方角情報、距離情報)から、画像ファイルを生成する(S115)。この画像ファイルは、公知のEXIF(Exchangeable Image File Format)形式等であっても良い。更に、画像登録部1104Aは、S115で生成した画像ファイルをストレージ部110の各種情報記憶領域1019に記憶する(S116)。そしてS103へ戻り、上記の処理を繰り返す。
 なお、S112の判定で撮影した画像データを思い出画像として登録しないとした場合でも、そのとき取得した画像データと撮影時の各種情報はストレージ部110に保存されている。従って、その後ユーザは、当該画像を思い出画像として情報サーバ300に送信し追加登録することができる。また、S115~S116の処理は、画像登録部1104Aに代わり撮影機能部1102が制御主体となって処理しても良い。
 [情報サーバのデータベース]
  携帯情報端末100から送信された思い出画像の画像データと撮影時の関連情報は、情報サーバ300の情報管理部3101により、画像データ記憶領域3011と関連情報記憶領域3012に保存される。ここでは、これらのデータがどのような構成で保存されるかを説明する。
 図6Aは、情報サーバ300の画像データ記憶領域3011に記憶される画像データベースの一例を示す図である。画像データベースの構成は、携帯情報端末100のユーザを識別可能なユーザ識別情報毎のフォルダに分割され、携帯情報端末100から送信された画像データは対応するフォルダに格納される。これらの各フォルダは、以下に述べるユーザデータベース(図6B)のログイン名情報、及び関連情報データベース(図6C)のユーザ識別情報で管理されている。また、フォルダ内の各画像データは、関連情報データベースの画像識別情報に対応するファイル名により管理されている。
 図6Bは、情報サーバ300の関連情報記憶領域3012に記憶されるユーザデータベースの一例を示す図である。ユーザデータベースは、情報記憶/提示サービスを利用するユーザの一覧を記憶するデータベースであり、ログイン名、パスワード、氏名、メールアドレス、連絡先番号等の情報が登録される。住所情報やクレジットカード情報等、その他の情報が更に登録されても良い。
 ログイン名は、情報記憶/提示サービスを利用するユーザを識別するための識別情報であり、情報記憶/提示サービスにログインする際に使用する。ログイン名はユーザ毎に一意に決定される。パスワードは、情報記憶/提示サービスにログインする際のユーザ認証に使用される認証情報である。パスワードは各ユーザが任意に指定可能である。氏名は、情報記憶/提示サービスを利用するユーザの氏名に関する情報である。メールアドレス及び連絡先番号は、情報記憶/提示サービスを利用する各ユーザへの連絡先に関する情報であり、各種連絡を行う際に使用される。図4Aに示したログイン設定領域180a1では、ログイン名及びパスワードをそれぞれ入力してログインを行う。
 図6Cは、情報サーバ300の関連情報記憶領域3012に記憶される関連情報データベースの一例を示す図である。関連情報データベースは、携帯情報端末100から送信された各画像データに関連する撮影時の関連情報を記憶するデータベースである。
 画像識別情報は、携帯情報端末100から送信された各画像データを識別可能な識別情報である。ユーザ識別情報は、各画像データの撮影(登録)者を識別可能なユーザ識別情報であり、ユーザデータベース(図6B)のログイン名が用いられる。画像識別情報とユーザ識別情報を組み合わせることで、画像データを一意に識別することができる。撮影日時情報は、携帯情報端末100から送信された各画像データの撮影日時情報であり、同様に、各画像データの撮影位置情報、撮影方角情報、被写体距離情報(図示省略)が、画像識別情報に対応して登録される。更に、携帯情報端末を識別可能な端末識別情報や公開レベル設定情報等の情報が登録されても良い。
 [思い出画像再生処理]
  以下では、過去に撮影して情報サーバ300に保存されている思い出画像を、携帯情報端末100の現在の状況に応じて検索取得し、携帯情報端末100に再生表示する思い出画像再生処理について説明する。
 図7Aと図7Bは、思い出画像再生処理を示すフローチャートであり、図7Aは携帯情報端末100側の処理を、図7Bは情報サーバ300側の処理を示す。
 まず、図7Aで携帯情報端末100側の画像再生処理を説明する。以下の処理は、思い出画像制御部1104の画像要求部1104Bにより制御される。なお、思い出画像再生処理を実行するか否かは、思い出制御アプリケーションの設定により選択できる。あるいは、ユーザメニュー等から設定できるようにしても良い。思い出画像再生処理を実行するように設定されている場合には、図7Aに示した処理フローは常に動作している。
 S201では、思い出画像制御部1104の画像要求部1104Bが、携帯情報端末100のユーザ識別情報と、思い出制御設定画面180bの再生条件設定領域180b3で設定した再生条件を記述した思い出画像検索条件(以下、画像検索条件)を生成する。更に、画像要求部1104Bは、S201の処理で生成した画像検索条件を、通信部160及びネットワーク200を介して、情報サーバ300に送信する(S202)。送信された画像検索条件は、情報サーバ300の関連情報記憶領域3012に記憶される。
 次に、画像要求部1104Bは、情報取得部1103に、現在の端末の状況(日時情報ほか)を取得するよう要求する。これに応じて、日時情報取得部1103Aは現在の日時情報を取得し(S203)、位置情報取得部1103Bは携帯情報端末100の現在の位置情報を取得する(S204)。さらに、方角情報取得部1103Cは携帯情報端末100が現在指向する方角情報を取得する(S205)。
 次にS206では、画像要求部1104Bは、情報取得部1103が取得した現在日時情報、現在位置情報及び現在方角情報と、携帯情報端末100のユーザ識別情報から、現在の端末状態の情報(以下、現在の端末情報)を生成する。更に画像要求部1104Bは、S206で生成した現在の端末情報を、通信部160及びネットワーク200を介して、情報サーバ300に送信する(S207)。
 これに対応し情報サーバ300では、図7Bに後述するように、携帯情報端末100から送信された画像検索条件(S202)と現在の端末情報(S207)に基づき、データベースから該当する画像データを検索して、思い出画像として撮影時の関連情報と一緒に、携帯情報端末100に送信する。
 S208では、携帯情報端末100の画像要求部1104Bは、情報サーバ300から思い出画像とその関連情報を受信したかどうかを判定する。思い出画像と関連情報を受信した場合には、携帯情報端末100の表示部131の稼働状況を判定し(S209)、思い出画像表示処理(S210)または思い出画像報知処理(S211)を実行する。S210とS211の処理は、主に思い出画像制御部1104の画像表示部1104Cにより制御される。
 S209の判定において、表示部131が稼動中である場合(画面表示が為されている場合)には、画像表示部1104Cは、ユーザが携帯情報端末100を使用中であると判断する。この場合にはS210に進み、画像表示部1104Cは、受信した思い出画像を表示部131に表示する。なお、思い出画像の表示方法の詳細については、後述する。その後、S212に進む。
 S209の判定において、表示部131が稼働中でない場合(画面表示が為されていない場合)には、画像表示部1104Cは、ユーザが携帯情報端末100を使用していないと判断する。この場合にはS211に進み、画像表示部1104Cは、ステレオスピーカ143から思い出画像を受信したことを知らせる報知音を出力する、または図示を省略したバイブレータにより携帯情報端末100の筐体を振動させる。これにより、ユーザは思い出画像を受信したことを知ることができる。
 一方、S208の判定で、情報サーバ300から思い出画像と関連情報を受信しなかった場合(或いは、再生の対象となる画像データが無い旨を情報サーバ300から受信した場合)には、S212へ進む。S212では、画像要求部1104Bは、思い出制御設定画面180bの再生条件設定領域180b3で設定した再生条件が更新されているか否かを確認する。再生条件が更新されている場合は、S201に戻って処理を繰り返す。再生条件が更新されていない場合は、S203に戻って処理を繰り返す。
 図7Bは、情報サーバ300の画像検索処理を示す。情報サーバ300の関連情報記憶領域3012には、図7AのS202で携帯情報端末100から送信された思い出画像検索条件(以下、画像検索条件)が記憶されている。以下の処理は、主に画像検索部3102により制御される。
 S301では、情報サーバ300は、携帯情報端末100から現在の端末情報(現在日時情報、現在位置情報、現在方角情報、ユーザ識別情報)を受信する(図7AのS207に対応)。画像検索部3102は、受信した現在の端末情報から、送信元の携帯情報端末100のユーザ識別情報を取得する。そして、予め携帯情報端末100から送信された画像検索条件のうち、前記ユーザ識別情報に対応する画像検索条件を確認する(S302)。
 次にS303では、画像検索部3102は、関連情報記憶領域3012に記憶された関連情報データベースを参照して、前記画像検索条件に一致する画像があるか否かを判定する。この判定は、S301で受信した現在の端末情報(現在日時情報、現在位置情報、現在方角情報、ユーザ識別情報)と、関連情報データベースに登録されている撮影時の関連情報(日時情報、位置情報、方角情報、距離情報)とを比較し、画像検索条件に記載された再生条件を参照することにより行う。その具体例は後述する。検索条件に一致する画像がある場合はS304に進み、検索条件に一致する画像がない場合には、処理を終了する。
 S304では、検索条件に一致した画像(以下、当該画像)が携帯情報端末100のユーザ自身が登録した画像であるか否かを判定する。この判定では、現在の端末情報から取得したユーザ識別情報と、関連情報データベースに登録されている当該画像データのユーザ識別情報とを比較すればよい。判定の結果、当該画像が携帯情報端末100のユーザ自身が登録した画像である場合は、S306の処理に進む。当該画像が携帯情報端末100のユーザ自身が登録した画像データでない場合は、S305に進む。
 S305では、当該画像データが、現在の端末情報から取得したユーザ識別情報で識別されるユーザに対して共有を許可されているか否かを判定する。この判定では、現在の端末情報から取得したユーザ識別情報と、関連情報データベースの当該画像データの公開レベル設定の情報とを比較すれば良い。判定の結果、当該画像データが前記識別されたユーザに対して共有を許可されている場合は、S306の処理に進む。当該画像データが前記識別されたユーザに対して共有を許可されていない場合は、処理を終了する。
 S306では、画像検索部3102は、当該画像データの画像識別情報に基づいて、画像データ記憶領域3011の画像データベースから当該画像データを取得する。更に、画像検索部3102は、取得した画像データを思い出画像として、関連情報データベースに登録されている撮影時の関連情報と共に、携帯情報端末100に送信する(S307)。
 このようにして情報サーバ300は、携帯情報端末100により設定された思い出画像検索条件に基づき、検索条件に一致する画像を画像データベースから検索して、思い出画像として携帯情報端末100に送信することができる。
 [思い出画像検索処理の具体例]
  前記図7Bの思い出画像の検索処理について、図6A~図6Cに記載された登録データを例に具体的に説明する。この画像検索処理では、携帯情報端末100から取得した現在の端末情報(現在日時情報、現在位置情報、現在方角情報)と、図6Cの関連情報データベースに登録されている撮影条件のデータを比較し、思い出画像検索条件に記載された再生条件(図4C)を参照して該当する画像を検索する。
 <検索例1>
  端末の現在日時情報が「2017年10月01日13時25分15秒」であり、再生条件が「年に基づく思い出画像の再生」で「現在日時から2年以上前に撮影された思い出画像を再生する」ように設定されている場合、画像データ「img_000001」と画像データ「img_000002」が抽出される。
 <検索例2>
  端末の現在日時情報が「2017年10月01日13時25分15秒」であり、再生条件が「年に基づく思い出画像の再生」で「現在日時から2年以上前に撮影された思い出画像を再生する」ように設定され、さらに「月に基づく思い出画像の再生」で「前後1カ月以内に撮影された思い出画像を再生する」ように設定されている場合、画像データ「img_000002」が抽出される。
 <検索例3>
  端末の現在日時情報が「2017年10月01日13時25分15秒」であり、再生条件が「時刻に基づく思い出画像の再生」で「前後15分以内に撮影された思い出画像を再生する」ように設定されている場合、画像データ「img_000001」と画像データ「img_000027」が抽出される。
 <検索例4>
  端末の現在位置情報が「35.4030/139.5329」であり、再生条件が「現在位置に基づく思い出画像の再生」で「緯度及び/または経度の誤差が0.0010以内で撮影された思い出画像を再生する」ように設定されている場合、画像データ「img_000002」と画像データ「img_000027」が抽出される。
 <検索例5>
  再生条件が「指定位置に基づく思い出画像の再生」で「指定位置=35.4050/139.5320」及び「緯度及び/または経度の誤差が0.0010以内で撮影された思い出画像を再生する」ように設定されている場合、携帯の現在位置情報によらず、画像データ「img_000003」が抽出される。
 <検索例6>
  端末の現在方角情報が「192度」であり、再生条件が「方角に基づく思い出画像の再生」で「方角の差分が±5度以内で撮影された思い出画像のみを再生する」ように設定されている場合、画像データ「img_000003」が抽出される。
 <検索例7>
  端末の現在日時情報が「2017年10月01日13時25分15秒」、端末の現在位置情報が「35.4030/139.5329」であり、再生条件が「年に基づく思い出画像の再生」で「現在日時から2年以上前に撮影された思い出画像を再生する」ように設定され、「月に基づく思い出画像の再生」で「前後1カ月以内に撮影された思い出画像を再生する」ように設定され、さらに「現在位置に基づく思い出画像の再生」で「緯度及び/または経度の誤差が0.0010以内で撮影された思い出画像を再生する」ように設定されている場合、画像データ「img_000002」が抽出される。
 <検索例8>
  端末の現在方角情報が「δ度」であり、再生条件が「対象物の方向を向いたときに再生」するように設定されている場合、各画像データに関して図4Dに示した手順で現在位置から対象物の方角γを算出し、算出した方角γと現在方角δとの角度差が所定値(X度)以内となる画像データがある場合には、当該画像データが抽出される。なお、方角γの算出では、現在位置情報と、関連情報データベースに登録されている撮影条件(位置情報、方角情報、距離情報)を用いる。
 <検索例9>
  再生条件が「特定のユーザの思い出画像を再生」で「USER000002」のメールアドレスが登録されている場合、「USER000002」が登録した画像データ「img_000001」が抽出される(但し、「USER000002」が「USER000001」に対して思い出画像の共有を許可している場合)。
 上記の検索例のうち、携帯情報端末の現在方角情報を用いる場合であって、再生条件が「方角に基づく思い出画像の再生」(検索例6)、及び「対象物の方向を向いたときに再生」(検索例8)は、特にユニークな処理といえる。
 <思い出画像の表示>
 前記図7Aの思い出画像表示処理(S210)における画像表示方法を具体的に説明する。携帯情報端末100は、情報サーバ300から受信した思い出画像を表示する訳であるが、情報サーバ300からは当該画像の撮影時の関連情報も一緒に送られる。これを受けて画像表示部1104Cは、表示する画像の撮影時の関連情報と、携帯情報端末100の現在の状況(現在の端末情報)とを比較して、各情報の一致度に基づいた表示制御を行う。以下、いくつかの表示例を示す。
 <表示例1>
  図8Aは、前述の<検索例3>の検索結果に対応する表示画面を示す。携帯情報端末100の現在日時情報が「2017年10月01日13時25分15秒」で、再生条件が「時刻に基づく思い出画像の再生」の場合、情報サーバ300から、抽出された2つの画像データ「img_000001」、「img_000027」及びそれらの関連情報を受信する。この場合、画像表示部1104Cは、第二画像入力部134から入力した画像データ(以下、カメラ画像)180d1に重畳して、受信した2つの画像データ「img_000001」、「img_000027」を、それぞれ画像データ180d2、180d3のように表示する。
 この表示では、画像データ180d2と画像データ180d3の表示の大きさを変え、画像データ180d3の方を大きく表示している。これは、現在日時情報と各画像データの関連情報(撮影日時情報)とを比較し、その一致度に応じて大きさを制御している。すなわち本例では、現在時刻情報(13時25分15秒」と各画像データの時刻情報とを比較し、その誤差が小さい方の画像データ180d3「img_000027」(13時22分53秒)を大きく表示し、他方の画像データ180d2「img_000001」(13時36分41秒)を小さく表示している。
 <表示例2>
  図8Bは、前述の<検索例4>の検索結果に対応する表示画面を示す。携帯情報端末100の現在位置情報が「35.4030/139.5329」で、再生条件が「現在位置に基づく思い出画像の再生」の場合、情報サーバ300から、抽出された2つの画像データ「img_000002」、「img_000027」及びその関連情報を受信する。この場合、2つの画像データを表示するのではなく、各画像データの関連情報(撮影位置情報)と現在位置情報とを比較し、一致度の大きい方(誤差の小さい方)の画像データを選択して表示している。本例では、「img_000027」の画像データ(撮影位置情報が「35.4031/139.5330」)を選択し、画像データ(思い出画像)180e2として、第二画像入力部134から入力した画像データ(カメラ画像)180e1と並べて表示している。
 その際、選択した画像データ「img_000027」の撮影位置情報と現在位置情報との一致度に応じて、画像データ(カメラ画像)180e1と画像データ(思い出画像)180e2との表示比率を変えている。図8B(a)は、両者の誤差が小さい(一致度が大きい)場合で、画像データ(思い出画像)180e2の表示比率を大きくする。図8B(b)は、両者の誤差が大きい(一致度が小さい)場合で、画像データ(思い出画像)180e2の表示比率を小さくする。
 更に、ユーザが移動して携帯情報端末100の現在位置情報が更新されると、前記表示比率も現在位置に応じて更新されるように制御する。
 <表示例3>
  図8Cは、前述の<検索例6>の検索結果に対応する表示画面を示す。携帯情報端末100の現在方角情報が「192度」であり、再生条件が「方角に基づく思い出画像の再生」の場合、情報サーバ300から、抽出された1つの画像データ「img_000003」とその関連情報を受信する。この場合、受信した画像データ「img_000003」を画像データ(思い出画像)180f2として、第二画像入力部134から入力した画像データ(カメラ画像)180f1に重畳して表示する。
 なお、画像データ(思い出画像)180f2の表示の大きさは、当該画像データの関連情報と携帯情報端末100の現在の状況(現在日時情報、現在位置情報、現在方角情報等)との一致度に応じて制御する。本例では、「img_000003」の撮影方角情報(195度)と現在方角情報(192度)を比較している。図8C(a)は一致度が大きい(誤差が小さい)場合で、画像データ180f2を大きく表示する。図8C(b)は一致度が小さい(誤差が大きい)場合で、画像データ180f2を小さく表示する。
 図8Cの<表示例3>は、前述の<検索例8>の検索結果を表示する場合にも適用できる。携帯情報端末100の現在方角情報が「δ度」であり、再生条件が「対象物の方向を向いた場合に再生」するように設定されている場合、対象物の方角γが現在方角δに近い画像データ(思い出画像)を受信する。この場合も、図8Cに示したように、受信した画像データ(思い出画像)を、画像データ180f2として表示する。
 この場合の画像データ180f2の表示の大きさは、対象物の方角γと現在方角δを比較し、その誤差が小さければ(a)のように画像データ180f2を大きく表示し、その誤差が大きければ(b)のように画像データ180f2を小さく表示する。或いは、算出した対象物までの距離Nが小さければ画像データ180f2を大きく表示し、対象物までの距離Nが大きければ画像データ180f2を小さく表示しても良い。
 このように<表示例3>によれば、ユーザが持つ携帯情報端末100の現在方角が変化すると、撮影時の方角(または対象物の方角)との一致度に応じて、表示される思い出画像の大きさが変化する。そして、当該思い出画像を撮影したときの方角(または対象物の方角)を向いたときに、当該思い出画像が最大の大きさで表示され、ユーザに対し撮影時の思い出を効果的に想起させることができる。
 なお、前記した表示制御では、現在の端末の状況と撮影時の関連情報との一致度に応じて、思い出画像の大きさを変えて表示するようにしたが、一致度に応じて画像の透過度を異ならせて表示しても良い。
 また、前記表示例において、表示中の思い出画像に対し、ユーザ操作指示によって1つが選択されると全画面表示となるように制御しても良い。或いは、選択された画像とカメラ画像との表示比率等を入れ替えるように制御しても良い。
 また、前記<表示例1、3>において、携帯情報端末100が透過型ディスプレイを備えたHMDの場合、カメラ画像180d1、180f1はディスプレイを透過した周辺風景であって良い。その場合、周辺風景上に思い出画像180d2や180f2が重畳されて表示されることになる。
 以上説明したように、本実施例の携帯情報端末100は、ユーザが過去に撮影して情報サーバ300に登録した思い出画像のうち、現在の端末の状況(日時、位置、指向方向等)に関連の深い画像を取得して、現在の周辺風景に重畳または並べて表示する。その際、現在の端末の状況と撮影時の関連情報との一致度に応じて表示画像の大きさや透過度を制御して表示するので、現在の状況に特に関連の深い画像が強調されて表示され、効果的にユーザに思い出を想起させることが可能となる。
 <VR表示が可能な視聴用装置>
  ここでは、携帯情報端末100の使用形態として、ユーザの頭部に装着してVR(Virtual Reality)等の表示が可能な視聴用装置について説明する。
 図9Aは、携帯情報端末100を視聴用装置(アダプタ)10に挿入し、これをユーザ1が装着した使用状態を示す図である。(a)は視聴用装置10を装着したユーザ1を真上から見た上面図、(b)は視聴用装置10を装着したユーザ1を正面から見た正面図である。このような視聴用装置10を用いることで、HMD(Head Mounted Display)と同様の機能を実現できる。あるいは視聴用装置10の代わりに、携帯情報端末100が眼前に配置されるように、ユーザ1が両手または片手で携帯情報端末100を把持して使用する形態でも良い。
 視聴用装置10は、スリット部20にスマートホンやタブレット端末等の携帯情報端末100を挿入して支持する構成である。ユーザ1は、携帯情報端末100が挿入された視聴用装置10を眼前に配置し、ベルト等を用いて頭部に固定する。携帯情報端末100の表示画面(表示部131)は、第二画像入力部134から入力した画像データ(カメラ画像)に、CG(Computer Graphics)等で作成した人工物を重畳するVR(Virtual Reality)表示やMR(Mixed Reality)表示等を行うことが可能である。また、透過型ディスプレイを備えたHMDの場合、周辺風景にCG等で作成した人工物を重畳するAR(Augmented Reality)表示等を行うことが可能である。
 携帯情報端末100の表示画面に表示された画像は、視聴用装置10の内部に配置されたレンズ部11を介してユーザ1の目に入射する。また、隔壁部12は、左右それぞれのレンズ部11を通過した画像の混合を防止する。なお、前述のスリット部20やレンズ部11や隔壁部12等は、視聴用装置10の内部構造を説明するものであり、通常時は外部に露出しない。また、通常時は、携帯情報端末100を視聴用装置10の筐体の一部が蓋のように覆い、ユーザ1の頭部の上下左右動の際にも、携帯情報端末100の落下やずれを防止する構造とすることが望ましい。また、視聴用装置10の筐体には窓13が設けられており、携帯情報端末100の背面に備えられた第二画像入力部134を露呈させる構造となる。
 図9Bは、ユーザ1が頭部を動かした場合の、ユーザの視線及び携帯情報端末100の指向方向の変化を説明する図である。(a)は、ユーザ1を真上から見た上面図である。視聴用装置10を装着したユーザ1が、頭部中心を軸として頭を左右(水平方向)に動かすことにより、視聴用装置10に挿入された携帯情報端末100が位置100aから位置100bに移動する。この場合、携帯情報端末100が位置100aで指向する方向はDa、位置100bで指向する方向はDbであり、相対角度差はδとなる。また(b)は、(a)における携帯情報端末100の指向方向の変化(Da→Db)を、携帯情報端末100の中心位置を固定して表現した図である。
 ここで、図9A,図9Bの視聴用装置を用いて前記図8Cの<表示例3>の制御を行う場合を説明する。携帯情報端末100が現在指向する方角が方向Dbであり、対象物の方向Daである場合、その角度差δの大きさに応じて画像データ180f2の大きさが制御されることになる。更に、角度差δの大きさに応じて、画像データ180f2の透過度を変化させても良い。また、ユーザ1が頭部を左右(水平方向)に動かして携帯情報端末100の現在方角情報が更新されたり、ユーザ1が移動して携帯情報端末100の現在位置情報が更新されたりすると、前記表示の大きさも適宜更新されるように制御される。
 [変形例1]
  情報サーバ300の画像データベースに登録する画像データは、携帯情報端末100で撮影してネットワーク200を介してアップロードした画像データでなくとも良い。例えば、店舗経営者が自店舗の広告画像をPC上で作成して登録する。この際、関連情報データベースに登録する撮影時の関連情報には、撮影日時情報として自店舗の特売日等を登録し、撮影位置情報として自店舗の正面入り口前の緯度/経度情報を登録し、撮影方角情報として自店舗正面入り口前の位置から自店舗正面入り口を指向した際の方角情報を登録する。また、公開レベル設定の「画像を共有」項目の設定として「全てのユーザと共有する」を選択しておく。
 すると、任意のユーザが、前記特売日と「日」の情報が一致する日に、前記店舗経営者の経営する店舗の正面入り口前で、携帯情報端末100を前記店舗正面入り口側に指向させた場合に、携帯情報端末100が前記広告画像を情報サーバ300から取得して表示することができる。すなわち、店舗経営者は予め広告画像を用意して思い出画像として登録しておくことにより、自店舗の宣伝を効果的に行うことが可能となる。
 [変形例2]
  携帯情報端末100で撮影した画像データとその関連情報を情報サーバ300に登録する際に、その他の関連データ(例えば、音声データ、テキストデータ、等)を同時に登録する。前記関連データは、情報サーバ300の関連ファイルデータベース(図示省略)に登録される。
 例えば、前述の思い出画像再生処理(図7A)でサーバ300から画像データ(思い出画像)を受信する際に(S208)、前記関連データを同時に受信する。その後は、前記画像データ(思い出画像)が表示部131に表示される際に(S210)、関連データを同時に再生する。音声データであれば、音声再生ソフトを起動してスピーカから音声出力し、テキストデータであれば、メモ帳アプリ等により表示部131上に表示する。或いは、S208の処理で前記関連データの取得のみを行い、取得した関連データの再生処理は、表示部131に表示された画像データ(思い出画像)がユーザ操作指示によって選択された後に行うようにしても良い。このような制御を行うことにより、画像データ(思い出画像)の表示と同時に前記画像に関連するデータを再生することが可能となり、従って、思い出の想起をより効果的に行うことが可能となる。
 以上、本発明の実施形態の例を説明したが、言うまでもなく、本発明の技術を実現する構成は前記実施例に限られるものではなく、様々な変形例が考えられる。例えば、ある実施例の構成の一部を他の実施例の構成と置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものである。また、文中や図中に現れる数値やメッセージ等もあくまでも一例であり、異なるものを用いても本発明の効果を損なうことはない。
 前述した本発明の各機能ブロックは、それらの一部または全部を、例えば集積回路で実現する等によりハードウェアで実現しても良い。また、マイクロプロセッサユニット等がそれぞれの機能等を実現するプログラムを解釈して実行することによりソフトウェアで実現しても良い。ハードウェアとソフトウェアを併用しても良い。前記ソフトウェアは、製品出荷の時点で、予め携帯情報端末100のROM103やストレージ部110等に格納された状態であっても良い。製品出荷後に、インターネット上の各種サーバ装置等から取得するものであっても良い。また、メモリカードや光ディスク等で提供される前記ソフトウェアを取得するものであっても良い。
 また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えても良い。
 10…視聴用装置、100…携帯情報端末、104…RAM、110…ストレージ部、131…表示部、133…第一画像入力部、134…第二画像入力部、150…センサ部、160…通信部、180…タッチスクリーン、180b…思い出画像の制御設定画面、180c…カメラ機能画面、180d~f…表示画面の例、200…ネットワーク、300…情報サーバ、304…RAM、310…ストレージ部、360…LAN通信部、1102…撮影機能部、1103…情報取得部、1104…思い出画像制御部、3101…情報管理部、3102…画像検索部、3011…画像データ記憶領域、3012…関連情報記憶領域。

Claims (8)

  1.  撮影した画像データをネットワークを介して情報サーバに保存するとともに、前記情報サーバに保存された画像データを前記ネットワークを介して取得して関連画像として表示する携帯情報端末であって、
     撮影した画像データを入力する画像入力部と、
     前記携帯情報端末の状況として、日時情報、位置情報、方角情報、被写体までの距離情報を含む各種情報を取得する情報取得部と、
     前記ネットワークを介して前記情報サーバとの間で画像データ及び各種情報の送受信を行う通信部と、
     前記画像入力部に入力された画像データによる入力画像及び/または前記通信部で受信した画像データによる関連画像を表示する表示部と、
     前記携帯情報端末の各部の動作を制御する制御部と、を備え、
     前記制御部は、
     撮影した画像データを前記情報サーバに保存するとき、前記情報取得部で取得した撮影時の前記携帯情報端末の状況を示す各種情報、及び前記携帯情報端末のユーザを識別可能なユーザ識別情報を含む撮影時の関連情報とともに送信し、
     前記情報サーバに保存されている画像データを要求するとき、前記情報取得部で取得した現在の前記携帯情報端末の状況を示す各種情報、及び前記携帯情報端末のユーザを識別可能なユーザ識別情報を含む現在の端末情報と、前記携帯情報端末のユーザにより設定された再生条件を記述した画像検索条件とを前記情報サーバに送信し、
     前記情報サーバにて前記現在の端末情報と前記画像検索条件とに基づいて検索された画像データを取得し、関連画像として前記表示部に表示するように制御する、
     ことを特徴とする携帯情報端末。
  2.  請求項1に記載の携帯情報端末であって、
     前記制御部は、前記表示部に、前記情報サーバからの関連画像と前記画像入力部からの入力画像とを同時に表示する場合、前記情報サーバから画像データとともに当該画像データの撮影時の関連情報を受信し、受信した前記撮影時の関連情報と、前記情報取得部で取得した現在の前記携帯情報端末の状況を示す各種情報とを比較し、いずれかの情報の一致度に応じて、前記入力画像に対する前記関連画像を大きさを変えて前記表示部に表示するように制御することを特徴とする携帯情報端末。
  3.  請求項2に記載の携帯情報端末であって、
     前記表示部には、前記関連画像と前記入力画像とを並べて表示する場合と、前記関連画像を前記入力画像に重畳して表示する場合とが可能であり、
     さらに重畳する場合には、前記関連画像の大きさに代えて、前記関連画像の透過度を変えて表示することが可能であることを特徴とする携帯情報端末。
  4.  携帯情報端末で撮影した画像データをネットワークを介して情報サーバに保存するとともに、前記情報サーバに保存された画像データを前記ネットワークを介して前記携帯情報端末が取得して関連画像として表示する情報提示システムであって、
     前記携帯情報端末は、
     撮影した画像データを入力する画像入力部と、
     前記携帯情報端末の状況として、日時情報、位置情報、方角情報、被写体までの距離情報を含む各種情報を取得する情報取得部と、
     前記ネットワークを介して前記情報サーバとの間で画像データ及び各種情報の送受信を行う通信部と、
     前記画像入力部に入力された画像データによる入力画像及び/または前記通信部で受信した画像データによる関連画像を表示する表示部と、を備え、
     前記情報サーバは、
     前記携帯情報端末から送信された画像データと各種情報を保存するストレージ部と、
     前記携帯情報端末からの要求に応じて、前記ストレージ部から該当する画像データを検索する画像検索部と、
     前記ネットワークを介して前記携帯情報端末との間で画像データ及び各種情報の送受信を行う通信部と、を備え、
     前記携帯情報端末は、
     撮影した画像データを前記情報サーバに保存するとき、前記情報取得部で取得した撮影時の前記携帯情報端末の状況を示す各種情報、及び前記携帯情報端末のユーザを識別可能なユーザ識別情報を含む撮影時の関連情報とともに送信し、
     前記情報サーバに保存されている画像データを要求するとき、前記情報取得部で取得した現在の前記携帯情報端末の状況を示す各種情報、及び前記携帯情報端末のユーザを識別可能なユーザ識別情報を含む現在の端末情報と、前記携帯情報端末のユーザにより設定された画像データの再生条件を記述した画像検索条件とを前記情報サーバに送信し、
     前記情報サーバは、
     前記携帯情報端末から受信した前記現在の端末情報と前記画像検索条件とに基づいて前記ストレージ部から該当する画像データを検索し、検索した画像データを前記携帯情報端末に送信する、
     ことを特徴とする情報提示システム。
  5.  請求項4に記載の情報提示システムであって、
     前記画像検索条件に記述された再生条件が、対象物の方向を向いたときに再生するように設定されている場合、前記情報サーバは、現在の前記携帯情報端末の位置情報と方角情報から、前記携帯情報端末が指向する方向に存在する対象物が含まれる画像データを検索することを特徴とする情報提示システム。
  6.  請求項4に記載の情報提示システムであって、
     前記携帯情報端末が送信する前記撮影時の関連情報には、撮影した画像データの公開レベル設定の情報が含まれ、
     前記情報サーバは、前記検索した画像データが、画像データを要求する前記携帯情報端末のユーザにより保存されたものでなく、かつ、前記検索した画像データの公開レベル設定により、前記ユーザが画像の共有を許可されていない場合、前記検索した画像データを前記携帯情報端末へは送信しないことを特徴とする情報提示システム。
  7.  携帯情報端末で撮影した画像データをネットワークを介して情報サーバに保存するとともに、前記情報サーバに保存された画像データを前記ネットワークを介して前記携帯情報端末が取得して関連画像として表示する情報提示方法であって、
     前記携帯情報端末が、撮影した画像データを前記情報サーバに保存するとき、前記撮影した画像データとともに、撮影時の前記携帯情報端末の状況を示す日時情報、位置情報、方角情報、被写体までの距離情報を含む各種情報、及び前記携帯情報端末のユーザを識別可能なユーザ識別情報を含む撮影時の関連情報を前記情報サーバに送信するステップと、
     前記情報サーバが、前記携帯情報端末から送信された画像データと撮影時の関連情報をストレージ部に保存するステップと、
     前記携帯情報端末が、前記情報サーバに保存されている画像データを要求するとき、現在の前記携帯情報端末の状況を示す各種情報、及び前記携帯情報端末のユーザを識別可能なユーザ識別情報を含む現在の端末情報と、前記携帯情報端末のユーザにより設定された画像データの再生条件を記述した画像検索条件とを前記情報サーバに送信するステップと、
     前記情報サーバが、前記携帯情報端末から受信した前記現在の端末情報と前記画像検索条件とに基づいて、前記ストレージ部から該当する画像データを検索し、検索した画像データを前記携帯情報端末に送信するステップと、
     前記携帯情報端末が、前記情報サーバから送信された画像データを関連画像として表示部に表示するステップと、
     を備えることを特徴とする情報提示方法。
  8.  請求項7に記載の情報提示方法であって、
     前記情報サーバが、検索した画像データを前記携帯情報端末に送信するステップでは、検索した画像データとともに当該画像データの撮影時の関連情報を送信し、
     前記携帯情報端末が、前記情報サーバからの関連画像を前記表示部に表示するステップにおいて、前記関連画像と、前記携帯情報端末の画像入力部に入力している入力画像を同時に表示する場合、受信した前記撮影時の関連情報と、現在の前記携帯情報端末の状況を示す各種情報とを比較し、いずれかの情報の一致度に応じて、前記入力画像に対する前記関連画像を大きさを変えて前記表示部に表示する、
     ことを特徴とする情報提示方法。
PCT/JP2018/005531 2018-02-16 2018-02-16 携帯情報端末、情報提示システム及び情報提示方法 WO2019159333A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880089242.9A CN111712807A (zh) 2018-02-16 2018-02-16 便携信息终端、信息提示系统以及信息提示方法
US16/769,200 US11647370B2 (en) 2018-02-16 2018-02-16 Mobile information terminal, information presentation system and information presentation method
PCT/JP2018/005531 WO2019159333A1 (ja) 2018-02-16 2018-02-16 携帯情報端末、情報提示システム及び情報提示方法
US18/129,551 US20230284000A1 (en) 2018-02-16 2023-03-31 Mobile information terminal, information presentation system and information presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/005531 WO2019159333A1 (ja) 2018-02-16 2018-02-16 携帯情報端末、情報提示システム及び情報提示方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/769,200 A-371-Of-International US11647370B2 (en) 2018-02-16 2018-02-16 Mobile information terminal, information presentation system and information presentation method
US18/129,551 Continuation US20230284000A1 (en) 2018-02-16 2023-03-31 Mobile information terminal, information presentation system and information presentation method

Publications (1)

Publication Number Publication Date
WO2019159333A1 true WO2019159333A1 (ja) 2019-08-22

Family

ID=67619817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/005531 WO2019159333A1 (ja) 2018-02-16 2018-02-16 携帯情報端末、情報提示システム及び情報提示方法

Country Status (3)

Country Link
US (2) US11647370B2 (ja)
CN (1) CN111712807A (ja)
WO (1) WO2019159333A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836079A (zh) * 2019-11-22 2021-05-25 丰田自动车株式会社 图像数据分发系统和图像数据显示终端
CN113873081A (zh) * 2021-09-29 2021-12-31 维沃移动通信有限公司 关联图像的发送方法、装置及电子设备
JP7345677B1 (ja) 2022-06-06 2023-09-15 三菱電機株式会社 情報生成装置、情報出力装置、および、情報出力方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220027513A1 (en) * 2018-12-05 2022-01-27 Sony Corporation Information processing device, information processing method, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005108027A (ja) * 2003-09-30 2005-04-21 Ricoh Co Ltd 被写体情報提供方法及び被写体情報提供プログラム
JP2008118527A (ja) * 2006-11-07 2008-05-22 Sony Corp 撮像装置、表示装置、撮像方法、表示方法
JP2009232250A (ja) * 2008-03-24 2009-10-08 Panasonic Corp 番組情報表示装置および番組情報表示方法
JP2009284123A (ja) * 2008-05-21 2009-12-03 Casio Comput Co Ltd 画像表示装置、及び画像表示方法、画像表示プログラム
JP2017004252A (ja) * 2015-06-10 2017-01-05 株式会社ウイル・コーポレーション 画像情報処理システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050076004A1 (en) * 2003-09-30 2005-04-07 Hiroyuki Yanagisawa Computer, database generating method for electronic picture book service, photographed subject information providing method, recording medium, and computer data signal
WO2008134901A1 (en) * 2007-05-08 2008-11-13 Eidgenössische Technische Zürich Method and system for image-based information retrieval
JP2009187233A (ja) 2008-02-06 2009-08-20 Sony Corp 情報呈示方法、情報呈示装置およびサーバ
US9683853B2 (en) * 2009-01-23 2017-06-20 Fuji Xerox Co., Ltd. Image matching in support of mobile navigation
KR101320350B1 (ko) * 2009-12-14 2013-10-23 한국전자통신연구원 보안관제서버 및 보안관제서버의 영상데이터 관리 방법
CN104471575A (zh) * 2012-05-18 2015-03-25 文件档案公司 使用内容
WO2014115393A1 (ja) * 2013-01-24 2014-07-31 ソニー株式会社 画像表示装置及び画像表示方法、並びに画像表示システム
US9471954B2 (en) * 2015-03-16 2016-10-18 International Business Machines Corporation Video sequence assembly
US10613538B2 (en) * 2015-04-22 2020-04-07 Sony Corporation Mobile body control system, control method, and storage medium
JP6077068B1 (ja) * 2015-07-30 2017-02-08 株式会社オプティム 拡張現実システム、および拡張現実方法
US9928658B2 (en) * 2015-11-02 2018-03-27 International Business Machines Corporation Overlay for camera field of vision
CN106643781A (zh) * 2016-12-14 2017-05-10 英业达科技有限公司 车辆导航显示系统及其方法
US11907282B2 (en) * 2021-04-01 2024-02-20 Find My, LLC Method, apparatus, system, and non-transitory computer readable medium for performing image search verification using an online platform

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005108027A (ja) * 2003-09-30 2005-04-21 Ricoh Co Ltd 被写体情報提供方法及び被写体情報提供プログラム
JP2008118527A (ja) * 2006-11-07 2008-05-22 Sony Corp 撮像装置、表示装置、撮像方法、表示方法
JP2009232250A (ja) * 2008-03-24 2009-10-08 Panasonic Corp 番組情報表示装置および番組情報表示方法
JP2009284123A (ja) * 2008-05-21 2009-12-03 Casio Comput Co Ltd 画像表示装置、及び画像表示方法、画像表示プログラム
JP2017004252A (ja) * 2015-06-10 2017-01-05 株式会社ウイル・コーポレーション 画像情報処理システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836079A (zh) * 2019-11-22 2021-05-25 丰田自动车株式会社 图像数据分发系统和图像数据显示终端
CN113873081A (zh) * 2021-09-29 2021-12-31 维沃移动通信有限公司 关联图像的发送方法、装置及电子设备
CN113873081B (zh) * 2021-09-29 2023-03-14 维沃移动通信有限公司 关联图像的发送方法、装置及电子设备
JP7345677B1 (ja) 2022-06-06 2023-09-15 三菱電機株式会社 情報生成装置、情報出力装置、および、情報出力方法

Also Published As

Publication number Publication date
US11647370B2 (en) 2023-05-09
US20210160424A1 (en) 2021-05-27
US20230284000A1 (en) 2023-09-07
CN111712807A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN107885533B (zh) 管理组件代码的方法及装置
CN110290146B (zh) 分享口令的生成方法、装置、服务器及存储介质
WO2019159333A1 (ja) 携帯情報端末、情報提示システム及び情報提示方法
CN106713738B (zh) 移动终端及其控制方法
CN109547495B (zh) 敏感操作处理方法、装置、服务器、终端及存储介质
CN110932963B (zh) 多媒体资源分享方法、系统、装置、终端、服务器及介质
CN111026992B (zh) 多媒体资源预览方法、装置、终端、服务器及存储介质
US20170214857A1 (en) Mobile terminal and method for controlling the same
CN110597924B (zh) 基于区块链的用户标识处理方法、装置、设备及存储介质
CN111083516A (zh) 直播处理的方法和装置
US20130290490A1 (en) Communication system, information terminal, communication method and recording medium
CN112115282A (zh) 基于搜索的问答方法、装置、设备及存储介质
CN112788359A (zh) 直播处理方法、装置、电子设备及存储介质
KR20200101036A (ko) 이미지와 관련된 콘텐트를 어플리케이션에 제공하는 전자 장치 및 방법
WO2021057421A1 (zh) 一种图片搜索方法及设备
CN110825465B (zh) 日志数据处理方法、装置、电子设备及存储介质
CN112052355A (zh) 视频的展示方法、装置、终端、服务器、系统及存储介质
CN108495183B (zh) 显示专辑信息的方法和装置
CN115134316B (zh) 话题展示方法、装置、终端及存储介质
CN114826799B (zh) 信息获取方法、装置、终端及存储介质
CN111522483B (zh) 多媒体数据分享方法、装置、电子设备及存储介质
CN111128115B (zh) 信息验证方法、装置、电子设备及存储介质
CN114816600A (zh) 会话消息显示方法、装置、终端及存储介质
CN112132472A (zh) 资源管理方法、装置、电子设备及计算机可读存储介质
CN111191254A (zh) 访问校验方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 18906237

Country of ref document: EP

Kind code of ref document: A1