WO2013094429A1 - 携帯機器、情報処理方法、およびプログラム - Google Patents

携帯機器、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2013094429A1
WO2013094429A1 PCT/JP2012/081754 JP2012081754W WO2013094429A1 WO 2013094429 A1 WO2013094429 A1 WO 2013094429A1 JP 2012081754 W JP2012081754 W JP 2012081754W WO 2013094429 A1 WO2013094429 A1 WO 2013094429A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
portable device
display
mobile device
unit
Prior art date
Application number
PCT/JP2012/081754
Other languages
English (en)
French (fr)
Inventor
康之 須木
真由 小坂
亜弥 鈴木
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201280061153.6A priority Critical patent/CN104160691B/zh
Priority to US14/356,277 priority patent/US9350912B2/en
Priority to EP12860989.8A priority patent/EP2797306B1/en
Publication of WO2013094429A1 publication Critical patent/WO2013094429A1/ja
Priority to US15/134,754 priority patent/US9998649B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Definitions

  • the present technology relates to a mobile device, an information processing method, and a program, and more particularly, to a mobile device, an information processing method, and a program that allow a captured image to be easily shared with a specific person.
  • an application using a photographing function and a communication function for example, there is an application that uploads a photographed image to a server and makes it available to other users such as friends. By using such an application, the user can share an image taken by the user with other users.
  • the user When sharing an image as described above, after shooting, the user starts a browser, accesses a predetermined server, logs in by entering a pre-assigned password, and then takes a shot. It is necessary to perform an operation such as selecting an image from the images obtained by the above and uploading the image.
  • Such an operation is particularly troublesome when it is performed on a device having a small casing and only a small display or small buttons.
  • the present technology has been made in view of such a situation, and makes it possible to easily share a photographed image with a specific person.
  • the mobile device transmits the image capturing unit and an image obtained by the image capturing unit to the other mobile device managed in association with the mobile device itself every time the image is captured.
  • a communication unit that receives the image transmitted from the other portable device every time shooting is performed in the other portable device, and the image that is transmitted from the other portable device and received by the communication unit.
  • the display part which displays.
  • a storage unit for storing the image obtained by imaging by the imaging unit and the image received by the communication unit; a predetermined image selected from the images stored in the storage unit; and the display unit And a display control unit to be displayed.
  • the display unit is provided on a front surface of the casing of the portable device, the photographing unit is provided on a back surface of the casing, and a user is provided on any of the opposing side surfaces of the upper and lower side surfaces and the left and right side surfaces of the casing. And a detection unit that detects the user's pressing operation on the opposite side surface.
  • the display control unit can display the image last received by the communication unit in response to the detection that the user touches the side surface of the housing.
  • the photographing unit When it is detected that the user touches one of the upper and lower side surfaces and the left and right side surfaces, the photographing unit performs photographing in response to a pressing operation on the one side surface. Can be made.
  • a displacement detection unit that detects a change in position applied to the housing can be further provided.
  • the display control unit when it is detected that the user touches the other side surface, the change in the position is detected when a pressing operation is performed on the other side surface.
  • the image displayed on the display unit can be switched.
  • the communication unit can transmit the identification information of the image displayed by switching to the other portable device.
  • the image identified by the identification information is displayed.
  • the display unit may be a self-luminous type and a transmissive type display.
  • the display control unit displays one image in a region where the light shielding member is provided on the back side of the entire display region of the display unit, and the light shielding member is not provided on the back side. A part of the other image can be displayed in the region.
  • the display control unit displays on the display unit according to the detection of the change in the position.
  • the state of the image can be changed.
  • the communication unit can transmit the identification information of the image displayed on the display unit and information on the detected change of the position to the other portable device.
  • the image identified by the identification information is displayed, and a process of changing the state according to the information regarding the change of the position is performed.
  • the display unit may be a self-luminous type and a transmissive type display.
  • the display control unit displays the display position of the one image displayed in the region where the light shielding member is provided on the back side of the entire display region of the display unit. Can be moved within range.
  • the display unit may be a self-luminous type and a transmissive type display.
  • the display control unit displays one image in a region where the light shielding member is provided on the back side of the entire display region of the display unit, and the light shielding member is provided on the back side. Icons can be displayed in areas that are not.
  • the communication unit is connected to both the portable device and the other portable device via a network, and is obtained by photographing through a management device that manages the portable device and the other portable device in association with each other.
  • the received image can be transmitted to the other portable device, and the image transmitted from the other device can be received.
  • the network is a mechanism in which at least two devices are connected and information can be transmitted from one device to another device.
  • the devices that communicate via the network may be independent devices, or may be internal blocks that constitute one device.
  • photographing is performed, and an image obtained by photographing is transmitted each time photographing is performed to another portable device managed in association with the portable device itself.
  • the image transmitted from the other portable device is received and displayed every time shooting is performed in the other portable device.
  • the captured image can be easily shared with a specific person.
  • FIG. 1 is a diagram illustrating a front configuration example of a mobile device according to an embodiment of the present technology.
  • the shape of the front surface of the mobile device 1 has a substantially square shape with rounded corners.
  • the portable device 1 basically includes a display 11 and a frame 12 provided as an edge member so as to surround the display 11.
  • the mobile device 1 has a built-in acceleration sensor, the orientation of the mobile device 1 is determined based on the detection result of the acceleration sensor, and the upper, lower, left and right sides are specified. That is, depending on the direction in which the user holds the mobile device 1, the lower side surface, the left side surface, and the right side surface of FIG.
  • description will be made with reference to the orientation of FIG.
  • a U-shaped holder 13 is provided on the upper left curved surface portion of the frame 12 connecting the upper side surface and the left side surface. The user can carry the portable device 1 by hanging it from the neck through the hole 13A formed in the holder 13 or by connecting it to a mobile phone or the like.
  • the size of the portable device 1 is determined by sandwiching the upper side surface and the lower side surface formed by the frame 12 or the opposite side surfaces of the left side surface and the right side surface with two fingers of one hand such as a thumb and an index finger. It is said that it is possible to have a body. The user can hold the case of the portable device 1 with one hand and watch the display on the display 11.
  • the display 11 is a self-luminous display such as an organic EL display and a transmissive display.
  • the area 21 is a non-transmissive area where a light shielding member is provided on the back side, and the area 22 formed so as to surround the area 21 is provided with a light shielding member on the back side. There is no transmission area.
  • the region 21 for example, one photographed image is displayed. Since the light shielding member is provided on the back side, the image of the region 21 is displayed with high contrast. On the other hand, an image such as an icon displayed in the region 22 is displayed so that the user can see the image superimposed on the scenery on the back side of the mobile device 1.
  • FIG. 2 is a diagram illustrating a configuration example of the back surface of the mobile device 1.
  • a light shielding member 31 is attached to the approximate center of the display 11.
  • An electrical configuration such as a circuit for controlling display on the display 11 and a battery is provided inside the light shielding member 31.
  • a camera 32 is provided at a predetermined position of the light shielding member 31. That is, the mobile device 1 has a function as a camera and a function as a photo frame for displaying a photographed image. Since the size of the casing of the mobile device 1 is relatively small, the user can easily carry the mobile device 1 and take pictures or view images.
  • FIG. 3A is a diagram showing an upper surface of the mobile device 1
  • FIG. 3B is a diagram showing a lower surface of the mobile device 1.
  • the left side is the front side of the mobile device 1
  • the right side is the back side of the mobile device 1.
  • the right side is the front side of the mobile device 1 and the left side is the back side of the mobile device 1.
  • the casing of the portable device 1 has a predetermined thickness.
  • a touch sensor 41T is provided on the upper side surface 12T
  • a touch sensor 41B is provided on the lower side surface 12B. As shown in FIG. 4, when the user holds the portable device 1 with the upper side surface 12T and the lower side surface 12B sandwiched between two fingers, this is detected by the touch sensors 41T and 41B.
  • a switch 42T is provided below the touch sensor 41T (inside the casing) as indicated by a broken line in A of FIG. Further, as indicated by a broken line in FIG. 3B, a switch 42B is provided below the touch sensor 41B. From the state of FIG. 4 in which the user holds the portable device 1 on the upper side surface 12T and the lower side surface 12B with two fingers, the user applies a force toward the inside of the portable device 1 as indicated by the white arrow, and switches 42T, 42B. Can be pressed.
  • FIG. 5A is a diagram illustrating the left side surface of the mobile device 1
  • FIG. 5B is a diagram illustrating the right side surface of the mobile device 1.
  • the right side is the front side of the mobile device 1
  • the left side is the back side of the mobile device 1.
  • B of FIG. 5 the left side is the front side of the mobile device 1, and the right side is the back side of the mobile device 1.
  • the left side surface 12L is provided with a touch sensor 41L
  • the right side surface 12R is provided with a touch sensor 41R.
  • FIG. 6 when the user holds the portable device 1 with the left side 12L and the right side 12R sandwiched between two fingers, this is detected by the touch sensors 41L and 41R.
  • a switch 42L is provided below the touch sensor 41L
  • a switch 42R is provided below the touch sensor 41R.
  • the user presses the left side surface 12L and the right side surface 12R with the two fingers from the state of FIG. 6 holding the mobile device 1 in the internal direction of the mobile device 1 as indicated by the white arrow, and switches 42L, 42R. Can be pressed.
  • touch sensor 41 when it is not necessary to distinguish the touch sensors 41T, 41B, 41L, and 41R as appropriate, they are collectively referred to as the touch sensor 41. Further, when it is not necessary to distinguish the switches 42T, 42B, 42L, and 42R, they are collectively referred to as the switch 42.
  • the photographing function and the image browsing function using the portable device 1 are switched depending on how the portable device 1 is held as shown in FIGS. 4 and 6 or according to the operation of the switch 42.
  • the mobile device 1 is also equipped with a wireless communication function using a wireless LAN (Local Area Network) or the like.
  • the mobile device 1 can transmit a captured image to another mobile device, or can receive and display an image captured by another mobile device and transmitted from the other mobile device.
  • a wireless LAN Local Area Network
  • FIG. 7 is a diagram illustrating a configuration example of an information processing system.
  • the mobile device 101 is configured by connecting the mobile device 1 and the mobile device 101 via the Internet 102.
  • the mobile device 101 has the same configuration and functions as the mobile device 1 and is a device that is carried by a user different from the user of the mobile device 1.
  • a management server 103 is also connected to the Internet 102.
  • the management server 103 manages the mobile device 1 and the mobile device 101 in association with each other.
  • the management server 103 associates and stores the identification information of the portable device 1 such as the IP address and the identification information of the portable device 101 to manage the portable device 1 and the portable device 101 in association with each other.
  • the portable device 1 and the portable device 101 are sold as a set, for example.
  • the association between the portable device 1 and the portable device 101 is performed before sales, and identification information of each of the portable device 1 and the portable device 101 is stored in the management server 103 in advance.
  • the management server 103 a pair of portable devices other than the pair of the portable device 1 and the portable device 101 is also managed in association with each other.
  • an image obtained by shooting is transmitted from the portable device 1 to the management server 103 ( Uploaded).
  • the transmission of an image from the portable device 1 to the management server 103 is automatically performed every time an image is taken, for example, without user operation.
  • the management server 103 that has received the image transmitted from the mobile device 1 is based on the stored identification information, and the device managed in association with the mobile device 1 that is the device that is the transmission source of the image is the mobile device. 101 is specified. In addition, the management server 103 transmits the image transmitted from the mobile device 1 with the specified mobile device 101 as a transmission destination.
  • the mobile device 101 receives the image transmitted from the management server 103 and displays the received image.
  • a user of the mobile device 101 can view an image taken and transmitted by the user of the mobile device 1.
  • the user of the mobile device 1 can share an image with the user of the mobile device 101 each time shooting is performed, and the user of the mobile device 101 can also see what he / she has taken and shot. It becomes possible to communicate intentions.
  • the user of the mobile device 1 can easily share an image.
  • the buttons are small and the display is small, which is cumbersome. You do n’t have to.
  • the management server 103 that has received the image transmitted from the mobile device 101 is based on the stored identification information, and the device managed in association with the mobile device 101 that is the image transmission source device is the mobile device. 1 is specified. In addition, the management server 103 transmits the image transmitted from the mobile device 101 with the specified mobile device 1 as a transmission destination.
  • the mobile device 1 receives the image transmitted from the management server 103 and displays the received image.
  • a user of the mobile device 1 can view an image taken and transmitted by the user of the mobile device 101.
  • the user of the mobile device 101 can share an image with the user of the mobile device 1 every time shooting is performed, and can communicate his / her intention.
  • the configuration and functions of the mobile device 1 will be mainly described, but the mobile device 101 also has the same configuration and functions.
  • the configuration of the mobile device 1 will be described with reference to the configuration of the mobile device 101 as appropriate.
  • FIG. 8 is a diagram illustrating an example of the operation mode of the mobile device 1.
  • the operation mode of the portable device 1 includes a basic view mode, a camera mode, a select mode, and a reaction mode in addition to the standby mode in which the display 11 is turned off.
  • the basic view mode is a mode for browsing an image or the like transmitted from the other party (user of the mobile device 101).
  • the camera mode is a mode in which shooting is performed and an image obtained by shooting is transmitted to the other party.
  • the select mode is a mode in which a predetermined image is selected from an image taken by the user or an image transmitted from the other party.
  • the reaction mode is a mode in which a reaction is returned to a partner who has transmitted an image.
  • the basic view mode can be changed to the respective operation modes of the camera mode, the select mode, and the reaction mode. Also, transition from the respective operation modes of the camera mode, select mode, and reaction mode to the basic view mode is possible.
  • FIG. 9 is a diagram illustrating a display example of the display 11 in the basic view mode.
  • the basic view mode is set according to the touch sensor 41 detecting that the case has been touched in the standby mode, for example.
  • the display 11 When the basic view mode is set, the display 11 is turned on, and a synchronized image that is an image synchronized with the mobile device 101 is displayed in the area 21. When there are a plurality of synchronized images, for example, the last synchronized image is displayed.
  • the synchronized image is an image taken in the camera mode, an image selected in the select mode, and an image to which a reaction is added in the reaction mode. These images are displayed on the display 11 of the portable device 1 and also on the display 11 of the portable device 101 as will be described later.
  • an image taken in the camera mode, an image selected in the select mode, and an image to which a reaction is added in the reaction mode are also synchronized images. These images are displayed on the display 11 of the portable device 101 and also on the display 11 of the portable device 1 in accordance with the shooting or the like performed on the portable device 101.
  • the basic view mode is set when the user touches either the top, bottom, left or right side. The user can view the image regardless of the direction in which the mobile device 1 is held.
  • a camera icon 111 is displayed at a position on the left side of the region 21 among the positions of the region 22 that is a transparent region. Is done.
  • the camera icon 111 includes a camera image and an arrow image that sandwiches the camera from above and below.
  • the camera icon 111 represents that the camera mode can be changed by simultaneously pressing the upper side switch 42T and the lower side switch 42B.
  • a reaction icon 112 is displayed at a position on the right side of the area 21.
  • the reaction icon 112 includes a square image and images representing vibrations arranged above and below the square image.
  • the reaction icon 112 represents that the mode can be changed to the reaction mode by shaking the casing up and down. The fact that the user is shaking the case is specified based on, for example, a detection result of an acceleration sensor built in the mobile device 1.
  • FIG. 10 is a diagram showing another display example of the display 11 in the basic view mode.
  • the select icon 121 is displayed at a position above the region 21 among the regions 22.
  • the select icon 121 is composed of an image in which three squares are superimposed and an arrow image that sandwiches the three squares from the left and right.
  • the select icon 121 represents that the mode can be changed to the select mode by simultaneously pressing the switch 42L on the left side and the switch 42R on the right side.
  • a reaction icon 122 is displayed at a position below the area 21.
  • the reaction icon 122 is the reaction icon 112 shown in FIG.
  • the reaction icon 122 represents that the mode can be changed to the reaction mode by swinging the housing left and right.
  • FIG. 11 is a diagram illustrating a display example of the display 11 in the camera mode.
  • the camera mode is set when it is detected that the upper side switch 42T and the lower side switch 42B are pressed at the same time when the basic view mode is set.
  • the user can shift to the basic view mode by holding the casing with the upper side and the lower side in between, and can change to the camera mode by simultaneously pressing the upper side and the lower side from that state.
  • the camera mode may be set by pressing one of the switches on the upper surface 42T and the lower surface 42B at the same time.
  • the live view image captured by the camera 32 is displayed in the area 21 of the display 11.
  • the user determines the composition by looking at the image displayed in the area 21.
  • a camera icon 111 is displayed on the left side of the area 21.
  • a camera icon 111 in FIG. 11 indicates that photographing can be performed by simultaneously pressing the upper side switch 42T and the lower side switch 42B.
  • the reaction icon 112 in FIG. 9 displayed on the right side of the area 21 in the basic view mode before the camera mode is set disappears when the camera mode is set.
  • an image obtained by shooting is stored as a synchronized image in the internal memory of the portable device 1 and the portable device 101. Sent to.
  • the mobile device 101 when an image transmitted from the mobile device 1 is received and the basic view mode is set, an image captured by the user of the mobile device 1 is displayed.
  • FIG. 12 is a diagram illustrating a display example of the display 11 in the select mode.
  • the select mode is set when it is detected that the switch 42L on the left side and the switch 42R on the right side are pressed at the same time when the basic view mode is set.
  • the user can shift to the basic view mode by holding the housing with the left side surface and the right side surface interposed therebetween, and can shift to the select mode by simultaneously pressing the left side surface and the right side surface from that state.
  • the select mode may be set by pressing one of them.
  • a select icon 121 is displayed above the area 21.
  • a select icon 121 in FIG. 12 indicates that the image of the region 21 can be switched by tilting the housing to the left or right while pressing the switch 42L on the left side and the switch 42R on the right side.
  • the reaction icon 122 shown in FIG. 10 displayed in the lower side of the area 21 in the basic view mode before the selection mode is set disappears when the selection mode is set.
  • FIG. 13 is a diagram illustrating an example of image switching.
  • the image P ⁇ b> 2 is displayed in the region 21, a part of the right side of the image P ⁇ b> 1 is displayed on the left side of the region 21, and a part of the left side of the image P ⁇ b> 3 is displayed on the right side of the region 21.
  • the displayed state will be described as a reference state. Since the image P1 and the image P3 are images displayed in the region 22 which is a transmissive region, the images P1 and P3 appear to be thinner than the image P1 displayed in the region 21.
  • the images P1 to P3 are images captured by the mobile device 1 and stored in the memory, or images transmitted from the mobile device 101 and received and stored in the memory.
  • the arrangement order of the images P1 to P3 is, for example, the shooting order.
  • the area 21 has a left side of the image P2 as indicated by the tip of the white arrow A51.
  • An image P1 which is an adjacent image, is displayed.
  • the position of the other image moves in conjunction with the display of the region 21 being switched.
  • the image is displayed in the region 21.
  • An image P3 that is an image on the right side of P2 is displayed.
  • a part of the right side of the image P2 is displayed on the left side of the image P3 displayed in the area 21, and the left side of the image P4 that is the image immediately after the image P3 in the shooting order is displayed on the right side of the image P3. A part of is displayed.
  • the user can sequentially switch the display of the area 21 and look back on the exchange of images with the other party. Further, by displaying a part of the image in the area 22, the user can intuitively recognize the presence of an image other than the image displayed in the area 21.
  • the image displayed in the area 21 at that time is selected as the synchronization image, and identification of the selected image such as the file name is performed.
  • Information is transmitted to the mobile device 101.
  • the method of selecting an image is not limited to the operation of releasing the finger from the switch 42L on the left side and the switch 42R on the right side, and may be another operation.
  • the portable device 101 when the file name transmitted from the portable device 1 is received and the basic view mode is set, an image identified by the received file name is read from the memory and displayed. Since the image selected by the user of the mobile device 1 is an image taken by the user of the mobile device 1 or an image taken by the user of the mobile device 101, the user of the mobile device 1 is also stored in the memory of the mobile device 101. The same image as the image selected by is stored.
  • the user of the mobile device 1 can show the same image as the image that he / she has selected and viewed to the user of the mobile device 101 by selecting an image using the select mode.
  • FIG. 14 is a diagram illustrating a display example of the display 11 in the reaction mode.
  • the reaction mode is set when it is detected that the casing is shaken in a predetermined direction when the basic view mode is set.
  • the display of the area 21 in the reaction mode remains the display in the basic view mode. In the area 21, for example, a synchronized image transmitted from the portable device 101 in the standby mode is displayed.
  • the select icon 121 and the reaction icon 122 of FIG. 10 displayed above and below the area 21 in the basic view mode are displayed. Of these, only the reaction icon 122 is displayed.
  • FIG. 15 is a diagram showing an example of display when a change in the state of an image when the casing is shaken up and down, that is, when a reaction that shakes up and down is added.
  • a hatched range indicates the display range of the image P.
  • the image P is displayed in the area 21.
  • the image P is displayed on the upper side, the center (position of the region 21), the lower side, the center of the display 11 as indicated by the tip of the arrows A11 to A14. And so on. Such display is continued for a predetermined time.
  • FIG. 16 is a diagram illustrating an example of a display when a change in the state of an image when the casing is shaken to the left and right, that is, a reaction to be shaken to the left and right is attached.
  • the display in FIG. 16 is performed when the reaction mode is set in a state where the user holds the portable device 1 so as to sandwich the left side surface and the right side surface.
  • the state of the display 11 shown at the left end of FIG. 16 is a state in which the image P is displayed in the region 21.
  • the image P is positioned left and right such as the left side, the center, the right side, and the center of the display 11 as indicated by the ends of the arrows A31 to A34. Changed and displayed. Such display is continued for a predetermined time.
  • the reaction that can be added to the image in the reaction mode is not limited to the reaction that changes the display position as shown in FIGS.
  • a reaction that expands and contracts an image according to the direction in which the image is shaken may be displayed, or a reaction that displays an image that is enlarged or reduced.
  • the reaction information includes information indicating the content of the reaction attached to the image by the user, such as information indicating the direction in which the housing is shaken and information indicating the time when the case is shaken.
  • the portable device 101 when the file name and reaction information transmitted from the portable device 1 are received and the basic view mode is set, an image identified by the file name is read from the memory and displayed. . Further, processing for changing the state of the image displayed on the display 11 according to the reaction information transmitted from the mobile device 1 is performed. Also on the mobile device 101, the same image as that displayed on the mobile device 1 is displayed with the state changed in the same manner.
  • the user of the mobile device 1 can return the image transmitted from the partner with a reaction.
  • the user of the mobile device 101 can confirm the reaction of the user of the mobile device 1 with respect to the image that he / she sent.
  • the user of the mobile device 1 and the user of the mobile device 101 can communicate through reaction.
  • FIG. 17 is a diagram showing a series of transitions of the operation mode as described above.
  • the operation mode of the mobile device 1 transitions to the basic view mode as shown at the end of the arrow A51.
  • the display 11 displays a synchronized image such as an image transmitted from the portable device 101 in the standby mode.
  • the operation mode of the mobile device 1 transitions to the standby mode as indicated by the tip of the arrow A52.
  • the operation mode of the mobile device 1 transitions to the camera mode.
  • the operation mode of the mobile device 101 transitions to the basic view mode as indicated by the tip of the arrow A57.
  • an image taken by the user of the mobile device 1 and transmitted from the mobile device 1 is displayed. Since the same image is displayed on the mobile device 101, the image captured by the mobile device 1 in the camera mode is a synchronized image.
  • the user holds the portable device 1 so as to sandwich the left side surface and the right side surface, and the left side switch 42L and the right side switch 42R are pressed simultaneously.
  • the operation mode of the mobile device 1 transitions to the select mode.
  • the display image is switched as indicated by the tip of the arrow A60.
  • the selected image is synchronized as indicated by the tip of arrow A61.
  • the file name of the image selected by the user of the mobile device 1 is transmitted to the mobile device 101 and received by the mobile device 101 in the standby mode, for example.
  • the operation mode of the mobile device 101 transitions to the basic view mode as indicated by the tip of the arrow A62.
  • the same image as the image selected by the user of the mobile device 1 identified based on the file name is displayed on the display 11 of the mobile device 101. Since the same image is also displayed on the mobile device 101, the image selected by the user of the mobile device 1 in the select mode is a synchronized image.
  • the portable device 1 When the user holds the portable device 1 so as to sandwich the upper side surface and the lower side surface as indicated by the tip of the arrow A53, and the case is shaken in this state, the portable device 1 is indicated as indicated by the tip of the arrow A63.
  • the operation mode changes from the basic view mode to the reaction mode.
  • the portable device 1 when the user holds the portable device 1 so as to sandwich the left side surface and the right side surface as indicated by the tip of the arrow A58, and the case is shaken in this state, the portable device 1 is indicated as indicated by the tip of the arrow A64.
  • the operation mode of the device 1 transitions from the basic view mode to the reaction mode.
  • reaction mode when a reaction is attached by shaking the case up and down or left and right, synchronization is performed as indicated by the tip of arrow A66.
  • the file name and reaction information of the image to which the reaction is attached are transmitted to the portable device 101 and received by the portable device 101 in the standby mode, for example.
  • the operation mode of the mobile device 101 transitions to the basic view mode as indicated by the tip of the arrow A67.
  • the same image as the image identified by the user of the mobile device 1 identified based on the file name is displayed so as to change the state according to the reaction information. Since the same image is also displayed on the mobile device 101, an image to which a reaction is given by the user of the mobile device 1 in the reaction mode is a synchronized image.
  • FIG. 18 is a block diagram illustrating a hardware configuration example of the mobile device 1.
  • the portable device 1 includes a control unit 151, an acceleration sensor 152, a memory 153, and a communication unit 154 in addition to the display 11, the camera 32, the touch sensor 41, and the switch 42 described above.
  • the control unit 151 executes a predetermined program and controls the overall operation of the mobile device 1. For example, the control unit 151 detects a user operation based on signals supplied from the touch sensor 41, the switch 42, and the acceleration sensor 152, and sets various operation modes according to the detected operation.
  • the acceleration sensor 152 detects the acceleration generated in the casing of the mobile device 1 and outputs the detection result to the control unit 151.
  • the memory 153 includes a flash memory and stores images supplied from the control unit 151.
  • the memory 153 stores an image captured by the camera 32 and an image transmitted from the mobile device 101 and received by the communication unit 154.
  • the image stored in the memory 153 is appropriately read out by the control unit 151.
  • the communication unit 154 communicates with the management server 103 according to the control of the control unit 151, transmits an image photographed by the camera 32 and supplied from the control unit 151 to the management server 103. In addition, the communication unit 154 receives an image transmitted from the management server 103 and outputs the image to the control unit 151.
  • FIG. 19 is a block diagram illustrating a functional configuration example of the control unit 151.
  • control unit 151 is realized by executing a predetermined program by the control unit 151 in FIG.
  • an operation detection unit 161, a displacement detection unit 162, a mode management unit 163, an image management unit 164, and a display control unit 165 are realized.
  • the operation detection unit 161 detects that the user is touching the side surface of the casing and the pressing operation of the switch 42 by the user, based on outputs from the touch sensor 41 and the switch 42 provided on each of the four side surfaces. .
  • the operation detection unit 161 outputs information representing the content of the detected user operation to the mode management unit 163, the image management unit 164, and the display control unit 165.
  • the displacement detector 162 detects the orientation of the casing of the mobile device 1 and the displacement applied to the casing based on the acceleration detected by the acceleration sensor 152. For example, the displacement detection unit 162 detects the direction, size, and the like of the case being shaken. The displacement detection unit 162 outputs information representing the orientation of the housing and information representing the displacement applied to the housing to the mode management unit 163, the image management unit 164, and the display control unit 165.
  • the mode management unit 163 will be described with reference to FIG. 17 based on the user operation detected by the operation detection unit 161, the orientation of the housing detected by the displacement detection unit 162, and the displacement applied to the housing. As described above, the operation mode is changed.
  • the mode management unit 163 displays information indicating whether the operation mode being set is a standby mode, a basic view mode, a camera mode, a select mode, or a reaction mode, as an image management unit 164 and a display control unit 165. Output to.
  • the image management unit 164 includes the camera 32, the memory 153, and The communication unit 154 is controlled.
  • the image management unit 164 when the camera mode is set by the mode management unit 163, the image management unit 164 outputs an image captured by the camera 32 to the display control unit 165 and causes the display 11 to display the image.
  • the image management unit 164 stores the image captured by the camera 32 at that time in the memory 153 and controls the communication unit 154. Transmit to the mobile device 101.
  • the image management unit 164 controls the communication unit 154 to transmit the file name of the image selected by the user to the mobile device 101.
  • the image management unit 164 controls the communication unit 154 to transmit the file name of the image with the reaction and the reaction information to the portable device 101.
  • the image management unit 164 controls the communication unit 154 to receive an image transmitted from the portable device 101 and store it in the memory 153 in the standby mode.
  • the display control unit 165 controls display on the display 11 based on the user operation detected by the operation detection unit 161, the orientation of the housing detected by the displacement detection unit 162, and the displacement applied to the housing. .
  • the display control unit 165 causes the display 11 to display an image captured by the camera 32 and supplied from the image management unit 164.
  • the display control unit 165 When the select mode is set by the mode management unit 163, the display control unit 165 will be described with reference to FIG. 13 each time the casing is tilted while the left side switch 42L and the right side switch 42R are pressed. The display 11 is switched as described above.
  • the display control unit 165 indicates the state of the image displayed on the display 11 in response to the case being shaken with reference to FIGS. Change as explained.
  • step S1 the operation detection unit 161 determines whether or not the casing of the mobile device 1 has been touched based on the detection result by the touch sensor 41, and waits until it is determined that the touch has been made.
  • step S2 When it is determined in step S1 that the housing has been touched, in step S2, the mode management unit 163 changes the operation mode of the mobile device 1 to the basic view mode. When the casing of the mobile device 1 is touched, information indicating that is supplied from the operation detection unit 161 to the mode management unit 163.
  • step S3 the display control unit 165 causes the display 11 to display the image last selected as the synchronization image. For example, when an image captured by the mobile device 101 in the standby mode and transmitted from the mobile device 101 is stored in the memory 153, the image is read from the memory 153 and displayed as a synchronized image.
  • step S4 the operation detection unit 161 determines whether the upper side switch 42T and the lower side switch 42B are pressed simultaneously.
  • step S5 When it is determined in step S4 that the upper side switch 42T and the lower side switch 42B are pressed at the same time, in step S5, the mode management unit 163 transitions the operation mode of the mobile device 1 to the camera mode.
  • step S6 processing in the camera mode is performed by each unit.
  • the processing in the camera mode performed in step S6 will be described later with reference to the flowchart of FIG.
  • step S7 the mode management unit 163 determines that the left side switch 42L and the right side switch 42R are simultaneously set. It is determined whether or not it has been pressed.
  • step S7 When it is determined in step S7 that the left side switch 42L and the right side switch 42R are pressed at the same time, the mode management unit 163 transitions the operation mode of the portable device 1 to the select mode in step S8.
  • step S9 processing in the select mode is performed by each unit.
  • the processing in the select mode performed in step S9 will be described later with reference to the flowchart of FIG.
  • step S10 the mode management unit 163 determines whether or not the casing of the mobile device 1 has been shaken. The determination is made based on the detection result by the acceleration sensor 152.
  • step S11 the mode management unit 163 changes the operation mode of the mobile device 1 to the reaction mode.
  • step S12 processing in the reaction mode is performed by each unit.
  • the process in the reaction mode performed in step S12 will be described later with reference to the flowchart of FIG.
  • step S10 If it is determined in step S10 that the casing of the mobile device 1 is not shaken, the process returns to step S3 and the above processing is repeated. Similarly, after the process in the camera mode is performed in step S6, the process in the select mode is performed in step S9, and the process in the reaction mode is performed in step S12. Is done.
  • step S21 the display control unit 165 causes the display 11 to display the image captured by the camera 32 and supplied from the image management unit 164.
  • step S22 the image management unit 164 determines whether the upper side switch 42T and the lower side switch 42B are pressed at the same time. If it is determined in step S22 that the upper side switch 42T and the lower side switch 42B are not pressed at the same time, the process returns to step S21, and the display of the captured image is continued.
  • step S22 if it is determined in step S22 that the upper side switch 42T and the lower side switch 42B are pressed at the same time, the image management unit 164 causes the camera 32 to perform shooting in step S23.
  • step S24 the image management unit 164 stores the image obtained by shooting in the memory 153 as a synchronized image.
  • step S ⁇ b> 25 the image management unit 164 controls the communication unit 154 to transmit an image obtained by shooting to the mobile device 101. Thereafter, the process returns to step S6 in FIG. 20, and the subsequent processing is performed.
  • the user of the mobile device 1 can automatically transmit an image captured by the camera 32 to the mobile device 101 without performing an upload operation or the like every time the image is captured.
  • step S41 the display control unit 165 reads out images from the memory 153, and displays them side by side as shown in FIG.
  • step S42 the display control unit 165 determines whether the casing is tilted while pressing the left side switch 42L and the right side switch 42R, and waits until it is determined that the casing is tilted.
  • step S43 the display control unit 165 displays the image as described with reference to FIG. Switch the display. As a result, a plurality of images are displayed with their positions shifted in conjunction with each other.
  • step S44 the image management unit 164 determines whether an image is selected. If it is determined in step S44 that no image has been selected, the process returns to step S42 and the subsequent processing is repeated.
  • step S45 the image management unit 164 selects the file name of the selected image. Transmit to the mobile device 101. Thereafter, the process returns to step S9 in FIG. 20, and the subsequent processing is performed.
  • the user of the mobile device 1 can automatically transmit the file name of the image to the mobile device 101 only by finding and selecting a predetermined image from the images exchanged with the other party. it can.
  • reaction mode processing Next, processing in the reaction mode performed in step S12 in FIG. 20 will be described with reference to the flowchart in FIG.
  • step S31 the display control unit 165 changes the state of the image on the display 11 in response to the case being shaken to attach a reaction.
  • the reaction can be input for a predetermined time such as several seconds.
  • step S32 the image management unit 164 transmits the reaction information and the file name of the image with the reaction to the portable device 101. Thereafter, the process returns to step S12 in FIG. 20, and the subsequent processing is performed.
  • the user of the mobile device 1 can attach a reaction to the image transmitted from the other party and automatically transmit the reaction information to the mobile device 101.
  • step S51 the image management unit 164 determines whether an image shot in the camera mode has been transmitted from the portable device 101.
  • the image management unit 164 receives the image transmitted from the mobile device 101 in step S52.
  • the received image is supplied to the memory 153 and stored therein.
  • the display control unit 165 causes the display 11 to display the image transmitted from the mobile device 101 as a synchronized image. This synchronized image is displayed in step S3.
  • step S51 determines whether an image has not been transmitted from the mobile device 101. If it is determined in step S51 that an image has not been transmitted from the mobile device 101, the image management unit 164 determines whether the file name of the image selected in the select mode has been transmitted from the mobile device 101 in step S53. Determine whether or not.
  • the image management unit 164 receives the file name of the image transmitted from the portable device 101 in step S54.
  • the received file name is supplied to the memory 153 and stored therein.
  • the display control unit 165 reads the image identified by the file name transmitted from the mobile device 101 from the memory 153, and synchronizes. It is displayed on the display 11 as an image. This synchronized image is displayed in step S3.
  • step S55 the image management unit 164 displays the reaction information indicating the reaction attached to the image in the reaction mode and the image attached with the reaction. It is determined whether the file name is transmitted from the mobile device 101.
  • step S56 the image management unit 164 receives the reaction information and the file name of the image.
  • the received reaction information and file name are supplied to the memory 153 and stored in association with each other.
  • the display control unit 165 uses the image identified by the file name transmitted from the mobile device 101 as a synchronized image and reacts. It is displayed on the display 11 with a reaction represented by information. This synchronized image is displayed in step S3.
  • step S52 After the information transmitted from the portable device 101 is received in steps S52, S54, and S56, or when it is determined in step S55 that the reaction information and the file name of the image have not been transmitted, the process returns to step S51. The above processing is repeated.
  • the user of the mobile device 1 and the user of the mobile device 101 can communicate with each other through images.
  • the exchange between the portable device 1 and the portable device 101 is performed via the management server 103 that manages the portable device 1 and the portable device 101 in association with each other. May be.
  • information indicating that the device associated with the portable device 1 is the portable device 101 is registered in the portable device 1, and the device associated with the portable device 101 is the portable device 1.
  • Information indicating that it exists is registered.
  • the association of devices may be performed by the user by inputting identification information of the other portable device into one portable device.
  • images are synchronized between two portable devices.
  • images may be synchronized between three or more portable devices.
  • the image synchronization as described above is performed by a portable device having an appearance as described with reference to FIG. 1 and the like, it may be performed by a portable terminal such as a smartphone.
  • a portable terminal such as a smartphone.
  • an application for realizing image synchronization is installed in the mobile terminal, and after the mobile terminal is associated, the image synchronization as described above is performed.
  • the camera mode is set when the upper side switch 42T and the lower side switch 42B are pressed.
  • the camera mode is set.
  • a mode may be set.
  • the select mode is set when the left side switch 42L and the right side switch 42R are pressed, but the select mode is set when the upper side switch 42T and the lower side switch 42B are pressed. It may be set.
  • FIG. 25 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 205 is further connected to the bus 204.
  • an input unit 206 such as a keyboard and a mouse and an output unit 207 such as a display and a speaker are connected.
  • the input / output interface 205 is connected to a storage unit 208 made up of a hard disk, nonvolatile memory, etc., a communication unit 209 made up of a network interface, etc., and a drive 210 that drives the removable medium 211.
  • the CPU 201 loads the program stored in the storage unit 208 to the RAM 203 via the input / output interface 205 and the bus 204 and executes it, thereby executing the above-described series of processing. Is done.
  • the program executed by the CPU 201 is recorded in the removable medium 211 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and is installed in the storage unit 208.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • a shooting section The image obtained by photographing by the photographing unit is transmitted each time photographing is performed to another portable device managed in association with the portable device itself, and each time photographing is performed in the other portable device
  • a communication unit that receives the image transmitted from another portable device
  • a mobile device comprising: a display unit that displays the image transmitted from the other mobile device and received by the communication unit.
  • a storage unit for storing the image obtained by photographing by the photographing unit and the image received by the communication unit;
  • the portable device further comprising: a display control unit that selects a predetermined image from the images stored in the storage unit and displays the selected image on the display unit.
  • the display unit is provided on the front surface of the casing of the mobile device,
  • the photographing unit is provided on the back surface of the housing,
  • the above (2) further includes a detection unit that detects which of the upper and lower side surfaces and the left and right side surfaces of the casing is touching the opposing side surface and the user's pressing operation on the opposing side surface.
  • the said display control part displays the said image last received by the said communication part according to detecting that the said user touched the side surface of the said housing
  • the imaging unit performs imaging in response to a pressing operation performed on the one side surface when it is detected that the user touches one of the upper and lower side surfaces and the left and right side surfaces.
  • the mobile device further including a displacement detection unit that detects a change in position applied to the housing.
  • the display control unit is configured to detect the change in the position when a pressing operation is performed on the other side surface.
  • the communication unit transmits the identification information of the image displayed by switching to the other portable device, In the other portable device, the image identified by the identification information is displayed.
  • the portable device according to (7).
  • the display unit is a self-luminous type and is configured by a transmissive type display,
  • the display control unit displays one image in a region where the light shielding member is provided on the back side of the entire display region of the display unit, and another region in which the light shielding member is not provided on the back side.
  • the display control unit When the display control unit detects that the user touches the one side surface or the other side surface, the display control unit displays the change in the position in response to the detection of the change in the position.
  • the portable device according to any one of (6) to (9), wherein an image state is changed.
  • the communication unit transmits identification information of the image displayed on the display unit and information on the detected change in the position to the other portable device, In the other portable device, the image identified by the identification information is displayed, and a process of changing a state according to information on the change of the position is performed.
  • the display unit is a self-luminous type and is configured by a transmissive type display,
  • the display control unit moves the display position of one image displayed in a region where a light shielding member is provided on the back side of the entire display region of the display unit within the range of the display region.
  • the display unit is a self-luminous type and is configured by a transmissive type display,
  • the display control unit displays one image in a region where the light shielding member is provided on the back side of the entire display region of the display unit, and the region where the light shielding member is not provided on the back side.
  • the portable device according to any one of (3) to (12), wherein an icon is displayed.
  • the communication unit is obtained by photographing via a management device that is connected to both the portable device and the other portable device via a network and manages the portable device and the other portable device in association with each other.
  • the portable device according to any one of (1) to (13), wherein the image is transmitted to the other portable device and the image transmitted from the other device is received.
  • 1,101 mobile device 11 display, 12 frame, 32 camera, 41T, 41B, 41L, 41R touch sensor, 42T, 42B, 42L, 42R switch, 151 control unit, 152 acceleration sensor, 153 memory, 154 communication unit, 161 Operation detection unit, 162 displacement detection unit, 163 mode management unit, 164 image management unit, 165 display control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本技術は、撮影した画像を特定の人と容易に共有することができるようにする携帯機器、情報処理方法、およびプログラムに関する。本技術の一側面の携帯機器は、撮影部と、前記撮影部による撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信する通信部と、前記他の携帯機器から送信され、前記通信部により受信された前記画像を表示する表示部とを備える。本技術は、撮影機能と通信機能を有する機器に適用することができる。

Description

携帯機器、情報処理方法、およびプログラム
 本技術は、携帯機器、情報処理方法、およびプログラムに関し、特に、撮影した画像を特定の人と容易に共有することができるようにした携帯機器、情報処理方法、およびプログラムに関する。
 近年、いわゆるスマートフォンや通信機能を有するデジタルスチルカメラなどの、撮影機能と通信機能を有する携帯機器が普及してきている。
 撮影機能と通信機能を用いたアプリケーションとして、例えば、撮影した画像をサーバにアップロードし、友人などの他のユーザに公開するものがある。このようなアプリケーションを利用することにより、ユーザは、自分が撮影した画像を他のユーザとの間で共有することが可能になる。
特表2009-504098号公報
 上述したようにして画像を共有する場合、ユーザは、撮影を行った後、ブラウザを起動させて所定のサーバにアクセスし、予め割り当てられたパスワードを入力するなどしてログインを行った後、撮影によって得られた画像の中から画像を選択し、画像をアップロードさせるなどの操作を行う必要がある。
 このような操作は、筐体が小さく、小型のディスプレイや小さいボタンしか設けられていない機器において行う場合には特に煩雑になる。
 本技術はこのような状況に鑑みてなされたものであり、撮影した画像を特定の人と容易に共有することができるようにするものである。
 本技術の一側面の携帯機器は、撮影部と、前記撮影部による撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信する通信部と、前記他の携帯機器から送信され、前記通信部により受信された前記画像を表示する表示部とを備える。
 前記撮影部による撮影によって得られた前記画像と前記通信部により受信された前記画像を記憶する記憶部と、前記記憶部に記憶された前記画像の中から所定の画像を選択し、前記表示部に表示させる表示制御部とをさらに設けることができる。
 前記表示部は前記携帯機器の筐体の正面に設けられ、前記撮影部は前記筐体の背面に設けられ、前記筐体の上下の側面と左右の側面のうちのいずれの対向する側面にユーザが触れているのかと、対向する側面に対する前記ユーザの押下操作を検出する検出部をさらに設けることができる。
 前記表示制御部には、前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記画像を表示させることができる。
 前記撮影部には、上下の側面と左右の側面のうちの一方の側面に前記ユーザが触れたことが検出された場合、前記一方の側面に対する押下操作が行われたことに応じて撮影を行わせることができる。
 前記筐体に加えられた位置の変化を検出する変位検出部をさらに設けることができる。
 前記表示制御部には、他方の側面に前記ユーザが触れたことが検出された場合、前記他方の側面に対する押下操作が行われているときに前記位置の変化が検出されたことに応じて、前記表示部に表示させる前記画像を切り替えさせることができる。
 前記通信部には、切り替えて表示された前記画像の識別情報を前記他の携帯機器に送信させることができる。この場合、前記他の携帯機器においては、前記識別情報により識別される前記画像が表示される。
 前記表示部を、自発光型であり、かつ透過型のディスプレイにより構成することができる。この場合、前記表示制御部には、前記表示部の表示領域全体のうち、背面側に遮光部材が設けられる領域に1枚の前記画像を表示させ、背面側に前記遮光部材が設けられていない領域に他の前記画像の一部を表示させることができる。
 前記表示制御部には、前記一方の側面または前記他方の側面に前記ユーザが触れたことが検出された場合、前記位置の変化が検出されたことに応じて、前記表示部に表示させている前記画像の状態を変化させることができる。
 前記通信部には、前記表示部に表示されている前記画像の識別情報と、検出された前記位置の変化に関する情報を前記他の携帯機器に送信させることができる。この場合、前記他の携帯機器においては、前記識別情報により識別される前記画像が表示され、前記位置の変化に関する情報に応じて状態を変化させる処理が行われる。
 前記表示部を、自発光型であり、かつ透過型のディスプレイにより構成することができる。この場合、前記表示制御部には、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に表示させている1枚の前記画像の表示位置を、前記表示領域の範囲内で移動させることができる。
 前記表示部を、自発光型であり、かつ透過型のディスプレイにより構成することができる。この場合、前記表示制御部には、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に1枚の前記画像を表示させ、背面側に前記遮光部材が設けられていない領域にアイコンを表示させることができる。
 前記通信部には、前記携帯機器と前記他の携帯機器の双方とネットワークを介して接続され、前記携帯機器と前記他の携帯機器とを対応付けて管理する管理装置を介して、撮影によって得られた前記画像を前記他の携帯機器に送信させ、前記他の機器から送信されてきた前記画像を受信させることができる。
 ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。
 本技術の一側面においては、撮影が行われ、撮影によって得られた画像が携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信される。また、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像が受信され、表示される。
 本技術によれば、撮影した画像を特定の人と容易に共有することができる。
本技術の一実施形態に係る携帯機器の正面の構成例を示す図である。 携帯機器の背面の構成例を示す図である。 携帯機器の側面を示す図である。 携帯機器の持ち方の例を示す図である。 携帯機器の他の側面を示す図である。 携帯機器の他の持ち方の例を示す図である。 情報処理システムの構成例を示す図である。 携帯機器の動作モードの例を示す図である。 基本ビューモード時のディスプレイの表示例を示す図である。 基本ビューモード時のディスプレイの他の表示例を示す図である。 カメラモード時のディスプレイの表示例を示す図である。 セレクトモード時のディスプレイの表示例を示す図である。 画像の切り替えの例を示す図である。 リアクションモード時のディスプレイの表示例を示す図である。 上下に振るリアクションが付けられたときの表示例を示す図である。 左右に振るリアクションが付けられたときの表示例を示す図である。 動作モードの一連の遷移を示す図である。 携帯機器のハードウェア構成例を示すブロック図である。 制御部の機能構成例を示すブロック図である。 携帯機器の処理について説明するフローチャートである。 図20のステップS6において行われるカメラモード時の処理について説明するフローチャートである。 図20のステップS9において行われるセレクトモード時の処理について説明するフローチャートである。 図20のステップS12において行われるリアクションモード時の処理について説明するフローチャートである。 携帯機器の受信処理について説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
<携帯機器の外観構成>
 図1は、本技術の一実施形態に係る携帯機器の正面の構成例を示す図である。
 図1に示すように、携帯機器1の正面の形状は、角が丸みを帯びたほぼ正方形の形状を有している。携帯機器1は、基本的に、ディスプレイ11と、縁部材としてディスプレイ11を囲むように設けられたフレーム12から構成される。
 後述するように、携帯機器1には加速度センサが内蔵されており、加速度センサの検出結果に基づいて携帯機器1の向きが判断され、上下左右のそれぞれの側面が特定される。すなわち、ユーザが携帯機器1を持つ向きによっては、図1の下側面、左側面、右側面がそれぞれ上側面になることもある。以下、図1の向きを基準として説明する。
 上側面と左側面を繋ぐフレーム12の左上の曲面部分にはU字型のホルダ13が設けられる。ユーザは、ホルダ13に形成される孔部13Aにストラップなどを通し、携帯機器1を首からぶら下げて携帯したり、携帯電話機などに繋げて携帯したりすることができる。
 携帯機器1の大きさは、フレーム12により形成される上側面と下側面、または左側面と右側面の対向する側面を、親指と人差し指などの片方の手の二本の指で挟むことによって筐体を持つことが可能な大きさとされる。ユーザは、携帯機器1の筐体を片手でつまむようにして持ち、ディスプレイ11の表示を見たりすることができる。
 ディスプレイ11は、例えば有機ELディスプレイなどの自発光型のディスプレイであり、かつ透過型のディスプレイである。ディスプレイ11の表示領域全体のうち、領域21は、背面側に遮光部材が設けられている非透過領域であり、領域21を囲むようにして形成される領域22は、背面側に遮光部材が設けられていない透過領域である。
 領域21には例えば撮影された1枚の画像が表示される。遮光部材が背面側に設けられているから、領域21の画像は高いコントラストで表示されることになる。一方、領域22に表示されるアイコンなどの画像は、ユーザにとって、携帯機器1の背面側の風景に重ねて見えるように表示されることになる。
 図2は、携帯機器1の背面の構成例を示す図である。
 ディスプレイ11のほぼ中央には遮光部材31が取り付けられる。遮光部材31の内部に、ディスプレイ11の表示を制御する回路やバッテリなどの電気的な構成が設けられる。
 遮光部材31の所定の位置にはカメラ32が設けられる。すなわち、携帯機器1は、カメラとしての機能と、撮影した画像を表示するフォトフレームとしての機能を有する。携帯機器1の筐体の大きさが比較的小さいこともあって、ユーザは、携帯機器1を気軽に持ち運んで撮影を行ったり画像を見たりすることができる。
 図3のAは携帯機器1の上側面を示す図であり、図3のBは携帯機器1の下側面を示す図である。図3のAにおいては左側が携帯機器1の正面側となり、右側が携帯機器1の背面側となる。一方、図3のBにおいては右側が携帯機器1の正面側となり、左側が携帯機器1の背面側となる。
 図3のAおよび図3のBに示すように携帯機器1の筐体は所定の厚みを有している。上側面12Tにはタッチセンサ41Tが設けられ、下側面12Bにはタッチセンサ41Bが設けられる。図4に示すようにユーザが上側面12Tと下側面12Bを二本の指で挟んで携帯機器1を持ったとき、そのことがタッチセンサ41Tと41Bにより検出される。
 図3のAにおいて破線で示すように、タッチセンサ41Tの下(筐体の内側)にはスイッチ42Tが設けられる。また、図3のBにおいて破線で示すように、タッチセンサ41Bの下にはスイッチ42Bが設けられる。ユーザは、上側面12Tと下側面12Bを二本の指で携帯機器1を持った図4の状態から、白抜き矢印で示すように携帯機器1の内部方向に力を入れ、スイッチ42T,42Bの押下操作を行うことができる。
 図5のAは携帯機器1の左側面を示す図であり、図5のBは携帯機器1の右側面を示す図である。図5のAにおいては右側が携帯機器1の正面側となり、左側が携帯機器1の背面側となる。一方、図5のBにおいては左側が携帯機器1の正面側となり、右側が携帯機器1の背面側となる。
 左側面12Lにはタッチセンサ41Lが設けられ、右側面12Rにはタッチセンサ41Rが設けられる。図6に示すようにユーザが左側面12Lと右側面12Rを二本の指で挟んで携帯機器1を持ったとき、そのことがタッチセンサ41Lと41Rにより検出される。
 図5のAと図5のBにおいて破線で示すように、タッチセンサ41Lの下にはスイッチ42Lが設けられ、タッチセンサ41Rの下にはスイッチ42Rが設けられる。ユーザは、左側面12Lと右側面12Rを二本の指で携帯機器1を持った図6の状態から、白抜き矢印で示すように携帯機器1の内部方向に力を入れ、スイッチ42L,42Rの押下操作を行うことができる。
 以下、適宜、タッチセンサ41T,41B,41L,41Rをそれぞれ区別する必要がない場合、まとめてタッチセンサ41という。また、スイッチ42T,42B,42L,42Rをそれぞれ区別する必要がない場合、まとめてスイッチ42という。
 携帯機器1を用いた撮影機能や画像の閲覧機能が、図4と図6に示すような携帯機器1の持ち方によって、またはスイッチ42の操作に応じて切り替えられる。
 携帯機器1には、無線LAN(Local Area Network)などによる無線通信の機能も搭載されている。携帯機器1は、撮影した画像を他の携帯機器に送信したり、他の携帯機器において撮影され、他の携帯機器から送信されてきた画像を受信して表示したりすることができる。
<情報処理システムの構成>
 図7は、情報処理システムの構成例を示す図である。
 図7の情報処理システムは、携帯機器1と携帯機器101がインターネット102を介して接続されることによって構成される。携帯機器101は、携帯機器1と同じ構成と機能を有し、携帯機器1のユーザとは異なるユーザが携帯する機器である。
 インターネット102には管理サーバ103も接続される。管理サーバ103は、携帯機器1と携帯機器101を対応付けて管理する。例えば、管理サーバ103は、IPアドレスなどの携帯機器1の識別情報と携帯機器101の識別情報を紐付けて記憶することによって、携帯機器1と携帯機器101を対応付けて管理する。
 携帯機器1と携帯機器101は例えばセットで販売される。携帯機器1と携帯機器101の対応付けは販売前に行われており、携帯機器1と携帯機器101のそれぞれの識別情報は管理サーバ103に予め記憶されている。図示していないが、管理サーバ103においては、携帯機器1と携帯機器101のペア以外の携帯機器のペアも対応付けて管理されている。
 このような構成を有する情報処理システムにおいて、例えば携帯機器1のユーザにより携帯機器1を用いて撮影が行われたとき、撮影によって得られた画像が携帯機器1から管理サーバ103に送信される(アップロードされる)。携帯機器1から管理サーバ103に対する画像の送信は、画像の撮影が行われる毎に、例えばユーザの操作によらずに自動的に行われる。
 携帯機器1から送信されてきた画像を受信した管理サーバ103は、記憶している識別情報に基づいて、画像の送信元の機器である携帯機器1と対応付けて管理している機器が携帯機器101であることを特定する。また、管理サーバ103は、特定した携帯機器101を送信先とし、携帯機器1から送信されてきた画像を送信する。
 携帯機器101は、管理サーバ103から送信されてきた画像を受信し、受信した画像を表示する。携帯機器101のユーザは、携帯機器1のユーザにより撮影され、送信された画像を閲覧することができる。
 これにより、携帯機器1のユーザは、撮影を行う毎に、携帯機器101のユーザとの間で画像を共有することができ、自分が見て撮影した対象を携帯機器101のユーザにも見てもらうことで意思を伝達することが可能になる。
 また、管理サーバ103が管理するサイトにアクセスしたり、パスワードを入力してログインを行ったりする必要がないから、携帯機器1のユーザは画像の共有を容易に行うことができる。画像の共有のために各種の操作を行う必要があるとした場合、特に小型の機器においてはボタンが小さかったり、ディスプレイが小さかったりして煩雑になってしまうが、そのような煩雑な操作をユーザは行わないで済む。
 一方、携帯機器101のユーザにより携帯機器101を用いて撮影が行われたとき、撮影によって得られた画像が携帯機器101から管理サーバ103に送信される。
 携帯機器101から送信されてきた画像を受信した管理サーバ103は、記憶している識別情報に基づいて、画像の送信元の機器である携帯機器101と対応付けて管理している機器が携帯機器1であることを特定する。また、管理サーバ103は、特定した携帯機器1を送信先とし、携帯機器101から送信されてきた画像を送信する。
 携帯機器1は、管理サーバ103から送信されてきた画像を受信し、受信した画像を表示する。携帯機器1のユーザは、携帯機器101のユーザにより撮影され、送信された画像を閲覧することができる。
 携帯機器101のユーザも同様に、撮影を行う毎に携帯機器1のユーザとの間で画像を共有することができ、意思を伝達することが可能になる。
 このように、携帯機器1のユーザと携帯機器101のユーザとの間では、文章や音声などによって意思を直接伝える直接的なコミュニケーションとは異なり、自分が撮影した画像を用いたいわば感覚的なコミュニケーションが実現される。
 以下、携帯機器1の構成と機能について主に説明するが、同じ構成と機能を携帯機器101も有している。適宜、携帯機器1の構成を携帯機器101の構成として引用して説明する。
<携帯機器の動作モード>
 図8は、携帯機器1の動作モードの例を示す図である。
 携帯機器1の動作モードには、ディスプレイ11の表示がオフになるスタンバイモードの他に、基本ビューモード、カメラモード、セレクトモード、およびリアクションモードが用意される。
 詳細については後述するが、基本ビューモードは、相手(携帯機器101のユーザ)から送信されてきた画像などを閲覧するモードである。カメラモードは、撮影を行い、撮影によって得られた画像を相手に送信するモードである。セレクトモードは、自分が撮影した画像や相手から送信されてきた画像の中から所定の画像を選択するモードである。リアクションモードは、画像を送信してきた相手に対してリアクションを返すモードである。
 矢印A1乃至A3に示すように、基本ビューモードから、カメラモード、セレクトモード、リアクションモードのそれぞれの動作モードへの遷移が可能とされる。また、カメラモード、セレクトモード、リアクションモードのそれぞれの動作モードから、基本ビューモードへの遷移が可能とされる。
[基本ビューモード]
 図9は、基本ビューモード時のディスプレイ11の表示例を示す図である。
 基本ビューモードは、例えばスタンバイモードのときに、筐体が触られたことがタッチセンサ41により検出されたことに応じて設定される。
 基本ビューモードが設定されたとき、ディスプレイ11の表示がオンとなり、領域21には、携帯機器101との間で同期が行われた画像である同期画像が表示される。同期画像が複数ある場合、例えば最後の同期画像が表示される。
 同期画像は、携帯機器1において、カメラモード時に撮影された画像、セレクトモード時に選択された画像、リアクションモード時にリアクションが付けられた画像である。これらの画像は、後述するように、携帯機器1のディスプレイ11に表示されるとともに、携帯機器101のディスプレイ11にも表示される。
 また、携帯機器101において、カメラモード時に撮影された画像、セレクトモード時に選択された画像、リアクションモード時にリアクションが付けられた画像も同期画像となる。これらの画像は、携帯機器101において撮影等が行われることに応じて、携帯機器101のディスプレイ11に表示されるとともに、携帯機器1のディスプレイ11にも表示される。
 基本ビューモードは、上下左右のいずれかの側面にユーザが触れたときに設定される。ユーザは携帯機器1をどの向きに持っても画像を見ることができる。
 図9に示すようにユーザが上側面と下側面を挟むように携帯機器1を持っている場合、透過領域である領域22の位置のうち、領域21の左側の位置にはカメラアイコン111が表示される。カメラアイコン111は、カメラの画像とカメラを上下から挟む矢印の画像から構成される。カメラアイコン111は、上側面のスイッチ42Tと下側面のスイッチ42Bを同時に押すことによってカメラモードに遷移させることができることを表す。
 また、領域21の右側の位置にはリアクションアイコン112が表示される。リアクションアイコン112は、四角の画像と、四角の画像の上下に配置された振動を表す画像から構成される。リアクションアイコン112は、筐体を上下に振ることによってリアクションモードに遷移させることができることを表す。ユーザが筐体を振っていることは、例えば、携帯機器1に内蔵されている加速度センサの検出結果に基づいて特定される。
 このように、上側面と下側面を挟むように携帯機器1を持っている場合、ディスプレイ11には、画像の左右にアイコンが表示される。
 図10は、基本ビューモード時のディスプレイ11の他の表示例を示す図である。
 図10に示すようにユーザが左側面と右側面を挟むように携帯機器1を持っている場合、領域22の位置のうち、領域21の上側の位置にはセレクトアイコン121が表示される。セレクトアイコン121は、3つの四角を重ねた画像と、3つの四角を左右から挟む矢印の画像から構成される。セレクトアイコン121は、左側面のスイッチ42Lと右側面のスイッチ42Rを同時に押すことによってセレクトモードに遷移させることができることを表す。
 また、領域21の下側の位置にはリアクションアイコン122が表示される。リアクションアイコン122は、図9のリアクションアイコン112を横向きにしたものである。リアクションアイコン122は、筐体を左右に振ることによってリアクションモードに遷移させることができることを表す。
 このように、左側面と右側面を挟むように携帯機器1を持っている場合、ディスプレイ11には、画像の上下にアイコンが表示される。
[カメラモード]
 図11は、カメラモード時のディスプレイ11の表示例を示す図である。
 カメラモードは、基本ビューモードが設定されている場合において、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたことが検出されたときに設定される。ユーザは、スタンバイモード時、上側面と下側面を挟んで筐体を持つことによって基本ビューモードに遷移させ、その状態から上側面と下側面を同時に押すことによってカメラモードに遷移させることができる。上側面のスイッチ42Tと下側面のスイッチ42Bを同時に押すのではなく、片方を押すことでカメラモードが設定されるようにしてもよい。
 カメラモードが設定されたとき、ディスプレイ11の領域21には、カメラ32により取り込まれているライブビューの画像が表示される。ユーザは、領域21に表示される画像を見て、構図を決定することになる。
 領域21の左側にはカメラアイコン111が表示される。図11のカメラアイコン111は、上側面のスイッチ42Tと下側面のスイッチ42Bを同時に押すことによって撮影を行うことができることを表す。なお、カメラモードが設定される前の基本ビューモード時に領域21の右側に表示されていた図9のリアクションアイコン112は、カメラモードが設定されたときに消える。
 上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押され、撮影が行われた場合、撮影によって得られた画像は、同期画像として、携帯機器1の内部のメモリに記憶されるとともに携帯機器101に送信される。携帯機器101においては、携帯機器1から送信されてきた画像が受信され、基本ビューモードが設定されている場合、携帯機器1のユーザにより撮影された画像が表示される。
[セレクトモード]
 図12は、セレクトモード時のディスプレイ11の表示例を示す図である。
 セレクトモードは、基本ビューモードが設定されている場合において、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されたことが検出されたときに設定される。ユーザは、スタンバイモード時、左側面と右側面を挟んで筐体を持つことによって基本ビューモードに遷移させ、その状態から左側面と右側面を同時に押すことによってセレクトモードに遷移させることができる。左側面のスイッチ42Lと右側面のスイッチ42Rを同時に押すのではなく、片方を押すことでセレクトモードが設定されるようにしてもよい。
 セレクトモードが設定されたとき、ディスプレイ11の領域21には、カメラ32により撮影された画像と携帯機器101から送信されてきた画像のうちの所定の画像がメモリから読み出され、表示される。領域21の左右にはメモリから読み出された他の画像の一部が表示される。
 領域21の上側にはセレクトアイコン121が表示される。図12のセレクトアイコン121は、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体を左または右に傾けることによって、領域21の画像を切り替えることができることを表す。なお、セレクトモードが設定される前の基本ビューモード時に領域21の下側に表示されていた図10のリアクションアイコン122は、セレクトモードが設定されることに応じて消える。
 左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられた場合、傾けられた方向に応じて、領域21の画像が他の画像に切り替えられる。
 図13は、画像の切り替えの例を示す図である。
 ここでは、図13の中央に示すように、領域21に画像P2が表示され、領域21の左側に画像P1の右側の一部が表示され、領域21の右側に画像P3の左側の一部が表示されている状態を基準の状態として説明する。画像P1と画像P3は透過領域である領域22に表示される画像であるから、領域21に表示されている画像P1より薄く見えることになる。画像P1~P3は、携帯機器1により撮影され、メモリに記憶された画像、または、携帯機器101から送信され、受信された後にメモリ記憶された画像である。画像P1~P3の並び順は例えば撮影順である。
 基準の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が左に傾けられた場合、白抜き矢印A51の先に示すように、領域21には、画像P2の左隣の画像である画像P1が表示される。また、領域21の表示が切り替えられることに連動して他の画像の位置も移動する。領域21に表示された画像P1の左側には、撮影順で画像P1の1つ前の画像である画像P0の右側の一部が表示され、画像P1の右側には、画像P2の左側の一部が表示される。
 図13の左側の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が右に傾けられた場合、白抜き矢印A52の先に示すように、ディスプレイ11の表示は基準の状態に戻る。
 反対に、基準の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が右に傾けられた場合、白抜き矢印A53の先に示すように、領域21には、画像P2の右隣の画像である画像P3が表示される。また、領域21に表示された画像P3の左側には、画像P2の右側の一部が表示され、画像P3の右側には、撮影順で画像P3の1つ後の画像である画像P4の左側の一部が表示される。
 図13の右側の状態において、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が左に傾けられた場合、白抜き矢印A54の先に示すように、ディスプレイ11の表示は基準の状態に戻る。
 このように、セレクトモード時、ユーザは、領域21の表示を順次切り替え、相手との画像のやりとりを振り返ることができる。また、画像の一部が領域22に表示されることによって、ユーザは、領域21に表示されている画像以外の画像の存在を直感的に認識することができる。
 例えば左側面のスイッチ42Lと右側面のスイッチ42Rを押した状態が解除されたとき、そのとき領域21に表示されている画像が同期画像として選択され、ファイル名などの、選択された画像の識別情報が携帯機器101に送信される。画像の選択の仕方は、左側面のスイッチ42Lと右側面のスイッチ42Rから指を離す操作に限られるものではなく、他の操作であってもよい。
 携帯機器101においては、携帯機器1から送信されてきたファイル名が受信され、基本ビューモードが設定されている場合、受信したファイル名により識別される画像がメモリから読み出され、表示される。携帯機器1のユーザにより選択された画像は、携帯機器1のユーザにより撮影された画像か携帯機器101のユーザにより撮影された画像であるから、携帯機器101のメモリにも、携帯機器1のユーザにより選択された画像と同じ画像が記憶されている。
 携帯機器1のユーザは、セレクトモードを用いて画像を選択することによって、自分が選択して見ている画像と同じ画像を携帯機器101のユーザにも見せることができる。
[リアクションモード]
 図14は、リアクションモード時のディスプレイ11の表示例を示す図である。
 リアクションモードは、基本ビューモードが設定されている場合において、筐体が所定の方向に振られたことが検出されたときに設定される。リアクションモード時の領域21の表示は基本ビューモード時の表示のままである。領域21には、例えばスタンバイモード時に携帯機器101から送信されてきた同期画像が表示される。
 ユーザが上側面と下側面を挟むように携帯機器1を持っている場合、基本ビューモード時に領域21の左右に表示されていた図9のカメラアイコン111とリアクションアイコン112のうち、リアクションアイコン112のみが表示された状態になる。
 図示は省略するが、ユーザが左側面と右側面を挟むように携帯機器1を持っている場合、基本ビューモード時に領域21の上下に表示されていた図10のセレクトアイコン121とリアクションアイコン122のうち、リアクションアイコン122のみが表示された状態になる。
 図14の状態で筐体が振られた場合、振られた方向に応じて領域21の画像にリアクションが付けられる。また、ユーザにより付けられたリアクションを表すように領域21の画像の状態が変化する。
 図15は、筐体が上下に振られたときの画像の状態の変化、すなわち、上下に振るリアクションが付けられたときの表示の例を示す図である。図15において、斜線を付して示す範囲が画像Pの表示範囲を示す。
 図15の最上段に示すディスプレイ11の状態は、画像Pが領域21に表示されている状態である。この状態において筐体が上下に振られたことが検出された場合、矢印A11~A14の先に示すように、画像Pは、ディスプレイ11の上側、中央(領域21の位置)、下側、中央といったように上下に位置を変えて表示される。このような表示が所定の時間続けられる。
 図16は、筐体が左右に振られたときの画像の状態の変化、すなわち、左右に振るリアクションが付けられたときの表示の例を示す図である。図16の表示は、ユーザが左側面と右側面を挟むように携帯機器1を持っている状態でリアクションモードが設定されたときに行われる。
 図16の左端に示すディスプレイ11の状態は、画像Pが領域21に表示されている状態である。この状態において筐体が左右に振られたことが検出された場合、矢印A31~A34の先に示すように、画像Pは、ディスプレイ11の左側、中央、右側、中央といったように左右に位置を変えて表示される。このような表示が所定の時間続けられる。
 リアクションモード時に画像に付けることができるリアクションは、図15と図16に示したような表示位置を変えるリアクションに限られない。例えば、振った方向に応じて画像を伸縮して表示させるリアクションであってもよいし、拡大縮小して表示させるリアクションであってもよい。
 リアクションモード時にリアクションが付けられた場合、このようにして画像の状態を変化させて表示する処理が行われるとともに、リアクションが付けられた画像のファイル名とリアクション情報が携帯機器101に送信される。リアクション情報には、筐体が振られた方向を表す情報や振られた時間を表す情報などの、ユーザが画像に付けたリアクションの内容を表す情報が含まれる。
 携帯機器101においては、携帯機器1から送信されてきたファイル名とリアクション情報が受信され、基本ビューモードが設定されている場合、ファイル名により識別される画像がメモリから読み出され、表示される。また、ディスプレイ11に表示させた画像の状態を、携帯機器1から送信されてきたリアクション情報に応じて変化させる処理が行われる。携帯機器101においても、携帯機器1において表示されていた画像と同じ画像が、同じように状態を変化させて表示されることになる。
 これにより、携帯機器1のユーザは、相手から送信されてきた画像に対してリアクションを付けて返すことができる。また、携帯機器101のユーザは、自分が送った画像に対する携帯機器1のユーザのリアクションを確認することができる。携帯機器1のユーザと携帯機器101のユーザは、リアクションを通じてコミュニケーションをとることができることになる。
[動作モードの遷移]
 図17は、以上のような動作モードの一連の遷移を示す図である。
 図17の左端に示すようにスタンバイモード時に筐体が触られた場合、矢印A51の先に示すように、携帯機器1の動作モードは基本ビューモードに遷移する。ディスプレイ11には、スタンバイモード時に携帯機器101から送信されてきた画像などの同期画像が表示される。
 基本ビューモード時にユーザが筐体から手を離した場合、矢印A52の先に示すように、携帯機器1の動作モードはスタンバイモードに遷移する。
 矢印A53の先に斜線を付して示すように、ユーザが上側面と下側面を挟むように携帯機器1を持っており、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押された場合、矢印A54の先に示すように、携帯機器1の動作モードはカメラモードに遷移する。
 カメラモード時に上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押された場合、矢印A55の先に示すように撮影が行われ、矢印A56の先に示すように、撮影によって得られた画像の同期が行われる。撮影によって得られた画像が携帯機器101に送信され、例えばスタンバイモードの状態にある携帯機器101により受信される。
 携帯機器101のユーザが携帯機器101の筐体を触った場合、携帯機器101の動作モードは矢印A57の先に示すように基本ビューモードに遷移する。携帯機器101のディスプレイ11には、携帯機器1のユーザにより撮影され、携帯機器1から送信されてきた画像が表示される。携帯機器101においても同じ画像が表示されるから、カメラモード時に携帯機器1により撮影された画像は同期画像となる。
 一方、矢印A58の先に斜線を付して示すように、ユーザが左側面と右側面を挟むように携帯機器1を持っており、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押された場合、矢印A59の先に示すように、携帯機器1の動作モードはセレクトモードに遷移する。
 セレクトモード時に左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられた場合、矢印A60の先に示すように表示画像の切り替えが行われる。
 所定の画像が選択されたとき、矢印A61の先に示すように、選択された画像の同期が行われる。携帯機器1のユーザにより選択された画像のファイル名が携帯機器101に送信され、例えばスタンバイモードの状態にある携帯機器101により受信される。
 携帯機器101のユーザが携帯機器101の筐体を触った場合、携帯機器101の動作モードは矢印A62の先に示すように基本ビューモードに遷移する。携帯機器101のディスプレイ11には、ファイル名に基づいて識別された、携帯機器1のユーザにより選択された画像と同じ画像が表示される。携帯機器101においても同じ画像が表示されるから、セレクトモード時に携帯機器1のユーザにより選択された画像は同期画像となる。
 矢印A53の先に示すようにユーザが上側面と下側面を挟むように携帯機器1を持っており、その状態で筐体が振られた場合、矢印A63の先に示すように、携帯機器1の動作モードは基本ビューモードからリアクションモードに遷移する。
 また、矢印A58の先に示すようにユーザが左側面と右側面を挟むように携帯機器1を持っており、その状態で筐体が振られた場合、矢印A64の先に示すように、携帯機器1の動作モードは基本ビューモードからリアクションモードに遷移する。
 リアクションモード時に筐体を上下または左右に振ることによってリアクションが付けられた場合、矢印A66の先に示すように同期が行われる。リアクションが付けられた画像のファイル名とリアクション情報が携帯機器101に送信され、例えばスタンバイモードの状態にある携帯機器101により受信される。
 携帯機器101のユーザが携帯機器101の筐体を触った場合、携帯機器101の動作モードは矢印A67の先に示すように基本ビューモードに遷移する。携帯機器101のディスプレイ11には、ファイル名に基づいて識別された、携帯機器1のユーザがリアクションを付けた画像と同じ画像が、リアクション情報に応じて状態を変化させるように表示される。携帯機器101においても同じ画像が表示されるから、リアクションモード時に携帯機器1のユーザによりリアクションが付けられた画像は同期画像となる。
 以上のようにして動作モードを遷移させ、ユーザの操作に応じて処理を行う携帯機器1の動作についてはフローチャートを参照して後述する。
<携帯機器の構成例>
 図18は、携帯機器1のハードウェア構成例を示すブロック図である。
 携帯機器1は、上述したディスプレイ11、カメラ32、タッチセンサ41、スイッチ42の他に、制御部151、加速度センサ152、メモリ153、および通信部154から構成される。
 制御部151は、所定のプログラムを実行し、携帯機器1の全体の動作を制御する。例えば制御部151は、タッチセンサ41、スイッチ42、加速度センサ152から供給された信号に基づいてユーザの操作を検出し、検出した操作に応じた動作モードを設定して各種の処理を行う。
 加速度センサ152は、携帯機器1の筐体に生じた加速度を検出し、検出結果を制御部151に出力する。
 メモリ153はフラッシュメモリなどよりなり、制御部151から供給された画像を記憶する。メモリ153には、カメラ32により撮影された画像と、携帯機器101から送信され、通信部154により受信された画像が記憶される。メモリ153に記憶された画像は制御部151により適宜読み出される。
 通信部154は、制御部151の制御に従って管理サーバ103と通信を行い、カメラ32により撮影され、制御部151から供給された画像を管理サーバ103に送信する。また、通信部154は、管理サーバ103から送信されてきた画像を受信し、制御部151に出力する。
 図19は、制御部151の機能構成例を示すブロック図である。
 図19に示す機能部のうちの少なくとも一部は、図18の制御部151により所定のプログラムが実行されることによって実現される。制御部151においては、操作検出部161、変位検出部162、モード管理部163、画像管理部164、および表示制御部165が実現される。
 操作検出部161は、4つの側面にそれぞれ設けられたタッチセンサ41とスイッチ42からの出力に基づいて、ユーザが筐体の側面に触れていることと、ユーザによるスイッチ42の押下操作を検出する。操作検出部161は、検出したユーザの操作の内容を表す情報をモード管理部163、画像管理部164、および表示制御部165に出力する。
 変位検出部162は、加速度センサ152により検出された加速度に基づいて、携帯機器1の筐体の向きと、筐体に加えられた変位を検出する。例えば、筐体が振られた方向、大きさなどが変位検出部162により検出される。変位検出部162は、筐体の向きを表す情報と筐体に加えられた変位を表す情報をモード管理部163、画像管理部164、および表示制御部165に出力する。
 モード管理部163は、操作検出部161により検出されたユーザの操作と、変位検出部162により検出された筐体の向きと筐体に加えられた変位に基づいて、図17を参照して説明したようにして動作モードを遷移させる。モード管理部163は、設定中の動作モードが、スタンバイモード、基本ビューモード、カメラモード、セレクトモード、リアクションモードのうちのいずれのモードであるのかを表す情報を画像管理部164と表示制御部165に出力する。
 画像管理部164は、操作検出部161により検出されたユーザの操作と、変位検出部162により検出された筐体の向き、筐体に加えられた変位に基づいて、カメラ32、メモリ153、および通信部154を制御する。
 例えば、画像管理部164は、モード管理部163によりカメラモードが設定されている場合、カメラ32により取り込まれた画像を表示制御部165に出力し、ディスプレイ11に表示させる。また、画像管理部164は、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押された場合、そのときカメラ32により取り込まれた画像をメモリ153に記憶させるとともに、通信部154を制御して携帯機器101に送信する。
 画像管理部164は、モード管理部163によりセレクトモードが設定されている場合、通信部154を制御し、ユーザにより選択された画像のファイル名を携帯機器101に送信する。
 画像管理部164は、モード管理部163によりリアクションモードが設定されている場合、通信部154を制御し、リアクションが付けられた画像のファイル名とリアクション情報を携帯機器101に送信する。
 画像管理部164は、スタンバイモード時、携帯機器101から送信されてきた画像を通信部154を制御して受信し、メモリ153に記憶させる。
 表示制御部165は、操作検出部161により検出されたユーザの操作と、変位検出部162により検出された筐体の向き、筐体に加えられた変位に基づいて、ディスプレイ11の表示を制御する。
 例えば、表示制御部165は、モード管理部163によりカメラモードが設定されている場合、カメラ32により取り込まれ、画像管理部164から供給された画像をディスプレイ11に表示させる。
 表示制御部165は、モード管理部163によりセレクトモードが設定されている場合、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられる毎に、図13を参照して説明したようにしてディスプレイ11の表示を切り替える。
 表示制御部165は、モード管理部163によりリアクションモードが設定されている場合、筐体が振られることに応じて、ディスプレイ11に表示させている画像の状態を図15および図16を参照して説明したようにして変化させる。
<携帯機器の動作>
 ここで、以上のような構成を有する携帯機器1の動作について説明する。同じ処理が、携帯機器101においても行われる。
[全体の動作]
 はじめに、図20のフローチャートを参照して、ユーザの操作に応じて動作モードを設定し、各動作モードの処理を行う携帯機器1の処理について説明する。図20の処理は、例えばスタンバイモードが設定されているときに開始される。
 ステップS1において、操作検出部161は、携帯機器1の筐体が触られたか否かをタッチセンサ41による検出結果に基づいて判定し、触られたと判定するまで待機する。
 筐体が触られたとステップS1において判定された場合、ステップS2において、モード管理部163は、携帯機器1の動作モードを基本ビューモードに遷移させる。携帯機器1の筐体が触られた場合、そのことを表す情報が操作検出部161からモード管理部163に供給される。
 ステップS3において、表示制御部165は、最後に同期画像として選択された画像をディスプレイ11に表示させる。例えば、スタンバイモード時に携帯機器101において撮影され、携帯機器101から送信されてきた画像がメモリ153に記憶されている場合、その画像がメモリ153から読み出され、同期画像として表示される。
 ステップS4において、操作検出部161は、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたか否かを判定する。
 上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたとステップS4において判定された場合、ステップS5において、モード管理部163は、携帯機器1の動作モードをカメラモードに遷移させる。
 ステップS6において、カメラモード時の処理が各部により行われる。ステップS6において行われるカメラモード時の処理については図21のフローチャートを参照して後述する。
 一方、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されていないとステップS4において判定した場合、ステップS7において、モード管理部163は、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されたか否かを判定する。
 左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されたとステップS7において判定された場合、ステップS8において、モード管理部163は、携帯機器1の動作モードをセレクトモードに遷移させる。
 ステップS9において、セレクトモード時の処理が各部により行われる。ステップS9において行われるセレクトモード時の処理については図22のフローチャートを参照して後述する。
 一方、左側面のスイッチ42Lと右側面のスイッチ42Rが同時に押されていないとステップS7において判定した場合、ステップS10において、モード管理部163は、携帯機器1の筐体が振られたか否かを加速度センサ152による検出結果に基づいて判定する。
 携帯機器1の筐体が振られたとステップS10において判定した場合、ステップS11において、モード管理部163は、携帯機器1の動作モードをリアクションモードに遷移させる。
 ステップS12において、リアクションモード時の処理が各部により行われる。ステップS12において行われるリアクションモード時の処理については図23のフローチャートを参照して後述する。
 ステップS10において携帯機器1の筐体が振られていないと判定された場合、ステップS3に戻り、以上の処理が繰り返される。ステップS6においてカメラモード時の処理が行われた後、ステップS9においてセレクトモード時の処理が行われた後、ステップS12においてリアクションモード時の処理が行われた後も同様に、ステップS3以降の処理が行われる。
[カメラモード時の処理]
 次に、図21のフローチャートを参照して、図20のステップS6において行われるカメラモード時の処理について説明する。
 ステップS21において、表示制御部165は、カメラ32により取り込まれ、画像管理部164から供給された画像をディスプレイ11に表示させる。
 ステップS22において、画像管理部164は、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたか否かを判定する。上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されていないとステップS22において判定された場合、ステップS21に戻り、取り込み画像の表示が続けられる。
 一方、上側面のスイッチ42Tと下側面のスイッチ42Bが同時に押されたとステップS22において判定した場合、ステップS23において、画像管理部164は、カメラ32に撮影を行わせる。
 ステップS24において、画像管理部164は、撮影によって得られた画像を同期画像としてメモリ153に記憶させる。
 ステップS25において、画像管理部164は、通信部154を制御し、撮影によって得られた画像を携帯機器101に送信する。その後、図20のステップS6に戻り、それ以降の処理が行われる。
 以上の処理により、携帯機器1のユーザは、カメラ32によって撮影した画像を、撮影を行う毎に、アップロードの操作などを行うことなく自動的に携帯機器101に送信することができる。
[セレクトモード時の処理]
 次に、図22のフローチャートを参照して、図20のステップS9において行われるセレクトモード時の処理について説明する。
 ステップS41において、表示制御部165は、メモリ153から画像を読み出し、図12に示すようにして並べて表示させる。
 ステップS42において、表示制御部165は、左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられたか否かを判定し、筐体が傾けられたと判定するまで待機する。
 左側面のスイッチ42Lと右側面のスイッチ42Rを押したまま筐体が傾けられたとステップS42において判定した場合、ステップS43において、表示制御部165は、図13を参照して説明したようにして画像の表示を切り替える。これにより、複数の画像が連動して位置をずらして表示される。
 ステップS44において、画像管理部164は画像が選択されたか否かを判定する。画像が選択されていないとステップS44において判定された場合、ステップS42に戻り、それ以降の処理が繰り返される。
 一方、左側面のスイッチ42Lと右側面のスイッチ42Rから指を離すなどして画像が選択されたとステップS44において判定した場合、ステップS45において、画像管理部164は、選択された画像のファイル名を携帯機器101に送信する。その後、図20のステップS9に戻り、それ以降の処理が行われる。
 以上の処理により、携帯機器1のユーザは、相手とやりとりしていた画像の中から所定の画像を見つけて選択するだけで、その画像のファイル名を自動的に携帯機器101に送信することができる。
[リアクションモード時の処理]
 次に、図23のフローチャートを参照して、図20のステップS12において行われるリアクションモード時の処理について説明する。
 ステップS31において、表示制御部165は、リアクションを付けるために筐体が振られることに応じて、ディスプレイ11の画像の状態を変化させる。リアクションの入力は、数秒などの所定の時間だけ行うことが可能とされる。
 ステップS32において、画像管理部164は、リアクション情報とリアクションが付けられた画像のファイル名を携帯機器101に送信する。その後、図20のステップS12に戻り、それ以降の処理が行われる。
 以上の処理により、携帯機器1のユーザは、相手から送信されてきた画像に対してリアクションを付け、リアクションの情報を自動的に携帯機器101に送信することができる。
[受信時の処理]
 次に、図24のフローチャートを参照して、携帯機器101から送信されてきた情報を受信する携帯機器1の処理について説明する。
 ステップS51において、画像管理部164は、カメラモード時に撮影された画像が携帯機器101から送信されてきたか否かを判定する。
 携帯機器101から画像が送信されてきたとステップS51において判定した場合、ステップS52において、画像管理部164は、携帯機器101から送信されてきた画像を受信する。受信された画像はメモリ153に供給され、記憶される。
 その後、図20の処理が行われ、ステップS2において基本ビューモードが設定された場合、表示制御部165は、携帯機器101から送信されてきた画像を同期画像としてディスプレイ11に表示させる。この同期画像の表示がステップS3において行われる。
 一方、携帯機器101から画像が送信されてきていないとステップS51において判定した場合、ステップS53において、画像管理部164は、セレクトモード時に選択された画像のファイル名が携帯機器101から送信されてきたか否かを判定する。
 画像のファイル名が送信されてきたとステップS53において判定した場合、ステップS54において、画像管理部164は、携帯機器101から送信されてきた画像のファイル名を受信する。受信されたファイル名はメモリ153に供給され、記憶される。
 その後、図20の処理が行われ、ステップS2において基本ビューモードが設定された場合、表示制御部165は、携帯機器101から送信されてきたファイル名により識別される画像をメモリ153から読み出し、同期画像としてディスプレイ11に表示させる。この同期画像の表示がステップS3において行われる。
 一方、画像のファイル名が送信されてきていないとステップS53において判定した場合、ステップS55において、画像管理部164は、リアクションモード時に画像に付けられたリアクションを表すリアクション情報とリアクションが付けられた画像のファイル名が携帯機器101から送信されてきたか否かを判定する。
 リアクション情報と画像のファイル名が送信されてきたとステップS55において判定した場合、ステップS56において、画像管理部164は、リアクション情報と画像のファイル名を受信する。受信されたリアクション情報とファイル名はメモリ153に供給され、紐付けて記憶される。
 その後、図20の処理が行われ、ステップS2において基本ビューモードが設定された場合、表示制御部165は、携帯機器101から送信されてきたファイル名により識別される画像を、同期画像として、リアクション情報により表されるリアクションを付けた形でディスプレイ11に表示させる。この同期画像の表示がステップS3において行われる。
 ステップS52,S54,S56において携帯機器101から送信されてきた情報が受信された後、または、ステップS55においてリアクション情報と画像のファイル名が送信されてきていないと判定された場合、ステップS51に戻り、以上の処理が繰り返される。
 以上の一連の処理により、携帯機器1のユーザと携帯機器101のユーザは、画像を通してコミュニケーションを図ることができる。
<変形例>
 携帯機器1と携帯機器101の間のやりとりが、携帯機器1と携帯機器101を対応付けて管理する管理サーバ103を介して行われるものとしたが、双方の機器の間で直接行われるようにしてもよい。この場合、携帯機器1には、自身に対応付けられている機器が携帯機器101であることを表す情報が登録され、携帯機器101には、自身に対応付けられている機器が携帯機器1であることを表す情報が登録される。機器の対応付けが、一方の携帯機器に他方の携帯機器の識別情報を入力するなどしてユーザにより行われるようにしてもよい。
 また、以上においては、2つの携帯機器の間で画像を同期させる場合について説明したが、3つ以上の携帯機器の間で画像を同期させるようにしてもよい。
 さらに、上述したような画像の同期が、図1等を参照して説明したような外観を有する携帯機器により行われるものとしたが、スマートフォンなどの携帯端末により行われるようにしてもよい。この場合、画像の同期を実現するためのアプリケーションが携帯端末にインストールされ、携帯端末の対応付けが行われた後、上述したような画像の同期が行われる。
 以上においては、上側面のスイッチ42Tと下側面のスイッチ42Bが押されたときにカメラモードが設定されるものとしたが、左側面のスイッチ42Lと右側面のスイッチ42Rが押されたときにカメラモードが設定されるようにしてもよい。また、左側面のスイッチ42Lと右側面のスイッチ42Rが押されたときにセレクトモードが設定されるものとしたが、上側面のスイッチ42Tと下側面のスイッチ42Bが押されたときにセレクトモードが設定されるようにしてもよい。
[コンピュータの構成例]
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続される。また、入出力インタフェース205には、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、リムーバブルメディア211を駆動するドライブ210が接続される。
 以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205及びバス204を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。
 CPU201が実行するプログラムは、例えばリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部208にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
[構成の組み合わせ例]
 本技術は、以下のような構成をとることもできる。
(1)
 撮影部と、
 前記撮影部による撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信する通信部と、
 前記他の携帯機器から送信され、前記通信部により受信された前記画像を表示する表示部と
 を備える携帯機器。
(2)
 前記撮影部による撮影によって得られた前記画像と前記通信部により受信された前記画像を記憶する記憶部と、
 前記記憶部に記憶された前記画像の中から所定の画像を選択し、前記表示部に表示させる表示制御部と
 をさらに備える前記(1)に記載の携帯機器。
(3)
 前記表示部は前記携帯機器の筐体の正面に設けられ、
 前記撮影部は前記筐体の背面に設けられ、
 前記筐体の上下の側面と左右の側面のうちのいずれの対向する側面にユーザが触れているのかと、対向する側面に対する前記ユーザの押下操作を検出する検出部をさらに備える
 前記(2)に記載の携帯機器。
(4)
 前記表示制御部は、前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記画像を表示させる
 前記(3)に記載の携帯機器。
(5)
 前記撮影部は、上下の側面と左右の側面のうちの一方の側面に前記ユーザが触れたことが検出された場合、前記一方の側面に対する押下操作が行われたことに応じて撮影を行う
 前記(4)に記載の携帯機器。
(6)
 前記筐体に加えられた位置の変化を検出する変位検出部をさらに備える
 前記(5)に記載の携帯機器。
(7)
 前記表示制御部は、他方の側面に前記ユーザが触れたことが検出された場合、前記他方の側面に対する押下操作が行われているときに前記位置の変化が検出されたことに応じて、前記表示部に表示させる前記画像を切り替える
 前記(6)に記載の携帯機器。
(8)
 前記通信部は、切り替えて表示された前記画像の識別情報を前記他の携帯機器に送信し、
 前記他の携帯機器においては、前記識別情報により識別される前記画像が表示される
 前記(7)に記載の携帯機器。
(9)
 前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
 前記表示制御部は、前記表示部の表示領域全体のうち、背面側に遮光部材が設けられる領域に1枚の前記画像を表示させ、背面側に前記遮光部材が設けられていない領域に他の前記画像の一部を表示させる
 前記(7)または(8)に記載の携帯機器。
(10)
 前記表示制御部は、前記一方の側面または前記他方の側面に前記ユーザが触れたことが検出された場合、前記位置の変化が検出されたことに応じて、前記表示部に表示させている前記画像の状態を変化させる
 前記(6)乃至(9)のいずれかに記載の携帯機器。
(11)
 前記通信部は、前記表示部に表示されている前記画像の識別情報と、検出された前記位置の変化に関する情報を前記他の携帯機器に送信し、
 前記他の携帯機器においては、前記識別情報により識別される前記画像が表示され、前記位置の変化に関する情報に応じて状態を変化させる処理が行われる
 前記(10)に記載の携帯機器。
(12)
 前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
 前記表示制御部は、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に表示させている1枚の前記画像の表示位置を、前記表示領域の範囲内で移動させる
 前記(10)または(11)に記載の携帯機器。
(13)
 前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
 前記表示制御部は、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に1枚の前記画像を表示させ、背面側に前記遮光部材が設けられていない領域にアイコンを表示させる
 前記(3)乃至(12)のいずれかに記載の携帯機器。
(14)
 前記通信部は、前記携帯機器と前記他の携帯機器の双方とネットワークを介して接続され、前記携帯機器と前記他の携帯機器とを対応付けて管理する管理装置を介して、撮影によって得られた前記画像を前記他の携帯機器に送信し、前記他の機器から送信されてきた前記画像を受信する
 前記(1)乃至(13)のいずれかに記載の携帯機器。
(15)
 撮影し、
 撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信し、
 前記他の携帯機器から送信され、受信した前記画像を表示する
 ステップを含む携帯機器の情報処理方法。
(16)
 撮影し、
 撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信し、
 前記他の携帯機器から送信され、受信した前記画像を表示する
 ステップを含む処理を携帯機器のコンピュータに実行させるプログラム。
 1,101 携帯機器, 11 ディスプレイ, 12 フレーム, 32 カメラ, 41T,41B,41L,41R タッチセンサ, 42T,42B,42L,42R スイッチ, 151 制御部, 152 加速度センサ, 153 メモリ, 154 通信部, 161 操作検出部, 162 変位検出部, 163 モード管理部, 164 画像管理部, 165 表示制御部

Claims (16)

  1.  撮影部と、
     前記撮影部による撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信する通信部と、
     前記他の携帯機器から送信され、前記通信部により受信された前記画像を表示する表示部と
     を備える携帯機器。
  2.  前記撮影部による撮影によって得られた前記画像と前記通信部により受信された前記画像を記憶する記憶部と、
     前記記憶部に記憶された前記画像の中から所定の画像を選択し、前記表示部に表示させる表示制御部と
     をさらに備える請求項1に記載の携帯機器。
  3.  前記表示部は前記携帯機器の筐体の正面に設けられ、
     前記撮影部は前記筐体の背面に設けられ、
     前記筐体の上下の側面と左右の側面のうちのいずれの対向する側面にユーザが触れているのかと、対向する側面に対する前記ユーザの押下操作を検出する検出部をさらに備える
     請求項2に記載の携帯機器。
  4.  前記表示制御部は、前記筐体の側面に前記ユーザが触れたことが検出されたことに応じて、前記通信部により最後に受信された前記画像を表示させる
     請求項3に記載の携帯機器。
  5.  前記撮影部は、上下の側面と左右の側面のうちの一方の側面に前記ユーザが触れたことが検出された場合、前記一方の側面に対する押下操作が行われたことに応じて撮影を行う
     請求項4に記載の携帯機器。
  6.  前記筐体に加えられた位置の変化を検出する変位検出部をさらに備える
     請求項5に記載の携帯機器。
  7.  前記表示制御部は、他方の側面に前記ユーザが触れたことが検出された場合、前記他方の側面に対する押下操作が行われているときに前記位置の変化が検出されたことに応じて、前記表示部に表示させる前記画像を切り替える
     請求項6に記載の携帯機器。
  8.  前記通信部は、切り替えて表示された前記画像の識別情報を前記他の携帯機器に送信し、
     前記他の携帯機器においては、前記識別情報により識別される前記画像が表示される
     請求項7に記載の携帯機器。
  9.  前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
     前記表示制御部は、前記表示部の表示領域全体のうち、背面側に遮光部材が設けられる領域に1枚の前記画像を表示させ、背面側に前記遮光部材が設けられていない領域に他の前記画像の一部を表示させる
     請求項7に記載の携帯機器。
  10.  前記表示制御部は、前記一方の側面または前記他方の側面に前記ユーザが触れたことが検出された場合、前記位置の変化が検出されたことに応じて、前記表示部に表示させている前記画像の状態を変化させる
     請求項6に記載の携帯機器。
  11.  前記通信部は、前記表示部に表示されている前記画像の識別情報と、検出された前記位置の変化に関する情報を前記他の携帯機器に送信し、
     前記他の携帯機器においては、前記識別情報により識別される前記画像が表示され、前記位置の変化に関する情報に応じて状態を変化させる処理が行われる
     請求項10に記載の携帯機器。
  12.  前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
     前記表示制御部は、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に表示させている1枚の前記画像の表示位置を、前記表示領域の範囲内で移動させる
     請求項10に記載の携帯機器。
  13.  前記表示部は、自発光型であり、かつ透過型のディスプレイにより構成され、
     前記表示制御部は、前記表示部の表示領域全体のうちの背面側に遮光部材が設けられている領域に1枚の前記画像を表示させ、背面側に前記遮光部材が設けられていない領域にアイコンを表示させる
     請求項3に記載の携帯機器。
  14.  前記通信部は、前記携帯機器と前記他の携帯機器の双方とネットワークを介して接続され、前記携帯機器と前記他の携帯機器とを対応付けて管理する管理装置を介して、撮影によって得られた前記画像を前記他の携帯機器に送信し、前記他の機器から送信されてきた前記画像を受信する
     請求項1に記載の携帯機器。
  15.  撮影し、
     撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信し、
     前記他の携帯機器から送信され、受信した前記画像を表示する
     ステップを含む携帯機器の情報処理方法。
  16.  撮影し、
     撮影によって得られた画像を携帯機器自身と対応付けて管理されている他の携帯機器に撮影が行われる毎に送信するとともに、前記他の携帯機器において撮影が行われる毎に前記他の携帯機器から送信されてきた前記画像を受信し、
     前記他の携帯機器から送信され、受信した前記画像を表示する
     ステップを含む処理を携帯機器のコンピュータに実行させるプログラム。
PCT/JP2012/081754 2011-12-19 2012-12-07 携帯機器、情報処理方法、およびプログラム WO2013094429A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280061153.6A CN104160691B (zh) 2011-12-19 2012-12-07 便携式设备,信息处理方法和程序
US14/356,277 US9350912B2 (en) 2011-12-19 2012-12-07 Portable device, information processing method, and program
EP12860989.8A EP2797306B1 (en) 2011-12-19 2012-12-07 Portable device, information processing method, and program
US15/134,754 US9998649B2 (en) 2011-12-19 2016-04-21 Portable device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011276679A JP5845875B2 (ja) 2011-12-19 2011-12-19 携帯機器、情報処理方法、およびプログラム
JP2011-276679 2011-12-19

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/356,277 A-371-Of-International US9350912B2 (en) 2011-12-19 2012-12-07 Portable device, information processing method, and program
US15/134,754 Continuation US9998649B2 (en) 2011-12-19 2016-04-21 Portable device, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2013094429A1 true WO2013094429A1 (ja) 2013-06-27

Family

ID=48668325

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/081754 WO2013094429A1 (ja) 2011-12-19 2012-12-07 携帯機器、情報処理方法、およびプログラム

Country Status (6)

Country Link
US (2) US9350912B2 (ja)
EP (1) EP2797306B1 (ja)
JP (1) JP5845875B2 (ja)
CN (1) CN104160691B (ja)
TW (1) TW201342902A (ja)
WO (1) WO2013094429A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5845875B2 (ja) * 2011-12-19 2016-01-20 ソニー株式会社 携帯機器、情報処理方法、およびプログラム
US10291847B2 (en) 2015-02-26 2019-05-14 Htc Corporation Portable device and manipulation method
JP2018067885A (ja) * 2016-10-21 2018-04-26 ソニー株式会社 撮像装置、および撮像方法、並びにプログラム
CN111867478A (zh) * 2018-02-16 2020-10-30 皇家飞利浦有限公司 手持式医学超声成像设备中的人体工程学显示和激活

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179857A (ja) * 2001-12-12 2003-06-27 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2009504098A (ja) 2005-08-01 2009-01-29 ザ ビデオ ワークス, インコーポレイテッド 2−パートのカメラシステム
JP2009094574A (ja) * 2007-10-03 2009-04-30 Sony Corp 撮像装置、画像データの交換方法およびプログラム
JP2009111581A (ja) * 2007-10-29 2009-05-21 Fujifilm Corp 表示装置、表示方法及び撮影装置
WO2010007813A1 (ja) * 2008-07-16 2010-01-21 株式会社ソニー・コンピュータエンタテインメント 携帯型画像表示装置、その制御方法及び情報記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4099973B2 (ja) * 2001-10-30 2008-06-11 松下電器産業株式会社 映像データ送信方法及び映像データ受信方法、並びに映像監視システム
US20030107654A1 (en) 2001-12-12 2003-06-12 Nikon Corporation Digital camera
WO2008106685A1 (en) * 2007-03-01 2008-09-04 Intellectual Solutions, Inc. Key chain display device
WO2009089393A1 (en) * 2008-01-10 2009-07-16 Aria Enterprises, Inc. Customizable modular multi-function communication device
JP5020135B2 (ja) * 2008-03-19 2012-09-05 ソニーモバイルコミュニケーションズ, エービー 携帯端末装置およびコンピュータプログラム
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
JP5845875B2 (ja) * 2011-12-19 2016-01-20 ソニー株式会社 携帯機器、情報処理方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179857A (ja) * 2001-12-12 2003-06-27 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2009504098A (ja) 2005-08-01 2009-01-29 ザ ビデオ ワークス, インコーポレイテッド 2−パートのカメラシステム
JP2009094574A (ja) * 2007-10-03 2009-04-30 Sony Corp 撮像装置、画像データの交換方法およびプログラム
JP2009111581A (ja) * 2007-10-29 2009-05-21 Fujifilm Corp 表示装置、表示方法及び撮影装置
WO2010007813A1 (ja) * 2008-07-16 2010-01-21 株式会社ソニー・コンピュータエンタテインメント 携帯型画像表示装置、その制御方法及び情報記憶媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2797306A4

Also Published As

Publication number Publication date
JP5845875B2 (ja) 2016-01-20
US9998649B2 (en) 2018-06-12
US20160234421A1 (en) 2016-08-11
US9350912B2 (en) 2016-05-24
EP2797306A1 (en) 2014-10-29
EP2797306B1 (en) 2020-08-19
CN104160691A (zh) 2014-11-19
TW201342902A (zh) 2013-10-16
EP2797306A4 (en) 2015-08-05
CN104160691B (zh) 2017-09-26
US20140307115A1 (en) 2014-10-16
JP2013128195A (ja) 2013-06-27

Similar Documents

Publication Publication Date Title
US11846877B2 (en) Method and terminal for acquiring panoramic image
JP7005646B2 (ja) 撮影方法及び端末
WO2021104236A1 (zh) 一种共享拍摄参数的方法及电子设备
WO2019020052A1 (zh) 拍摄方法及移动终端
US20140362257A1 (en) Apparatus for controlling camera modes and associated methods
KR20170112491A (ko) 이동 단말기 및 그 제어방법
US20170034325A1 (en) Image-based communication method and device
KR20170006559A (ko) 이동단말기 및 그 제어방법
KR20220005087A (ko) 촬영 방법 및 단말
JP6158260B2 (ja) 電子機器、制御プログラム及び電子機器の動作方法
JP5845875B2 (ja) 携帯機器、情報処理方法、およびプログラム
RU2606305C2 (ru) Способ и устройство для совместного использования ресурсов
US10102299B2 (en) File transmission method, file transmission apparatus and file transmission system
JP5125979B2 (ja) 画像表示装置及びプログラム
KR102086348B1 (ko) 이동 단말기 및 그 제어방법
CN116112787A (zh) 拍照时显示缩略图的方法和电子设备
CN109298824A (zh) 一种应用程序的启动方法及终端设备
JP5656107B2 (ja) 入力装置、入力方法及びプログラム
JP2017108468A (ja) 電子機器
KR20050089603A (ko) 이동통신 단말기에서의 동영상 애니메이트 프리뷰 이미지제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12860989

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14356277

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE