WO2014097956A1 - 通信端末、画面表示方法、記録媒体 - Google Patents

通信端末、画面表示方法、記録媒体 Download PDF

Info

Publication number
WO2014097956A1
WO2014097956A1 PCT/JP2013/083307 JP2013083307W WO2014097956A1 WO 2014097956 A1 WO2014097956 A1 WO 2014097956A1 JP 2013083307 W JP2013083307 W JP 2013083307W WO 2014097956 A1 WO2014097956 A1 WO 2014097956A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
communication
data
image data
established
Prior art date
Application number
PCT/JP2013/083307
Other languages
English (en)
French (fr)
Inventor
昌志 多賀谷
小林 茂子
岡田 隆
Original Assignee
株式会社Nttドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Nttドコモ filed Critical 株式会社Nttドコモ
Priority to EP13865755.6A priority Critical patent/EP2919107A4/en
Priority to US14/647,615 priority patent/US20150294645A1/en
Publication of WO2014097956A1 publication Critical patent/WO2014097956A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/22Detection of presence or absence of input display information or of connection or disconnection of a corresponding information source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/64Details of telephonic subscriber devices file transfer between terminals

Definitions

  • the present invention relates to a communication terminal that establishes communication with another terminal and transmits / receives data, a screen display method executed by the communication terminal, and a recording medium.
  • the icon can be selected by pressing the display position of the icon displayed on the touch screen display with a finger. Furthermore, if the pressed finger is moved in contact with the touch screen display, the icon display position can be moved in the moved direction (drag operation). By quickly pressing the display position of the icon displayed on the touch screen display a plurality of times, the file contents corresponding to the icon can be displayed (tap operation).
  • Some of these electronic devices include a plurality of touch screen displays.
  • Patent Document 1 discloses a conventional technique for an electronic device including a plurality of touch screen displays.
  • the electronic device disclosed in Patent Document 1 includes first and second touch screen displays, a detection unit that detects a touch operation indicating a direction with respect to an object displayed on the first touch screen display, and a touch detected by the detection unit.
  • Moving means for moving the display position of the object within an area obtained by combining the first screen area of the first touch screen display and the second screen area of the second touch screen display according to the direction indicated by the operation It comprises.
  • an object displayed on a display can be easily moved by an operation that allows the movement destination to intuitively grasp the object.
  • an object of the present invention is to provide a communication terminal capable of intuitive and highly user-friendly user operations.
  • the communication terminal of the present invention includes a screen capable of displaying image data, an operation accepting unit, a communication establishing unit, a data transmitting unit, a data receiving unit, a relative position detecting unit, a data display area detecting unit, a display And a control unit.
  • Image data for discriminating file contents is referred to as discrimination image data.
  • the operation reception unit receives a user operation.
  • the communication establishment unit establishes communication with another terminal capable of communication.
  • the data transmission unit transmits the discrimination image data that has not been transmitted to the other terminal that has established communication and is being displayed on the own terminal to the other terminal that has established communication.
  • the data receiving unit receives the discrimination image data from another terminal that has established communication.
  • the relative position detection unit acquires a predetermined user operation and detects the relative position of another terminal that has established communication with the own terminal.
  • the data display area detection unit acquires a user operation for the own terminal and another terminal that has established communication, detects the display position movement operation of the discrimination image data being displayed on the own terminal and the other terminal that has established communication, Based on the relative position, a data display area after the movement operation of the discrimination image data is detected.
  • the display control unit discriminates only the area that can be displayed on the screen of the own terminal. The image data is displayed in the data display area after the moving operation.
  • movement order of the communication terminal of Example 1 of this invention The block diagram which shows the structure of the communication terminal of Example 2 of this invention.
  • movement of the communication terminal of Example 2 of this invention The figure which illustrates about the screen display between the terminals from which resolution and screen size differ.
  • movement of the communication terminal of Example 4 of this invention The figure which illustrates the division area set up beforehand.
  • Communication terminal refers to all devices having a screen capable of displaying image data and capable of communicating with other devices.
  • the types of devices indicated by the term communication terminal in this specification include portable terminals, tablet information terminals, PDAs, game machines, personal computers (including both desktop and notebook types), and electronic book terminals.
  • a digital audio player, a television receiver, a digital camera, a digital video camera, a digital photo frame, a facsimile, a copy machine, and the like can be considered.
  • some refrigerators, microwave ovens, and the like have a display screen and a communication function, and these are also included in the communication terminal of the present invention.
  • Communication performed by the communication terminal of the present invention may be communication between different types of devices.
  • the own terminal may be a digital camera and the other terminal may be a television receiver.
  • the terminal when the other terminal is a device that cannot be carried, such as a refrigerator, a microwave oven, or a copy machine, the terminal itself is preferably a portable device such as a portable terminal or a tablet information terminal.
  • a mobile terminal and a tablet information terminal are selected and described as examples of communication terminals.
  • Operation reception unit indicates an entire mechanism capable of receiving a user operation.
  • the operation reception unit may be an operation button or a keyboard.
  • the user operation is pressing of a key or an operation button.
  • a relative position between communication terminals, a display position moving operation of discrimination image data, and the like are detected by a user operation.
  • the operation accepting unit is realized with a keyboard or operation buttons, for example, a cross key, a numeric key (ten key) associated with a direction, or the like is used for detection of the relative position and display position movement operation.
  • the operation reception unit may be a mouse.
  • user operations include mouse movement, mouse button click, and drag operation.
  • a relative position can be detected by clicking a predetermined position on a screen indicating a direction, and a display position moving operation can be performed by, for example, a drag operation by a mouse.
  • the operation accepting unit may be a touch screen display.
  • the user operation is a touch operation such as a touch screen depression, a drag operation, or a tap operation.
  • a touch operation such as a touch screen depression, a drag operation, or a tap operation.
  • the operation reception unit may acquire a user operation from an acceleration sensor, an angular velocity sensor, or the like.
  • the user operation is, for example, an operation of shaking, tilting, rotating, or causing the terminals to collide with each other.
  • an example of acquiring a user operation from a touch screen display, an acceleration sensor, and a tilt sensor will be described as an example of the operation receiving unit.
  • a wireless method is preferable for easy communication. Further, it is better if communication is possible between different devices.
  • a wireless LAN Local Area Network
  • Bluetooth registered trademark
  • RFID registered trademark
  • UWB Ultra Wide Band
  • ZigBee registered trademark
  • Wireless Wireless
  • a wireless LAN is selected and described as an example of a communication method.
  • discriminating image data indicates general image data for discriminating file contents. For example, an icon image, a thumbnail image, and the like correspond to the discrimination image data.
  • a browser window when the file is HTML data a window displayed for editing the document data when the file is document data, and reproduction when the file is photo or video data This also applies to windows.
  • FIG. 1 is a block diagram showing the configuration of the communication terminals 1A and 1B of the present embodiment.
  • FIG. 2 is a flowchart showing the operation of the communication terminals 1A and 1B of the present embodiment.
  • FIG. 1 illustrates two communication terminals 1 of this embodiment. Hereinafter, the description will be continued for the case where these two communication terminals 1A and 1B perform communication.
  • the communication terminal 1 of this embodiment includes a screen 11 that can display image data, an operation receiving unit 12, a communication unit 13, a relative position detection unit 14, a data display area detection unit 15, and a display control unit 16. Is provided.
  • the communication unit 13 includes a communication establishment unit 131, a data transmission unit 132, and a data reception unit 133.
  • the operation reception unit 12 receives a user operation (S12).
  • the operation accepting unit 12 of the own terminal accepts a user operation after the communication establishing unit 131 to be described later establishes communication
  • the operation accepting unit 12 of the own terminal receives the data transmitting unit 132 of the own terminal, the other terminal that has established communication
  • the contents of the user operation are transmitted to the relative position detecting unit 14 and the data display area detecting unit 15 of the partner terminal via the data receiving unit 133 (also called the partner terminal).
  • the operation accepting unit 12 of the partner terminal detects the relative position of the own terminal via the data transmitting unit 132 of the partner terminal and the data receiving unit 133 of the own terminal.
  • the contents of the user operation are transmitted to the unit 14 and the data display area detection unit 15.
  • the operation receiving unit 12 is a touch screen display. Accordingly, the user operation is a touch operation such as pressing, dragging, tapping, double tapping, and flicking on the touch screen display.
  • the communication establishment unit 131 establishes communication with other terminals that can communicate (SS131). In the example of FIG. 1, the communication establishment unit 131 of the communication terminal 1A executes an authentication procedure or the like necessary for communication with the communication establishment unit 131 of the communication terminal 1B to establish communication. In the embodiment, the communication establishment unit 131 establishes communication using a wireless LAN method.
  • the data transmission unit 132 transmits the discrimination image data that is not transmitted to the other terminal that has established communication and is displayed on the own terminal to the other terminal that has established the communication (SS132a). .
  • the data transmission unit 132 of the communication terminal 1A transmits the determination image data that has not been transmitted to the communication terminal 1B and is currently displayed on the communication terminal 1A to the communication terminal 1B.
  • the data transmission unit 132 of the communication terminal 1B transmits the determination image data that is not yet transmitted to the communication terminal 1A and is displayed on the communication terminal 1B to the communication terminal 1A.
  • the transmission timing of the discrimination image data can be an arbitrary timing after the communication is established.
  • the data transmission unit 132 may transmit the image data to another terminal that has established communication using the selection operation as a trigger.
  • the communication terminal 1A when the user presses a certain display position of the discrimination image data and the discrimination image data is selected, the data transmission unit 132 of the communication terminal 1A determines that the selected discrimination image data is It is detected whether or not it has been transmitted to the communication terminal 1B in the past, and when the selected determination image data has not been transmitted, the determination image data is transmitted to the communication terminal 1B.
  • the data receiving unit 133 receives the discrimination image data from another terminal that has established communication (SS133).
  • SS133 the data reception unit 133 of the communication terminal 1A receives the discrimination image data that has not been transmitted to the communication terminal 1A yet and is being displayed on the communication terminal 1B from the data transmission unit 132 of the communication terminal 1B.
  • the data reception unit 133 of the communication terminal 1B receives the discrimination image data that is not yet transmitted to the communication terminal 1B and is being displayed on the communication terminal 1A from the data transmission unit 132 of the communication terminal 1A.
  • the relative position detection unit 14 acquires a predetermined user operation and detects the relative position of the other terminal that has established communication with the own terminal (S14).
  • a predetermined user operation acquired by the relative position detection unit 14 will be described with reference to FIGS. 3 and 4.
  • 3 and 4 are diagrams illustrating examples of operations performed for causing the relative position detection unit 14 to detect a relative position.
  • the predetermined user operation can be a drag operation in which a finger slides on the touch screen displays of both terminals so as to straddle the communication terminal 1B from the communication terminal 1A.
  • the relative position detection unit 14 acquires the drag operation to the communication terminals 1A and 1B, the end point coordinates of the drag operation at the terminal (communication terminal 1A) where the drag operation was performed first, and the drag operation is performed later.
  • the start point coordinates of the drag operation in the broken terminal (communication terminal 1B) are detected.
  • the relative position detection unit 14 detects the relative positions of the communication terminals 1A and 1B on the assumption that the end point coordinates and the viewpoint coordinates are in contact with each other.
  • the relative position detection unit 14 detects the relative position on the assumption that the right side surface of the communication terminal 1 ⁇ / b> A is in contact with the left side surface of the communication terminal 1 ⁇ / b> B.
  • the relative position detection unit 14 is such that the right end of the screen area of the communication terminal 1A and the left end of the screen area of the communication terminal 1B are separated from each other by several millimeters to 1 cm.
  • the relative position may be detected, or the relative position may be detected on the assumption that the right end of the screen area of the communication terminal 1A and the left end of the screen area of the communication terminal 1B are connected without being separated from each other.
  • the predetermined user operation can be a pressing operation on any area of the touch screen of the communication terminals 1 ⁇ / b> A and 1 ⁇ / b> B.
  • the relative position detection unit 14 acquires the pressing operations on the communication terminals 1A and 1B, determines that the terminals are arranged without a gap from the left to the right in the order in which the pressing operations are performed, and performs communication.
  • the relative position can be detected assuming that the right side surface of the terminal 1A is in contact with the left side surface of the communication terminal 1B.
  • the data display area detection unit 15 obtains a user operation for the own terminal and another terminal with which communication has been established, and performs an operation for moving the display position of the discrimination image data being displayed on the own terminal and the other terminal with which communication has been established. Then, based on the relative position, the data display area after the movement operation of the discrimination image data is detected (S15).
  • the data display area detection unit 15 of the communication terminals 1A and 1B acquires the user operation on the communication terminals 1A and 1B, and moves the display position of the discrimination image data being displayed on the communication terminals 1A and 1B. And the data display area after the movement operation of the discrimination image data is detected based on the relative position.
  • the user operation acquired by the data display area detection unit 15 may be a drag operation on the touch screen display, for example.
  • the data display area means an area that exists in a plane including the display screen of the own terminal and the display screen of the counterpart terminal and should display the discrimination image data after reflecting the user's moving operation.
  • the data display area is not limited to the display screen of the own terminal and the display screen of the counterpart terminal, but can be an arbitrary area in a plane including these display screens. That is, a part or all of the data display area may be determined in a state of protruding from the display screen of the own terminal and the display screen of the partner terminal.
  • the data display area detection unit 15 performs this operation. May be determined as an error, and the discrimination image data may be displayed again at a predetermined position in the display screen of any terminal.
  • the display control unit 16 is an area that can be displayed on the screen of the own terminal when at least a part of the data display area after the movement operation of the discrimination image data is included in the area that can be displayed on the screen of the own terminal. Only in this case, the discrimination image data is displayed in the data display area after the moving operation (S16). Accordingly, in the example of FIG. 1, the display control unit 16 of the communication terminal 1A, when at least a part of the data display area after the movement operation of the discrimination image data is included in an area that can be displayed on the screen of the communication terminal 1A, Only in the area that can be displayed on the screen of the communication terminal 1A, the discrimination image data is displayed in the data display area after the moving operation. The same applies to the display control unit 16 of the communication terminal 1B.
  • the data transmission unit 132 of the communication terminal 1A determines, for example, that the ratio of the area that can be displayed on the screen of the communication terminal 1B out of the data display area of the discrimination image data is determined as a predetermined value 100
  • the file data corresponding to the discrimination image data is transmitted to the communication terminal 1B.
  • the data transmission unit 132 of the communication terminal 1A refers to the transmission log to detect whether the file data has been transmitted to the communication terminal 1B in the past, and the file data has not been transmitted yet
  • the file data is transmitted to the communication terminal 1B.
  • the data receiving unit 133 of the communication terminal 1B receives the file data from the communication terminal 1A.
  • the predetermined value set in advance for the ratio can be set to 70% or 80%, for example.
  • FIG. 5 is a diagram for explaining the discrimination image data transmission operation performed by the data transmission unit 132.
  • FIG. 6 is a diagram for explaining the movement information transmission operation performed by the data transmission unit 132.
  • FIG. 7 is a diagram for explaining the file data transmission operation executed by the data transmission unit 132.
  • the data transmission unit 132 of the communication terminal 1A causes the discrimination image data 9 to be sent to the communication terminal 1B. It is detected whether or not it has been transmitted in the past, and when the determination image data 9 has not been transmitted, the determination image data 9 is transmitted to the communication terminal 1B.
  • the operation accepting unit 12 of the communication terminal 1A accepts a user operation (display position moving operation) after establishing the wireless LAN communication
  • the operation accepting unit 12 of the communication terminal 1A The movement information which is the content of the user operation is transmitted to the data display area detection unit 15 of the communication terminal 1B via the data transmission unit 132 and the data reception unit 133 of the communication terminal 1B.
  • the operation reception unit 12 of the communication terminal 1B receives a user operation (display position movement operation)
  • the operation reception unit 12 of the communication terminal 1B receives the data transmission unit 132 of the communication terminal 1B and the data reception of the communication terminal 1A.
  • the movement information that is the content of the user operation is transmitted to the data display area detection unit 15 of the communication terminal 1A via the unit 133.
  • the data display area detection unit 15 of the communication terminals 1A and 1B acquires the user operation (movement information) for the communication terminals 1A and 1B, and performs the display position movement operation of the discrimination image data 9 being displayed on the communication terminals 1A and 1B. Detecting and detecting the data display area after the discriminating image data moving operation.
  • the display control unit 16 of the communication terminal 1A displays the discrimination image data 9 in the data display area after the moving operation only in the data display area that can be displayed on the screen of the communication terminal 1A.
  • the display result is, for example, 9a in FIG.
  • the display control unit 16 of the communication terminal 1B displays the discrimination image data 9 in the data display area after the moving operation only in an area that can be displayed on the screen of the communication terminal 1B in the data display area.
  • the display result is, for example, 9b in FIG.
  • the data transmission unit 132 of the communication terminal 1 ⁇ / b> A has a ratio of the area that can be displayed on the screen of the communication terminal 1 ⁇ / b> B in the data display area of the discrimination image data 9 is equal to or greater than a predetermined value.
  • the file data corresponding to the discrimination image data 9 is transmitted to the communication terminal 1B.
  • the data transmission unit 132 of the communication terminal 1A refers to the transmission log to detect whether the file data has been transmitted to the communication terminal 1B in the past.
  • Corresponding file data is transmitted to the communication terminal 1B.
  • the data receiving unit 133 of the communication terminal 1B receives the file data from the communication terminal 1A.
  • FIGS. 8 and 9 are diagrams illustrating screen display when there are three or more communication terminals.
  • communication terminal 1A and communication terminal 1B establish communication
  • communication terminal 1B contacts right next to communication terminal 1A
  • communication terminal 1B and communication terminal 1C establish communication
  • communication terminal 1B The communication terminal 1C is in contact with the right side.
  • the user can move the display position of the discrimination image data 9 from the communication terminal 1A to the communication terminal 1C across the communication terminal 1B.
  • the data transmission unit 132 of the communication terminal 1A transmits file data corresponding to the discrimination image data 9 to the communication terminal 1B. Without transmitting to the communication terminal 1C. Further, as shown in FIG. 9, the discrimination image data 9 displayed on the communication terminal 1B is displayed vertically and horizontally on the communication terminals 1A, 1C, 1D, 1E, and 1F connected to the communication terminal 1B vertically, horizontally, and diagonally. It is also possible to execute file data transmission by moving it diagonally.
  • FIG. 10 is a flowchart illustrating variations in the operation order of the communication terminal 1 according to the first embodiment.
  • the communication establishment unit 131 of the communication terminal 1 establishes communication with another communicable terminal (SS131), and the relative position detection unit 14 acquires a predetermined user operation, and The relative position of another terminal that has established communication is detected (S14).
  • the communication establishment of SS131 and the relative position detection of S14 may be performed simultaneously with a predetermined operation for detecting the relative position of the user as a trigger.
  • the data transmission unit 132 transmits the discrimination image data that is not transmitted to the other terminal with which communication has been established and is being displayed on the own terminal to the other terminal with which communication has been established (SS132a).
  • the data receiving unit 133 receives the discrimination image data from another terminal that has established communication (SS133). Step S15 and subsequent steps are the same as the procedure shown in FIG.
  • the relative position detection unit 14 detects the relative position between the own terminal and the counterpart terminal
  • the data display region detection unit 15 detects the data display region of the discrimination image data. Since the display control unit 16 displays the discrimination image data only in an area that can be displayed on the screen of the terminal itself, an intuitive and highly user-friendly user operation is realized.
  • the data transmission unit 132 transmits the file data corresponding to the discrimination image data to the counterpart terminal. Realistic and highly-preferred data exchange is realized.
  • FIG. 11 is a block diagram showing the configuration of the communication terminals 2A and 2X of the present embodiment.
  • FIG. 12 is a flowchart showing the operation of the communication terminals 2A and 2X of the present embodiment.
  • FIG. 11 shows two communication terminals 2 (2A, 2X) of the present embodiment.
  • the communication terminal 2A is a portable terminal, but the communication terminal 2X is a tablet terminal having a size larger than 2A and a different resolution.
  • these two communication terminals 2A and 2X perform communication will be described.
  • the communication terminal 2 includes a screen 11 capable of displaying image data, an operation receiving unit 12, a communication unit 23, a relative position detection unit 14, a data display area detection unit 15, and a display control unit 26. And a resolution adjustment unit 27.
  • the communication unit 23 includes a communication establishment unit 231, a data transmission unit 132, and a data reception unit 133.
  • the communication unit 23 (communication establishment unit 231), the display control unit 26, and the resolution adjustment unit 27 that are differences from the first embodiment will be described in detail.
  • the communication establishment unit 231 establishes communication with another communicable terminal, receives the resolution of the other communicable terminal, and transmits the resolution of the own terminal (SS231).
  • the communication establishment unit 231 of the communication terminal 2A executes an authentication procedure necessary for communication with the communication establishment unit 231 of the communication terminal 2X, establishes communication, and sets the resolution of the communication terminal 2X.
  • the resolution adjustment unit 27 calculates the image display magnification based on the received resolution of the other terminal and the resolution of the terminal itself (S27). The resolution is usually determined in units of dpi (dots per inch).
  • the discrimination image data (icon image or thumbnail image) has a predetermined number of vertical and horizontal dots, and therefore the display size (inch) of the discrimination image is obtained by the number of vertical and horizontal dots of the discrimination image data / resolution (dpi). Can do. Accordingly, the image display magnification can be obtained from the reciprocal of the dpi ratio.
  • the display control unit 26 is limited to the area that can be displayed on the screen of the own terminal.
  • the discrimination image data adjusted with the display magnification is displayed in the data display area after the moving operation (S26).
  • FIG. 13 is a diagram illustrating screen display between terminals (communication terminals 2A and 2X) having different resolutions and screen sizes.
  • the display control unit 26 of the communication terminal 2X displays the discrimination image data 9 adjusted with the calculated display magnification. .
  • the display size of the discrimination image data 9 displayed on the communication terminal 2A is equal to the display size of the discrimination image data 9 displayed on the communication terminal 2X.
  • the communication establishment unit 231 receives the resolution of the counterpart terminal, and the resolution adjustment unit 27 calculates the display magnification of the image based on the resolution of the own terminal and the counterpart terminal. Since the display control unit 26 displays the discrimination image data adjusted with the calculated display magnification, the display size of the discrimination image data can always be kept equal among a plurality of terminals, thereby realizing a more intuitive user operation. be able to.
  • FIG. 14 is a block diagram showing the configuration of the communication terminals 3A and 3B of the present embodiment.
  • FIG. 15 is a flowchart showing the operation of the communication terminals 3A and 3B of the present embodiment.
  • FIG. 14 shows two communication terminals 3 (3A, 3B) of the present embodiment.
  • the communication terminal 3 of the present embodiment includes a screen 11 that can display image data, an operation receiving unit 12, a communication unit 13, a relative position detection unit 34, a data display area detection unit 15, and a display control unit 16. And an acceleration sensor 38.
  • the relative position detector 34 and the acceleration sensor 38 which are differences from the first embodiment will be described in detail.
  • the acceleration sensor 38 measures the acceleration applied to the terminal.
  • the relative position detection unit 34 acquires, as a predetermined user operation, the amount of acceleration change applied to the own terminal and another terminal that has established communication, and detects the relative position of the other terminal that has established communication with the own terminal ( S34).
  • the operation of the relative position detector 34 will be described in detail with reference to specific examples shown in FIGS.
  • FIG. 16 is a diagram illustrating an example of an operation performed to cause the relative position detection unit 34 to detect a relative position.
  • FIG. 17 is a diagram illustrating the time change of acceleration applied to the communication terminal 3A and the communication terminal 3B.
  • the right-pointing arrow in FIG. 16 indicates the direction of acceleration that the user applies to the communication terminal 3A.
  • 16 indicates the direction of acceleration that the user applies to the communication terminal 3B. Assume that the right-pointing arrow and the left-pointing arrow are parallel to each other, and the axis parallel to these arrows and having the rightward direction as positive is the x-axis. In this case, in the state of FIG. 16, acceleration is applied to the communication terminal 3A in the positive x-axis direction, and the communication terminal 3A moves in the positive x-axis direction. On the other hand, acceleration is applied to the communication terminal 3B in the negative x-axis direction, and the communication terminal 3B moves in the negative x-axis direction.
  • FIG. 17 is a graph showing time-series changes in acceleration with the vertical axis representing acceleration in the x-axis direction and the horizontal axis representing time.
  • a graph indicated by a solid line indicates a time-series change in acceleration applied to the terminal 3A.
  • the graph shown with a broken line has shown the time-sequential change of the acceleration added to the terminal 3B.
  • the acceleration sensor 38 measures acceleration in a predetermined direction (the x-axis direction in the example of FIG. 17), and the relative position detection unit 34 acquires time-series changes in acceleration in the direction measured by the acceleration sensor 38. .
  • the relative position detection unit 34 acquires a time at which the amount of change in acceleration is equal to or greater than a predetermined value from the acquired time-series change in acceleration in the x-axis direction, and determines between the counterpart terminal and the own terminal from the direction of acceleration at the time. Detect relative position.
  • the relative position detection unit 34 detects the relative position between the partner terminal and the own terminal from the direction of acceleration at the time when the amount of change in acceleration is equal to or greater than a predetermined value. Since the user can cause the communication terminal to detect the relative position only by performing a simple operation of hitting the communication terminals, a more intuitive user operation can be realized.
  • FIG. 18 is a block diagram showing the configuration of the communication terminals 4A and 4B of the present embodiment.
  • FIG. 19 is a flowchart showing the operation of the communication terminals 4A and 4B of the present embodiment.
  • FIG. 18 shows two communication terminals 4 (4A, 4B) of the present embodiment.
  • the communication terminal 4 according to the present embodiment includes a screen 11 that can display image data, an operation reception unit 12, a communication unit 13, a relative position detection unit 44, a data display area detection unit 15, and a display control unit 16. Is provided.
  • the relative position detection unit 44 determines the relative position of the other terminal that has established communication with the own terminal based on which of the divided areas obtained by dividing the screen 11 into a plurality of areas in advance based on which screen touch operation is acquired. Detect (S44).
  • the operation of the relative position detection unit 44 will be described in detail with reference to specific examples shown in FIGS. 20 and 21 are diagrams exemplifying divided areas set in advance. For example, as illustrated in FIG. 20, the relative position detection unit 44 stores in advance four divided areas A, B, C, and D that are divided by diagonal lines on the screen 11, and the user operation is a screen touch operation on any divided area. Is detected.
  • the relative position detection unit 44 of the communication terminal 4 ⁇ / b> A acquires a screen touch operation on the divided region D.
  • the relative position detection unit 44 of the communication terminal 4B acquires a screen touch operation on the divided area A.
  • the relative position detection unit 44 of the communication terminals 4A and 4B is configured such that the right end side of the communication terminal 4A is connected to the communication terminal 4B based on the touch operation performed on the divided area D of the communication terminal 4A and the divided area A of the communication terminal 4B.
  • the relative position between the communication terminal 4A and the communication terminal 4B is detected as being in contact with the upper end side. Further, as shown in FIG.
  • the relative position detection unit 44 has rectangular divided areas A-1 to A-4, B-1 to B-5, -1 to C-4 and D-1 to D-5 are stored in advance, and it is detected to which divided area the user operation is the screen touch operation.
  • the relative position detection unit 44 of the communication terminal 4A acquires a screen touch operation on the divided area D-5.
  • the relative position detection unit 44 of the communication terminal 4B acquires a screen touch operation on the divided area B-1.
  • the relative position detection unit 44 of the communication terminals 4A and 4B detects the divided area D- of the communication terminal 4A based on the touch operation of the divided area D-5 of the communication terminal 4A and the divided area B-1 of the communication terminal 4B.
  • the relative position between the communication terminal 4A and the communication terminal 4B is detected assuming that the end close to 5 is in contact with the end close to the divided area B-1 of the communication terminal 4B.
  • the relative position detection unit 44 is based on which of the divided areas obtained by dividing the screen 11 into a plurality of areas in advance the screen touch operation is acquired. Since the relative position of the other terminal that has established communication with the own terminal is detected, the relative position can be detected more accurately, and a more realistic screen display can be realized.
  • FIG. 22 is a block diagram showing the configuration of the communication terminals 5A and 5B of the present embodiment.
  • FIG. 23 is a flowchart showing the operation of the communication terminals 5A and 5B of the present embodiment.
  • FIG. 22 shows two communication terminals 5 (5A, 5B) of the present embodiment.
  • the communication terminal 5 of the present embodiment includes a screen 11 that can display image data, an operation receiving unit 12, a communication unit 13, a relative position detection unit 14, a data display area detection unit 55, and a display control unit 16. And an inclination sensor 58.
  • the data display area detection unit 55 and the inclination sensor 58 which are differences from the first embodiment will be described in detail.
  • the tilt sensor 58 detects the tilt of the terminal.
  • the tilt sensor can be realized by an acceleration sensor, an angular velocity sensor, or the like.
  • the data display area detection unit 55 acquires the inclination of the other terminal that has established communication with the terminal itself, detects it as a display position movement operation, and detects the data display area after the movement operation of the discrimination image data (S55).
  • the operation of the data display area detection unit 55 will be described in detail with reference to a specific example shown in FIG.
  • FIG. 24 is a diagram illustrating a mode in which the discrimination image data is moved by tilting the terminal. As shown in FIG.
  • the data display area detection unit 55 acquires the inclination of the communication terminal 5A and moves the acquired inclination image data vertically downward.
  • the data display area after the moving operation of the discrimination image data 9 is detected.
  • the moving speed in the vertically downward direction can be determined in advance. If the moving speed is set slow, the discrimination image data 9 moves slowly downward in the vertical direction, so that it is possible to produce an effect as if the discrimination image data 9 is sinking in water.
  • the discrimination image data 9 initially displayed on the communication terminal 5A falls down vertically by tilting the communication terminal 5A, and the communication terminal is positioned vertically below the communication terminal 5A.
  • the display control unit 16 of the communication terminal 5B displays the discrimination image data 9 in the data display area after the moving operation.
  • the data display area detection unit 55 detects the tilt of the terminal as the display position movement operation, so that the user delivers data as if pouring water. Intuitive and highly user-friendly user operations and data transfer are realized.
  • the program describing the processing contents can be recorded on a computer-readable recording medium.
  • a computer-readable recording medium any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
  • this program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device.
  • the computer reads a program stored in its own recording medium and executes a process according to the read program.
  • the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer.
  • the processing according to the received program may be executed sequentially.
  • the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition. It is good.
  • ASP Application Service Provider
  • the program in this embodiment includes information provided for processing by an electronic computer and equivalent to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
  • the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 直観的で嗜好性の高いユーザ操作ができる通信端末を提供する。画像データを表示可能な画面と、ユーザ操作を受け付ける操作受付部と、他端末と通信を確立する通信確立部と、自端末に表示中の判別画像データを他端末に送信するデータ送信部と、他端末から判別画像データを受信するデータ受信部と、所定のユーザ操作を取得して自端末と他端末の相対位置を検知する相対位置検知部と、自端末および他端末に対するユーザ操作を取得して自端末および他端末に表示中の判別画像データの表示位置移動操作を検知して相対位置に基づいて当該判別画像データの移動操作後のデータ表示領域を検出するデータ表示領域検出部と、判別画像データの移動操作後のデータ表示領域の少なくとも一部が自端末の画面で表示可能な領域に含まれる場合に自端末の画面で表示可能な領域に限り判別画像データを移動操作後のデータ表示領域に表示する表示制御部とを含む。

Description

通信端末、画面表示方法、記録媒体
 本発明は他端末と通信を確立しデータを送受信する通信端末、当該通信端末が実行する画面表示方法、記録媒体に関する。
 昨今、タッチスクリーンディスプレイを備える電子機器が増加してきており、ユーザは画面に表示されたアイコンやウィンドウなどをあたかも指で直接触れているかの如く操作することが可能になっている。例えば、タッチスクリーンディスプレイに表示されたアイコンの表示位置を指で押下すれば当該アイコンを選択することができる。さらに、押下した指をタッチスクリーンディスプレイに接触させたまま移動させれば、移動された向きにアイコンの表示位置を移動させることができる(ドラッグ操作)。タッチスクリーンディスプレイに表示されたアイコンの表示位置を素早く複数回押下すれば当該アイコンと対応するファイル内容を表示できる(タップ操作)。このような電子機器のなかにはタッチスクリーンディスプレイを複数備えているものもある。
 複数のタッチスクリーンディスプレイを備える電子機器の従来技術として例えば特許文献1がある。特許文献1の電子機器は、第1及び第2のタッチスクリーンディスプレイと、第1のタッチスクリーンディスプレイに表示されたオブジェクトに対する方向を示すタッチ操作を検出する検出手段と、検出手段により検出されたタッチ操作が示す方向に応じて、オブジェクトの表示位置を、第1のタッチスクリーンディスプレイの第1の画面領域と第2のタッチスクリーンディスプレイの第2の画面領域とを合わせた領域内で移動させる移動手段とを具備する。特許文献1の電子機器によれば、ディスプレイに表示されたオブジェクトを、移動先が直感的に把握できる操作によって簡単に移動させることができる。
特開2011-248784号公報
 特許文献1の電子機器では、電子機器が備える複数の画面領域を合わせた領域内においてアイコンなどの表示位置を移動させることが可能であるが、表示画面を備える複数の機器間において、複数の機器の画面領域を合わせた領域内においてアイコンなどの表示位置を移動させることは出来ない。複数の機器の画面領域を合わせた領域内においてアイコンなどの表示位置を移動させ、アイコンなどの移動に伴って、アイコンなどと対応付けられたファイルデータを複数の機器の間で送受信することが可能になれば、ユーザは複数の機器間でのデータの受け渡しに関するユーザ操作を直観的に実行することができるようになる。また、ユーザ同士で、データの受け渡しを巡って駆け引きをすることもでき、より嗜好性の高いユーザ操作が実現される。そこで本発明では、直観的で嗜好性の高いユーザ操作ができる通信端末を提供することを目的とする。
 本発明の通信端末は、画像データを表示可能な画面と、操作受付部と、通信確立部と、データ送信部と、データ受信部と、相対位置検知部と、データ表示領域検出部と、表示制御部とを備える。ファイル内容を判別させるための画像データを、判別画像データというものとする。操作受付部は、ユーザ操作を受け付ける。通信確立部は、通信可能な他端末と通信を確立する。データ送信部は、通信を確立した他端末に送信されていない判別画像データであって、自端末に表示中の判別画像データを通信を確立した他端末に送信する。データ受信部は、通信を確立した他端末から判別画像データを受信する。相対位置検知部は、所定のユーザ操作を取得して、自端末と通信を確立した他端末の相対位置を検知する。データ表示領域検出部は、自端末および通信を確立した他端末に対するユーザ操作を取得して、自端末および通信を確立した他端末に表示中の判別画像データの表示位置移動操作を検知して、相対位置に基づいて、当該判別画像データの移動操作後のデータ表示領域を検出する。表示制御部は、判別画像データの移動操作後のデータ表示領域の少なくとも一部が、自端末の画面で表示可能な領域に含まれる場合に、自端末の画面で表示可能な領域に限り、判別画像データを移動操作後のデータ表示領域に表示する。
 本発明の通信端末によれば、直観的で嗜好性の高いユーザ操作ができる。
本発明の実施例1の通信端末の構成を示すブロック図。 本発明の実施例1の通信端末の動作を示すフローチャート。 相対位置検知部14に相対位置を検知させるために行う操作の例を示す図。 相対位置検知部14に相対位置を検知させるために行う操作の例を示す図。 データ送信部132が実行する判別画像データ送信動作を説明する図。 データ送信部132が実行する移動情報送信動作を説明する図。 データ送信部132が実行するファイルデータ送信動作を説明する図。 通信端末が3つ以上ある場合の画面表示について例示する図。 通信端末が3つ以上ある場合の画面表示について例示する図。 本発明の実施例1の通信端末の動作順序のバリエーションを示すフローチャート。 本発明の実施例2の通信端末の構成を示すブロック図。 本発明の実施例2の通信端末の動作を示すフローチャート。 解像度、画面サイズが異なる端末間における画面表示について例示する図。 本発明の実施例3の通信端末の構成を示すブロック図。 本発明の実施例3の通信端末の動作を示すフローチャート。 相対位置検知部34に相対位置を検知させるために行う操作の例を示す図。 端末3Aおよび端末3Bに加えられる加速度の時間変化を例示する図。 本発明の実施例4の通信端末の構成を示すブロック図。 本発明の実施例4の通信端末の動作を示すフローチャート。 予め設定される分割領域を例示する図。 予め設定される分割領域を例示する図。 本発明の実施例5の通信端末の構成を示すブロック図。 本発明の実施例5の通信端末の動作を示すフローチャート。 端末を傾けることにより判別画像データが移動する態様を例示する図。
<用語の説明:通信端末>
 本明細書で用いられる通信端末という用語は、画像データを表示可能な画面を備え、他の機器と通信可能な機器全てを指し示すものとする。例えば、本明細書において通信端末という用語が指し示す機器の種類としては、携帯端末、タブレット型情報端末、PDA、ゲーム機、パーソナルコンピュータ(デスクトップ型、ノートブック型の何れをも含む)、電子書籍端末、デジタルオーディオプレーヤー、テレビ受像機、デジタルカメラ、デジタルビデオカメラ、デジタルフォトフレーム、ファクシミリ、コピー機などが考えられる。昨今は、冷蔵庫、電子レンジ等にも表示画面、通信機能を備えるものが存在するため、これらも本発明の通信端末に含まれる。本発明の通信端末が行う通信は、種類の異なる機器同士の通信であってもよい。例えば、自端末をデジタルカメラとして、他端末をテレビ受像機などとしてもよい。例えば、他端末が冷蔵庫、電子レンジ、コピー機など、持ち運びできない機器とした場合には、自端末は持ち運び可能な機器である、例えば携帯端末、タブレット型情報端末などであることが好ましい。以下の実施例では、通信端末の例として、携帯端末、タブレット型情報端末を選択して説明する。
<用語の説明:操作受付部>
 本明細書で用いられる操作受付部という用語はユーザ操作を受け付けることができる機構全般を指し示すものとする。例えば操作受付部は操作ボタン、キーボードであってもよい。この場合、ユーザ操作はキーや操作ボタンの押下である。詳細は後述するが、本発明ではユーザ操作により、通信端末同士の相対位置、判別画像データの表示位置移動操作、などが検知される。操作受付部をキーボードや操作ボタンで実現した場合には、相対位置の検知や、表示位置移動操作には、例えば十字キー、方向と対応付けられた数字キー(テンキー)等が用いられる。例えば操作受付部はマウスであってもよい。この場合、ユーザ操作はマウスの移動や、マウスボタンのクリック、ドラッグ操作などである。操作受付部をマウスで実現した場合には、相対位置の検知は、例えば方角をしめす画面上の所定の位置のクリック動作、表示位置移動操作には、例えばマウスによるドラッグ操作を用いることができる。
 もちろん、操作受付部はタッチスクリーンディスプレイであっても好適である。この場合、ユーザ操作はタッチスクリーンの押下、ドラッグ操作、タップ操作などのタッチ操作である。相対位置の検知は、例えば方角をしめす画面上の所定の位置の押下動作、表示位置移動操作には、例えばドラッグ操作を用いることができる。また、操作受付部は、加速度センサ、角速度センサなどからユーザ操作を取得してもよい。この場合ユーザ操作は、例えば通信端末を振ったり、傾けたり、回転させたり、あるいは端末同士を衝突させる動作となる。以下の実施例では、操作受付部の例として、タッチスクリーンディスプレイ、加速度センサ、傾きセンサからユーザ操作を取得する例を選択して説明する。
<用語の説明:通信>
 本発明で用いられる通信の方式には特に制約はないが、通信を手軽に行うためには無線方式であることが好適である。また、異なる機器間で通信可能であればさらによい。通信方式として、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)、RFID(登録商標)、UWB(Ultra Wide Band)、ZigBee(登録商標)、Wibreeなどが考えられる。以下の実施例では、通信方式の一例として無線LANを選択して説明する。
<用語の説明:判別画像データ>
 本明細書で用いられる判別画像データという用語は、ファイル内容を判別するための画像データ全般を指し示すものとする。判別画像データとして例えば、アイコン画像、サムネイル画像などが該当する。判別画像データの例として、ファイルがHTMLデータである場合のブラウザウインドウや、ファイルが文書データである場合の文書データを編集するために表示されたウインドウ、ファイルが写真、動画データである場合の再生ウインドウなども該当する。
 以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
 以下、図1、図2を参照して本発明の実施例1に係る通信端末について説明する。図1は本実施例の通信端末1A、1Bの構成を示すブロック図である。図2は本実施例の通信端末1A、1Bの動作を示すフローチャートである。図1は、本実施例の通信端末1を二つ図示した。以下、これらの二つの通信端末1A、1Bが通信を行う場合について説明を続ける。本実施例の通信端末1は、画像データを表示可能な画面11と、操作受付部12と、通信部13と、相対位置検知部14と、データ表示領域検出部15と、表示制御部16とを備える。通信部13は、通信確立部131と、データ送信部132と、データ受信部133とを備える。
 操作受付部12は、ユーザ操作を受け付ける(S12)。後述する通信確立部131が通信を確立した後に、自端末の操作受付部12がユーザ操作を受け付けた場合、自端末の操作受付部12は自端末のデータ送信部132、通信を確立した他端末(相手端末ともいう)のデータ受信部133を介して、相手端末の相対位置検知部14、データ表示領域検出部15にユーザ操作の内容を送信する。同様に相手端末の操作受付部12がユーザ操作を受け付けた場合、相手端末の操作受付部12は相手端末のデータ送信部132、自端末のデータ受信部133を介して、自端末の相対位置検知部14、データ表示領域検出部15にユーザ操作の内容を送信する。実施例において操作受付部12はタッチスクリーンディスプレイである。従ってユーザ操作は、タッチスクリーンディスプレイに対する押下、ドラッグ、タップ、ダブルタップ、フリックなどのタッチ操作である。通信確立部131は、通信可能な他端末と通信を確立する(SS131)。図1の例では、通信端末1Aの通信確立部131は、通信端末1Bの通信確立部131に対して、通信に必要な認証手続き等を実行し、通信を確立する。実施例において通信確立部131は、無線LAN方式で通信を確立する。
 通信確立後、データ送信部132は、通信を確立した他端末に送信されていない判別画像データであって、自端末に表示中の判別画像データを通信を確立した他端末に送信する(SS132a)。図1の例では、通信端末1Aのデータ送信部132は、通信端末1Bにまだ送信されていない判別画像データであって、通信端末1Aに表示中の判別画像データを通信端末1Bに送信する。同様に、通信端末1Bのデータ送信部132は、通信端末1Aにまだ送信されていない判別画像データであって、通信端末1Bに表示中の判別画像データを通信端末1Aに送信する。判別画像データの送信タイミングは、通信確立後の任意のタイミングとすることができる。例えばデータ送信部132は、通信端末1においてユーザがある判別画像データを選択した場合に、その選択動作をトリガとして、判別画像データを通信を確立した他端末に送信することとしてもよい。例えば、通信端末1Aにおいて、ユーザがある判別画像データの表示位置を押下して、当該判別画像データが選択された場合、通信端末1Aのデータ送信部132は、当該選択された判別画像データが、通信端末1Bに過去に送信済みであるか否かを検知して、選択された判別画像データが未送信である場合に、当該判別画像データを通信端末1Bに送信する。判別画像データが相手端末に過去に送信済みであるか否かの検知は、判別画像データのファイル名と、送信ログに記録された送信データのファイル名との照合によって実現可能である。送信ログは、通信端末が備えるメモリ(図示略)に記憶されているものとする。データ受信部133は、通信を確立した他端末から判別画像データを受信する(SS133)。例えば、通信端末1Aのデータ受信部133は、通信端末1Aにまだ送信されていない判別画像データであって、通信端末1Bに表示中の判別画像データを通信端末1Bのデータ送信部132から受信する。同様に、通信端末1Bのデータ受信部133は、通信端末1Bにまだ送信されていない判別画像データであって、通信端末1Aに表示中の判別画像データを通信端末1Aのデータ送信部132から受信する。
 次に、相対位置検知部14は、所定のユーザ操作を取得して、自端末と通信を確立した
他端末の相対位置を検知する(S14)。ここで、図3、図4を参照して、相対位置検知部14が取得する所定のユーザ操作の例について説明する。図3、図4は相対位置検知部14に相対位置を検知させるために行う操作の例を示す図である。例えば図3に示すように、所定のユーザ操作は、通信端末1Aから通信端末1Bを跨るように、両端末のタッチスクリーンディスプレイ上を指を滑らせるドラッグ操作とすることができる。この場合、相対位置検知部14は通信端末1A、1Bへのドラッグ操作を取得して、ドラッグ操作が先に行われた端末(通信端末1A)におけるドラッグ操作の終点座標と、ドラッグ操作が後に行われた端末(通信端末1B)におけるドラッグ操作の始点座標とを検出する。この場合、相対位置検知部14は終点座標と視点座標とが隣接して接触しているものとして、通信端末1A、1Bの相対位置を検知する。図3の例の場合、相対位置検知部14は通信端末1Aの右側面と、通信端末1Bの左側面とが接触しているものとして相対位置を検知する。このとき、相対位置検知部14は端末の縁を考慮して、通信端末1Aの画面領域の右端と、通信端末1Bの画面領域の左端が数ミリから1センチ程度離間して存在しているものとして、相対位置を検知してもよいし、通信端末1Aの画面領域の右端と、通信端末1Bの画面領域の左端とが離間せずに接続されているものとして相対位置を検知してもよい。また、例えば図4に示すように、所定のユーザ操作は、通信端末1A、1Bのタッチスクリーンの何れかの領域の押下操作とすることができる。この場合、例えば相対位置検知部14は通信端末1A、1Bへの押下操作を取得して、押下操作が行われた順に、端末が左から右へと隙間なく並べられていると判断し、通信端末1Aの右側面と、通信端末1Bの左側面とが接触しているものとして相対位置を検知することができる。図4に示した制御を実行する場合、ユーザには端末の並び順と押下操作を行うべき順序のルールを予め通知しておけばよい。
 次に、データ表示領域検出部15は、自端末および通信を確立した他端末に対するユーザ操作を取得して、自端末および通信を確立した他端末に表示中の判別画像データの表示位置移動操作を検知して、相対位置に基づいて、当該判別画像データの移動操作後のデータ表示領域を検出する(S15)。図1の例において、通信端末1A、1Bのデータ表示領域検出部15は、通信端末1Aおよび1Bに対するユーザ操作を取得して、通信端末1Aおよび1Bに表示中の判別画像データの表示位置移動操作を検知して、相対位置に基づいて、当該判別画像データの移動操作後のデータ表示領域を検出する。実施例においては、データ表示領域検出部15が取得するユーザ操作は、例えばタッチスクリーンディスプレイに対するドラッグ操作でよい。ここで、データ表示領域とは、自端末の表示画面および相手端末の表示画面を含む平面内に存在し、ユーザの移動操作反映後の判別画像データを表示すべき領域を意味する。データ表示領域は、自端末の表示画面内および相手端末の表示画面内に限らず、これら表示画面を含む平面内の任意の領域とすることができる。つまり、データ表示領域の一部もしくは全部が、自端末の表示画面および相手端末の表示画面から外にはみ出した状態で決定される場合もある。タッチ操作の場合、データ表示領域の全部が自端末および相手端末の表示画面から外にはみ出した状態になると、判別画像データの移動操作が続行不能になるため、データ表示領域検出部15はこの動作をエラーと判断して、判別画像データを何れかの端末の表示画面内の所定の位置に表示し直すこととしてもよい。
 次に、表示制御部16は、判別画像データの移動操作後のデータ表示領域の少なくとも一部が、自端末の画面で表示可能な領域に含まれる場合に、自端末の画面で表示可能な領域に限り、判別画像データを移動操作後のデータ表示領域に表示する(S16)。従って、図1の例において通信端末1Aの表示制御部16は、判別画像データの移動操作後のデータ表示領域の少なくとも一部が、通信端末1Aの画面で表示可能な領域に含まれる場合に、通信端末1Aの画面で表示可能な領域に限り、判別画像データを移動操作後のデータ表示領域に表示する。通信端末1Bの表示制御部16についても同様である。
 次に、データ送信部132は、相手端末に送信されていないファイルデータに対応する判別画像データのデータ表示領域のうち、相手端末の画面で表示可能な領域が占める割合が所定値以上となる場合に、判別画像データと対応するファイルデータを相手端末に送信する(SS132b)。図1の例で説明すれば、通信端末1Aのデータ送信部132は、判別画像データのデータ表示領域のうち、通信端末1Bの画面で表示可能な領域が占める割合が例えば所定値として定めた100%になり、判別画像データの全体が通信端末1Bの画面に表示されている場合に、当該判別画像データに対応するファイルデータを通信端末1Bに送信する。このとき、通信端末1Aのデータ送信部132は、送信ログを参照して、当該ファイルデータが通信端末1Bに過去に送信済みであるか否かを検知して、ファイルデータが未送信である場合に、当該ファイルデータを通信端末1Bに送信する。通信端末1Bのデータ受信部133は、通信端末1Aから当該ファイルデータを受信する。割合について予め定めておく所定値は、例えば70%、80%と設定することも可能である。
<通信中のデータの送受信について>
 以下、図5から図7を参照して、ユーザ操作とデータ送受信の関係について更に詳細に説明する。図5はデータ送信部132が実行する判別画像データ送信動作を説明する図である。図6はデータ送信部132が実行する移動情報送信動作を説明する図である。図7はデータ送信部132が実行するファイルデータ送信動作を説明する図である。図5に示すように、無線LAN通信の確立後、通信端末1Aにおいて判別画像データ9が表示、または選択された場合、通信端末1Aのデータ送信部132は、判別画像データ9が通信端末1Bに過去に送信済みであるか否かを検知して、判別画像データ9が未送信である場合に、当該判別画像データ9を通信端末1Bに送信する。
 図6に示すように、無線LAN通信の確立後、通信端末1Aの操作受付部12がユーザ操作(表示位置移動操作)を受け付けた場合、通信端末1Aの操作受付部12は、通信端末1Aのデータ送信部132、通信端末1Bのデータ受信部133を介して、通信端末1Bのデータ表示領域検出部15にユーザ操作の内容である移動情報を送信する。同様に、通信端末1Bの操作受付部12がユーザ操作(表示位置移動操作)を受け付けた場合、通信端末1Bの操作受付部12は、通信端末1Bのデータ送信部132、通信端末1Aのデータ受信部133を介して、通信端末1Aのデータ表示領域検出部15にユーザ操作の内容である移動情報を送信する。通信端末1A、1Bのデータ表示領域検出部15は、通信端末1Aおよび1Bに対するユーザ操作(移動情報)を取得して、通信端末1Aおよび1Bに表示中の判別画像データ9の表示位置移動操作を検知して、当該判別画像データの移動操作後のデータ表示領域を検出する。通信端末1Aの表示制御部16は、データ表示領域のうち、通信端末1Aの画面で表示可能な領域に限り、判別画像データ9を移動操作後のデータ表示領域に表示する。表示結果は例えば図6の9aのようになる。同様に、通信端末1Bの表示制御部16は、データ表示領域のうち、通信端末1Bの画面で表示可能な領域に限り、判別画像データ9を移動操作後のデータ表示領域に表示する。表示結果は例えば図6の9bのようになる。
 図7に示すように、通信端末1Aのデータ送信部132は、判別画像データ9のデータ表示領域のうち、通信端末1Bの画面で表示可能な領域が占める割合が所定値以上となる場合に、判別画像データ9に対応するファイルデータを通信端末1Bに送信する。このとき、通信端末1Aのデータ送信部132は、送信ログを参照してファイルデータが通信端末1Bに過去に送信済みであるか否かを検知し、未送信である場合に判別画像データ9に対応するファイルデータを通信端末1Bに送信する。通信端末1Bのデータ受信部133は、通信端末1Aから当該ファイルデータを受信する。
 以下、図8、図9を参照して本実施例の通信端末が3つ以上となった場合について概説する。図8、図9は通信端末が3つ以上ある場合の画面表示について例示する図である。図8において、通信端末1Aと通信端末1Bが通信を確立して、通信端末1Aの右隣に通信端末1Bが接触し、通信端末1Bと通信端末1Cが通信を確立して、通信端末1Bの右隣に通信端末1Cが接触している。この場合、ユーザは判別画像データ9の表示位置を通信端末1Aから通信端末1Bを跨いで通信端末1Cまで移動させることができる。判別画像データ9のが短時間の間に、通信端末1Aから通信端末1Cまで移動された場合、通信端末1Aのデータ送信部132は、判別画像データ9に対応するファイルデータを通信端末1Bに送信せずに、通信端末1Cに送信する。また図9のように、通信端末1Bに縦、横、斜めに接続された通信端末1A、1C、1D、1E、1Fに対して、通信端末1Bに表示された判別画像データ9を縦、横、斜めに移動させて、ファイルデータの送信を実行することも可能である。
 なお、ステップの実行の手順は図2に示したフローチャートの例に限られない。以下、図10を参照して、ステップの実行手順のバリエーションについて説明する。図10は、実施例1の通信端末1の動作順序のバリエーションを示すフローチャートである。図10に示すように、通信端末1の通信確立部131は、通信可能な他端末と通信を確立し(SS131)、相対位置検知部14は、所定のユーザ操作を取得して、自端末と通信を確立した他端末の相対位置を検知する(S14)。SS131の通信確立と、S14の相対位置検知は、ユーザの相対位置検知用の所定の操作をトリガとして、同時に実行される動作としてもよい。次に、データ送信部132は、通信を確立した他端末に送信されていない判別画像データであって、自端末に表示中の判別画像データを通信を確立した他端末に送信する(SS132a)。データ受信部133は、通信を確立した他端末から判別画像データを受信する(SS133)。ステップS15以降は、図2に示した手順と同じである。
 このように、本実施例の通信端末1によれば、相対位置検知部14が自端末と相手端末の相対位置を検知し、データ表示領域検出部15が判別画像データのデータ表示領域を検出し、表示制御部16が、自端末の画面で表示可能な領域に限り判別画像データを表示するため、直観的で嗜好性の高いユーザ操作が実現する。また、データ表示領域のうち相手端末の画面で表示可能な領域が占める割合が所定値以上となる場合に、データ送信部132が判別画像データと対応するファイルデータを相手端末に送信するため、直観的で嗜好性の高いデータの受け渡しが実現する。
 以下、図11、図12を参照して本発明の実施例2に係る通信端末について説明する。図11は本実施例の通信端末2A、2Xの構成を示すブロック図である。図12は本実施例の通信端末2A、2Xの動作を示すフローチャートである。図11には、本実施例の通信端末2を二つ(2A、2X)図示した。通信端末2Aは携帯端末であるが、通信端末2Xは2Aよりもサイズが大きく、解像度も異なるタブレット端末であるものとする。以下、これらの二つの通信端末2A、2Xが通信を行う場合について説明する。本実施例の通信端末2は、画像データを表示可能な画面11と、操作受付部12と、通信部23と、相対位置検知部14と、データ表示領域検出部15と、表示制御部26と、解像度調整部27とを備える。通信部23は、通信確立部231と、データ送信部132と、データ受信部133とを備える。以下、実施例1との差分である通信部23(通信確立部231)、表示制御部26、解像度調整部27について詳細に説明する。
 通信確立部231は、通信可能な他端末と通信を確立し、通信可能な他端末の解像度を受信し、自端末の解像度を送信する(SS231)。図11の例では、通信端末2Aの通信確立部231は、通信端末2Xの通信確立部231に対して、通信に必要な認証手続き等を実行し、通信を確立し、通信端末2Xの解像度を受信し、通信端末2Aの解像度を送信する。解像度調整部27は、受信した他端末の解像度と自端末の解像度に基づいて、画像の表示倍率を計算する(S27)。解像度は通常dpi(dots per inch)という単位で決められている。一方、判別画像データ(アイコン画像やサムネイル画像)は、縦横のドット数が決まっているため、判別画像データの縦横のドット数÷解像度(dpi)によって、判別画像の表示サイズ(inch)を求めることができる。従って、画像の表示倍率は、dpiの比率の逆数から求めることができる。表示制御部26は、判別画像データの移動操作後のデータ表示領域の少なくとも一部が、自端末の画面で表示可能な領域に含まれる場合に、自端末の画面で表示可能な領域に限り、表示倍率で調整した判別画像データを、移動操作後のデータ表示領域に表示する(S26)。
 図13を参照して、通信端末2A、2X間における画面表示について説明する。図13は解像度、画面サイズが異なる端末(通信端末2A、2X)間における画面表示について例示する図である。図13に示すように、通信端末2Aから通信端末2Xに判別画像データ9が移動してきた場合、通信端末2Xの表示制御部26は、計算された表示倍率で調整した判別画像データ9を表示する。このため、通信端末2Aに表示される判別画像データ9の表示サイズと、通信端末2Xに表示される判別画像データ9の表示サイズが等しくなる。
 このように、本実施例の通信端末2によれば、通信確立部231が相手端末の解像度を受信し、解像度調整部27が自端末と相手端末の解像度に基づいて画像の表示倍率を計算し、表示制御部26が計算された表示倍率で調整した判別画像データを表示するため、複数の端末間において判別画像データの表示サイズを常に等しく保つことができ、より直観的なユーザ操作を実現することができる。
 以下、図14、図15を参照して本発明の実施例3に係る通信端末について説明する。図14は本実施例の通信端末3A、3Bの構成を示すブロック図である。図15は本実施例の通信端末3A、3Bの動作を示すフローチャートである。図14には、本実施例の通信端末3を二つ(3A、3B)図示した。以下、これらの二つの通信端末3A、3Bが通信を行う場合について説明する。本実施例の通信端末3は、画像データを表示可能な画面11と、操作受付部12と、通信部13と、相対位置検知部34と、データ表示領域検出部15と、表示制御部16と、加速度センサ38とを備える。以下、実施例1との差分である相対位置検知部34、加速度センサ38について詳細に説明する。
 加速度センサ38は、端末に加えられる加速度を計測する。相対位置検知部34は、自端末および通信を確立した他端末に加えられる加速度の変化量を、所定のユーザ操作として取得して、自端末と通信を確立した他端末の相対位置を検知する(S34)。相対位置検知部34の動作について、図16、図17に示す具体例を参照して詳細に説明する。図16は相対位置検知部34に相対位置を検知させるために行う操作の例を示す図である。図17は通信端末3Aおよび通信端末3Bに加えられる加速度の時間変化を例示する図である。図16の右向き矢印は、ユーザが通信端末3Aに加える加速度の方向を示している。図16の左向き矢印は、ユーザが通信端末3Bに加える加速度の方向を示している。右向き矢印と左向き矢印は平行であるものとし、これらの矢印に平行な方向であって、右向きを正とする軸をx軸とする。この場合、図16の状態において、通信端末3Aにはx軸正方向に加速度が加えられ、通信端末3Aはx軸正方向に移動する。一方、通信端末3Bにはx軸負方向に加速度が加えられ、通信端末3Bはx軸負方向に移動する。この後、通信端末3Aと3Bとが衝突した場合、衝突の瞬間、通信端末3Aにはx軸負方向に大きな加速度が加えられ、通信端末3Bにはx軸正方向に大きな加速度が加えられる。以上の加速度変化をグラフに図示すれば図17のようになる。図17は、縦軸をx軸方向の加速度とし、横軸を時間とした加速度の時系列変化を示すグラフである。実線で示すグラフは端末3Aに加えられる加速度の時系列変化を示している。破線で示すグラフは端末3Bに加えられる加速度の時系列変化を示している。図17のように、加速度の変化量が所定値以上となる瞬間を相手端末との衝突の瞬間と考え、衝突の直後における加速度の方向を取得すれば、相手端末と自端末との相対位置を検知することができる。
 従って、加速度センサ38は、予め定めた方向(図17の例におけるx軸方向)の加速度を計測し、相対位置検知部34は、加速度センサ38が計測した方向の加速度の時系列変化を取得する。相対位置検知部34は、取得したx軸方向の加速度の時系列変化から、加速度の変化量が所定値以上となる時刻を取得し、当該時刻における加速度の方向から、相手端末と自端末との相対位置を検知する。
 このように、本実施例の通信端末3によれば、相対位置検知部34が加速度の変化量が所定値以上となる時刻における加速度の方向から相手端末と自端末の相対位置を検知するため、ユーザは通信端末同士をぶつけあうという単純な操作を実行するだけで、通信端末に相対位置の検知をさせることができるため、より直観的なユーザ操作を実現することができる。
 以下、図18、図19を参照して本発明の実施例4に係る通信端末について説明する。図18は本実施例の通信端末4A、4Bの構成を示すブロック図である。図19は本実施例の通信端末4A、4Bの動作を示すフローチャートである。図18には、本実施例の通信端末4を二つ(4A、4B)図示した。以下、これらの二つの通信端末4A、4Bが通信を行う場合について説明する。本実施例の通信端末4は、画像データを表示可能な画面11と、操作受付部12と、通信部13と、相対位置検知部44と、データ表示領域検出部15と、表示制御部16とを備える。以下、実施例1との差分である相対位置検知部44について詳細に説明する。相対位置検知部44は、画面11を予め複数領域に分割した分割領域のうち、何れの分割領域に対する画面タッチ操作が取得されたかに基づいて、自端末と通信を確立した他端末の相対位置を検知する(S44)。相対位置検知部44の動作について、図20、図21に示す具体例を参照して詳細に説明する。図20、図21は予め設定される分割領域を例示する図である。相対位置検知部44は、例えば図20のように、画面11の対角線で区切られる四つの分割領域A、B、C、Dを予め記憶しておき、ユーザ操作が何れの分割領域に対する画面タッチ操作であるかを検出する。図20の例では、通信端末4Aの相対位置検知部44は、分割領域Dに対する画面タッチ操作を取得する。一方、通信端末4Bの相対位置検知部44は、分割領域Aに対する画面タッチ操作を取得する。通信端末4A、4Bの相対位置検知部44は、通信端末4Aの分割領域D、通信端末4Bの分割領域Aがタッチ操作されたことに基づいて、通信端末4Aの右端辺が、通信端末4Bの上端辺と接触した状態にあるものとして通信端末4Aと通信端末4Bの相対位置を検知する。また、相対位置検知部44は例えば図21のように、画面11の左右上下を縁取るように連続配置された方形の分割領域A-1からA-4、B-1からB-5、C-1からC-4、D-1からD-5を予め記憶しておき、ユーザ操作が何れの分割領域に対する画面タッチ操作であるかを検出する。図21の例では、通信端末4Aの相対位置検知部44は、分割領域D-5に対する画面タッチ操作を取得する。一方、通信端末4Bの相対位置検知部44は、分割領域B-1に対する画面タッチ操作を取得する。通信端末4A、4Bの相対位置検知部44は、通信端末4Aの分割領域D-5、通信端末4Bの分割領域B-1がタッチ操作されたことに基づいて、通信端末4Aの分割領域D-5に近い端部が、通信端末4Bの分割領域B-1に近い端部と接触した状態にあるものとして通信端末4Aと通信端末4Bの相対位置を検知する。
 このように、本実施例の通信端末4によれば、相対位置検知部44が画面11を予め複数領域に分割した分割領域のうち、何れの分割領域に対する画面タッチ操作が取得されたかに基づいて、自端末と通信を確立した他端末の相対位置を検知するため、より正確に相対位置を検知することができ、よりリアルな画面表示を実現することができる。
 以下、図22、図23を参照して本発明の実施例5に係る通信端末について説明する。図22は本実施例の通信端末5A、5Bの構成を示すブロック図である。図23は本実施例の通信端末5A、5Bの動作を示すフローチャートである。図22には、本実施例の通信端末5を二つ(5A、5B)図示した。以下、これらの二つの通信端末5A、5Bが通信を行う場合について説明する。本実施例の通信端末5は、画像データを表示可能な画面11と、操作受付部12と、通信部13と、相対位置検知部14と、データ表示領域検出部55と、表示制御部16と、傾きセンサ58とを備える。以下、実施例1との差分であるデータ表示領域検出部55と、傾きセンサ58について詳細に説明する。
 傾きセンサ58は、端末の傾きを検知する。傾きセンサは加速度センサ、角速度センサ等で実現可能である。データ表示領域検出部55は、自端末および通信を確立した他端末の傾きを取得して、表示位置移動操作として検出し、判別画像データの移動操作後のデータ表示領域を検出する(S55)。データ表示領域検出部55の動作について、図24に示す具体例を参照して詳細に説明する。図24は端末を傾けることにより判別画像データが移動する態様を例示する図である。図24に示すように、通信端末5Aが傾けられた場合、データ表示領域検出部55は、通信端末5Aの傾きを取得し、当該取得した傾きを判別画像データを鉛直下方向に移動させることを示す表示位置移動操作として検出し、判別画像データ9の移動操作後のデータ表示領域を検出する。鉛直下方向への移動速度は予め定めておくことができる。移動速度を遅く設定しておけば、判別画像データ9が鉛直下方向に向かって、ゆっくりと移動するため、あたかも判別画像データ9が水中に沈んでいくかのような演出をすることができる。図24に示すように、当初通信端末5Aに表示されていた判別画像データ9は、通信端末5Aを傾けることにより、鉛直下方向に落下し、通信端末5Aよりも鉛直下方向に位置する通信端末5Bで表示可能な領域まで移動する。通信端末5Bの表示制御部16は、判別画像データ9を移動操作後のデータ表示領域に表示する。
 このように、本実施例の通信端末5によれば、データ表示領域検出部55が端末の傾きを表示位置移動操作として検出するため、ユーザはあたかも水を注ぐような動作でデータの受け渡しをすることができ、直観的で嗜好性の高いユーザ操作、データ受け渡しが実現する。
 また、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
 また、上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
 なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (16)

  1.  画像データを表示可能な画面を含む通信端末であって、
     ファイル内容を判別させるための画像データを、判別画像データというものとし、
     ユーザ操作を受け付ける操作受付部と、
     通信可能な他端末と通信を確立する通信確立部と、
     前記通信を確立した他端末に送信されていない判別画像データであって、前記自端末に表示中の判別画像データを前記通信を確立した他端末に送信するデータ送信部と、
     前記通信を確立した他端末から判別画像データを受信するデータ受信部と、
     所定のユーザ操作を取得して、自端末と前記通信を確立した他端末の相対位置を検知する相対位置検知部と、
     前記自端末および前記通信を確立した他端末に対するユーザ操作を取得して、前記自端末および通信を確立した他端末に表示中の判別画像データの表示位置移動操作を検知して、前記相対位置に基づいて、当該判別画像データの移動操作後のデータ表示領域を検出するデータ表示領域検出部と、
     前記判別画像データの移動操作後のデータ表示領域の少なくとも一部が、前記自端末の画面で表示可能な領域に含まれる場合に、前記自端末の画面で表示可能な領域に限り、前記判別画像データを前記移動操作後のデータ表示領域に表示する表示制御部と、
    を含む通信端末。
  2.  請求項1に記載の通信端末であって、
     端末に加えられる加速度を計測する加速度センサをさらに含み、
     前記相対位置検知部が、
     前記自端末および前記通信を確立した他端末に加えられる加速度の変化量を、前記所定のユーザ操作として取得する
    通信端末。
  3.  請求項1に記載の通信端末であって、
     前記相対位置検知部が、
     前記自端末および前記通信を確立した他端末に対する画面タッチ操作を、前記所定のユーザ操作として取得する
    通信端末。
  4.  請求項3に記載の通信端末であって、
     前記相対位置検知部が、
     前記画面を予め複数領域に分割した分割領域のうち、何れの分割領域に対する画面タッチ操作が取得されたかに基づいて、自端末と前記通信を確立した他端末の相対位置を検知する
    通信端末。
  5.  請求項1から4の何れかに記載の通信端末であって、
     前記データ送信部は、
     前記通信を確立した他端末に送信されていないファイルデータに対応する判別画像データのデータ表示領域のうち前記通信を確立した他端末の画面で表示可能な領域が占める割合が所定値以上となる場合に、前記判別画像データと対応するファイルデータを前記通信を確立した他端末に送信し、
     前記データ受信部は、
     前記通信を確立した他端末からファイルデータを受信する
    通信端末。
  6.  請求項1から5の何れかに記載の通信端末であって、
     データ表示領域検出部が、
     前記自端末および前記通信を確立した他端末に対する判別画像データのドラッグ操作を取得して、前記表示位置移動操作として検出する
    通信端末。
  7.  請求項1から5の何れかに記載の通信端末であって、
     端末の傾きを検知する傾きセンサをさらに含み、
     データ表示領域検出部が、
     前記自端末および前記通信を確立した他端末の傾きを取得して、前記表示位置移動操作として検出する
    通信端末。
  8.  画像データを表示可能な画面を含む通信端末が実行する画面表示方法であって、
     ファイル内容を判別させるための画像データを、判別画像データというものとし、
     ユーザ操作を受け付ける操作受付ステップと、
     通信可能な他端末と通信を確立する通信確立ステップと、
     前記通信を確立した他端末に送信されていない判別画像データであって、前記自端末に表示中の判別画像データを前記通信を確立した他端末に送信するデータ送信ステップと、
     前記通信を確立した他端末から判別画像データを受信するデータ受信ステップと、
     所定のユーザ操作を取得して、自端末と前記通信を確立した他端末の相対位置を検知する相対位置検知ステップと、
     前記自端末および前記通信を確立した他端末に対するユーザ操作を取得して、前記自端末および通信を確立した他端末に表示中の判別画像データの表示位置移動操作を検知して、前記相対位置に基づいて、当該判別画像データの移動操作後のデータ表示領域を検出するデータ表示領域検出ステップと、
     前記判別画像データの移動操作後のデータ表示領域の少なくとも一部が、前記自端末の画面で表示可能な領域に含まれる場合に、前記自端末の画面で表示可能な領域に限り、前記判別画像データを前記移動操作後のデータ表示領域に表示する表示制御ステップと、
    を含む画面表示方法。
  9.  画像データを表示可能な画面を含む通信端末が実行する画面表示方法であって、
     ファイル内容を判別させるための画像データを、判別画像データというものとし、
     ユーザ操作を受け付ける操作受付ステップと、
     通信可能な他端末と通信を確立する通信確立ステップと、
     所定のユーザ操作を取得して、自端末と前記通信を確立した他端末の相対位置を検知する相対位置検知ステップと、
     前記通信を確立した他端末に送信されていない判別画像データであって、前記自端末に表示中の判別画像データを前記通信を確立した他端末に送信するデータ送信ステップと、
     前記通信を確立した他端末から判別画像データを受信するデータ受信ステップと、
     前記自端末および前記通信を確立した他端末に対するユーザ操作を取得して、前記自端末および通信を確立した他端末に表示中の判別画像データの表示位置移動操作を検知して、前記相対位置に基づいて、当該判別画像データの移動操作後のデータ表示領域を検出するデータ表示領域検出ステップと、
     前記判別画像データの移動操作後のデータ表示領域の少なくとも一部が、前記自端末の画面で表示可能な領域に含まれる場合に、前記自端末の画面で表示可能な領域に限り、前記判別画像データを前記移動操作後のデータ表示領域に表示する表示制御ステップと、
    を含む画面表示方法。
  10.  請求項8または9に記載の画面表示方法であって、
     前記通信端末が、端末に加えられる加速度を計測する加速度センサをさらに含み、
     前記相対位置検知ステップが、
     前記自端末および前記通信を確立した他端末に加えられる加速度の変化量を、前記所定のユーザ操作として取得する
    画面表示方法。
  11.  請求項8または9に記載の画面表示方法であって、
     前記相対位置検知ステップが、
     前記自端末および前記通信を確立した他端末に対する画面タッチ操作を、前記所定のユーザ操作として取得する
    画面表示方法。
  12.  請求項11に記載の画面表示方法であって、
     前記相対位置検知ステップが、
     前記画面を予め複数領域に分割した分割領域のうち、何れの分割領域に対する画面タッチ操作が取得されたかに基づいて、自端末と前記通信を確立した他端末の相対位置を検知する
    画面表示方法。
  13.  請求項8から12の何れかに記載の画面表示方法であって、
     前記データ送信ステップは、
     前記通信を確立した他端末に送信されていないファイルデータに対応する判別画像データのデータ表示領域のうち前記通信を確立した他端末の画面で表示可能な領域が占める割合が所定値以上となる場合に、前記判別画像データと対応するファイルデータを前記通信を確立した他端末に送信し、
     前記データ受信ステップは、
     前記通信を確立した他端末からファイルデータを受信する
    画面表示方法。
  14.  請求項8から13の何れかに記載の画面表示方法であって、
     データ表示領域検出ステップが、
     前記自端末および前記通信を確立した他端末に対する判別画像データのドラッグ操作を取得して、前記表示位置移動操作として検出する
    画面表示方法。
  15.  請求項8から13の何れかに記載の画面表示方法であって、
     前記通信端末が端末の傾きを検知する傾きセンサをさらに含み、
     データ表示領域検出ステップが、
     前記自端末および前記通信を確立した他端末の傾きを取得して、前記表示位置移動操作として検出する
    画面表示方法。
  16.  通信端末を、請求項1から7の何れかに記載の通信端末として機能させるためのプログラムが記録された、コンピュータで読み取り可能な記録媒体。
PCT/JP2013/083307 2012-12-21 2013-12-12 通信端末、画面表示方法、記録媒体 WO2014097956A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP13865755.6A EP2919107A4 (en) 2012-12-21 2013-12-12 COMMUNICATION TERMINAL, DISPLAY METHOD AND RECORDING MEDIUM
US14/647,615 US20150294645A1 (en) 2012-12-21 2013-12-12 Communication terminal, screen display method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-279134 2012-12-21
JP2012279134A JP5892920B2 (ja) 2012-12-21 2012-12-21 通信端末、画面表示方法、プログラム

Publications (1)

Publication Number Publication Date
WO2014097956A1 true WO2014097956A1 (ja) 2014-06-26

Family

ID=50978291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/083307 WO2014097956A1 (ja) 2012-12-21 2013-12-12 通信端末、画面表示方法、記録媒体

Country Status (4)

Country Link
US (1) US20150294645A1 (ja)
EP (1) EP2919107A4 (ja)
JP (1) JP5892920B2 (ja)
WO (1) WO2014097956A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850382A (zh) * 2015-05-27 2015-08-19 联想(北京)有限公司 一种显示模组控制方法、电子设备和显示拼接群组

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150355611A1 (en) * 2014-06-06 2015-12-10 Honeywell International Inc. Apparatus and method for combining visualization and interaction in industrial operator consoles
JP6505411B2 (ja) * 2014-10-03 2019-04-24 シャープ株式会社 通信端末、通信端末の制御プログラム、およびデータ出力方法
KR20160068514A (ko) * 2014-12-05 2016-06-15 삼성전자주식회사 터치 입력을 제어하는 전자 장치 및 방법
CN104571852B (zh) * 2014-12-12 2018-09-04 百度在线网络技术(北京)有限公司 图标的移动方法及装置
CN106850719B (zh) 2015-12-04 2021-02-05 珠海金山办公软件有限公司 一种数据传输方法及装置
EP3485367B1 (en) * 2016-10-25 2023-03-08 Hewlett-Packard Development Company, L.P. Controlling content displayed on multiple display devices
JP6677692B2 (ja) * 2017-10-11 2020-04-08 ファナック株式会社 表示装置、管理装置、管理システム及び制御プログラム
JP7075202B2 (ja) * 2017-12-18 2022-05-25 日本放送協会 端末装置
TWI784219B (zh) * 2019-12-12 2022-11-21 宏碁股份有限公司 電子裝置與其資料傳輸方法
US11550404B2 (en) * 2021-05-14 2023-01-10 Microsoft Technology Licensing, Llc Tilt-responsive techniques for sharing content

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007531158A (ja) * 2004-03-31 2007-11-01 モトローラ・インコーポレイテッド コンテンツの管理及び制御の方法及び装置
JP2010262330A (ja) * 2009-04-30 2010-11-18 Sony Corp 送信装置および方法、受信装置および方法、並びに送受信システム
JP2011065518A (ja) * 2009-09-18 2011-03-31 Brother Industries Ltd 画像表示装置、画像表示方法、及び画像表示プログラム
JP2011197776A (ja) * 2010-03-17 2011-10-06 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011124746A1 (en) * 2010-04-08 2011-10-13 Nokia Corporation Method, apparatus and computer program product for joining the displays of multiple devices
JP2011248784A (ja) 2010-05-28 2011-12-08 Toshiba Corp 電子機器、及び表示制御方法
JP2012133068A (ja) * 2010-12-21 2012-07-12 Yahoo Japan Corp マルチディスプレイシステム、端末、方法及びプログラム
JP2012185297A (ja) * 2011-03-04 2012-09-27 Sharp Corp マルチディスプレイシステム、情報処理端末装置、情報処理方法及びコンピュータプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331840B1 (en) * 1998-03-27 2001-12-18 Kevin W. Nielson Object-drag continuity between discontinuous touch screens of a single virtual desktop
JP5092255B2 (ja) * 2006-03-09 2012-12-05 カシオ計算機株式会社 表示装置
JP4621157B2 (ja) * 2006-03-09 2011-01-26 富士フイルム株式会社 携帯型画像通信システムならびにそのシステムを構成する送信装置および受信装置ならびにそれらの制御方法
US8391786B2 (en) * 2007-01-25 2013-03-05 Stephen Hodges Motion triggered data transfer
US20090140986A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Method, apparatus and computer program product for transferring files between devices via drag and drop
US20090322689A1 (en) * 2008-06-30 2009-12-31 Wah Yiu Kwong Touch input across touch-sensitive display devices
JP2010021810A (ja) * 2008-07-10 2010-01-28 Ubiquitous Entertainment Inc 無線通信ネットワークを経由したファイル転送プログラム及びファイル転送方法
JP2010108212A (ja) * 2008-10-30 2010-05-13 Kyocera Corp コンテンツ処理システム、端末装置及びコンテンツ処理方法
JP4697558B2 (ja) * 2009-03-09 2011-06-08 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2011048610A (ja) * 2009-08-27 2011-03-10 Jvc Kenwood Holdings Inc 画像表示システム、及び画像表示方法
JP5441619B2 (ja) * 2009-10-30 2014-03-12 ソニーモバイルコミュニケーションズ, エービー 近距離無線通信装置、近距離無線通信システム、近距離無線通信装置の制御方法、近距離無線通信装置の制御プログラム、及び、携帯電話端末
JP5628625B2 (ja) * 2010-10-14 2014-11-19 京セラ株式会社 電子機器、画面制御方法および画面制御プログラム
JP2012230563A (ja) * 2011-04-26 2012-11-22 Kyocera Corp 電子機器、制御方法および制御プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007531158A (ja) * 2004-03-31 2007-11-01 モトローラ・インコーポレイテッド コンテンツの管理及び制御の方法及び装置
JP2010262330A (ja) * 2009-04-30 2010-11-18 Sony Corp 送信装置および方法、受信装置および方法、並びに送受信システム
JP2011065518A (ja) * 2009-09-18 2011-03-31 Brother Industries Ltd 画像表示装置、画像表示方法、及び画像表示プログラム
JP2011197776A (ja) * 2010-03-17 2011-10-06 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2011124746A1 (en) * 2010-04-08 2011-10-13 Nokia Corporation Method, apparatus and computer program product for joining the displays of multiple devices
JP2011248784A (ja) 2010-05-28 2011-12-08 Toshiba Corp 電子機器、及び表示制御方法
JP2012133068A (ja) * 2010-12-21 2012-07-12 Yahoo Japan Corp マルチディスプレイシステム、端末、方法及びプログラム
JP2012185297A (ja) * 2011-03-04 2012-09-27 Sharp Corp マルチディスプレイシステム、情報処理端末装置、情報処理方法及びコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2919107A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850382A (zh) * 2015-05-27 2015-08-19 联想(北京)有限公司 一种显示模组控制方法、电子设备和显示拼接群组

Also Published As

Publication number Publication date
JP2014123252A (ja) 2014-07-03
US20150294645A1 (en) 2015-10-15
EP2919107A1 (en) 2015-09-16
EP2919107A4 (en) 2016-07-13
JP5892920B2 (ja) 2016-03-23

Similar Documents

Publication Publication Date Title
JP5892920B2 (ja) 通信端末、画面表示方法、プログラム
US10778863B2 (en) Operation input system, electronic device and mobile terminal
KR101834995B1 (ko) 디바이스 간 컨텐츠 공유 방법 및 장치
US10802663B2 (en) Information processing apparatus, information processing method, and information processing system
US10171720B2 (en) Camera control application
US9910499B2 (en) System and method for detecting three dimensional gestures to initiate and complete the transfer of application data between networked devices
JP6169563B2 (ja) 携帯端末で周辺デバイスのデータを保存するための装置及び方法
US20140019874A1 (en) Method and Device for Sending File Data
CN104104585A (zh) 用于在群聊中提供私聊的装置和方法
WO2015005148A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
EP2429188A2 (en) Information processing device, information processing method, computer program, and content display system
CN108228020A (zh) 一种信息处理方法及终端
JP2017117108A (ja) 電子機器及びその制御方法
JP5830997B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20190278472A1 (en) Communication apparatus, communication method, and recording medium
WO2013008330A1 (ja) 対話型画面データ送受信システム及び対話型画面データ送受信プログラム
JP6484405B2 (ja) アプリケーション管理システム
WO2009118835A1 (ja) 画像表示処理装置、画像表示処理方法および画像表示処理プログラム
JP6996258B2 (ja) 画像処理システム、ユーザインタフェース提供方法、およびコンピュータプログラム
WO2015059992A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2024046654A (ja) 情報処理端末およびプログラム
JP2019028492A (ja) 操作装置、被操作装置および操作システム
WO2013101813A1 (en) Camera control application
EP2798833A1 (en) Camera control application
KR20120061614A (ko) 데이터 전송 방법 및 이를 이용하는 이동 단말기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13865755

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14647615

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013865755

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013865755

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE