WO2013046935A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2013046935A1
WO2013046935A1 PCT/JP2012/070042 JP2012070042W WO2013046935A1 WO 2013046935 A1 WO2013046935 A1 WO 2013046935A1 JP 2012070042 W JP2012070042 W JP 2012070042W WO 2013046935 A1 WO2013046935 A1 WO 2013046935A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
contact
detection unit
display
detected
Prior art date
Application number
PCT/JP2012/070042
Other languages
English (en)
French (fr)
Inventor
村山 貴彦
青木 宏之
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP12836676.2A priority Critical patent/EP2763012A4/en
Priority to US14/346,905 priority patent/US20140210762A1/en
Publication of WO2013046935A1 publication Critical patent/WO2013046935A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a display device for displaying information, a display method, and a program.
  • display devices In recent years, various kinds of information are displayed on electronic devices (hereinafter referred to as display devices) equipped with a display for displaying information.
  • display devices a display device that is composed of a plurality of thin display media and can be used like a book is also considered (see, for example, Patent Document 1).
  • An object of the present invention is to provide a display device, a display method, and a program that solve the above-described problems.
  • the display device of the present invention includes: A plurality of display areas adjacent to each other; A detection unit for detecting contact with the display area; In a case where the start position and the end position of the contact detected by the detection unit are included in different display areas, the first position displayed at a position corresponding to the position at which the detection unit detects the start of contact. A control unit that displays second information related to the information at a position corresponding to a position where the detection unit detects the end of the contact.
  • the display method of the present invention includes: Processing for detecting contact with a plurality of display areas adjacent to each other; When the detected start position and the end position of the contact are included in different display areas, the second information related to the first information displayed at the position corresponding to the position where the start of the contact is detected. Is displayed at a position corresponding to the position where the end of contact is detected.
  • the program of the present invention is A program for causing a display device having a plurality of display areas adjacent to each other to execute, A procedure for detecting contact with the display area; When the detected start position and the end position of the contact are included in different display areas, the second information related to the first information displayed at the position corresponding to the position where the start of the contact is detected. And a procedure for displaying the information at a position corresponding to the position where the end of the contact is detected.
  • information related to displayed information can be easily displayed.
  • FIG. 1 shows 1st Embodiment of the display apparatus of this invention. It is a figure which shows an example of matching with the 1st information memorize
  • FIG. 1 is a diagram showing a first embodiment of a display device of the present invention.
  • the display device 100 in this embodiment is provided with a plurality of display areas 110-1 and 110-2, a detection unit 120, a control unit 130, and a storage unit 140.
  • FIG. 1 only the components related to the present invention among the components included in the display device 100 are shown. Further, in FIG. 1, a case where there are two display areas is shown as an example, but three or more display areas may be used.
  • Display areas 110-1 and 110-2 display information such as images and characters (text).
  • the display areas 110-1 and 110-2 may be areas physically arranged on one display.
  • the display areas 110-1 and 110-2 may be physically separated from each other.
  • the display areas 110-1 and 110-2 are arranged adjacent to each other.
  • “adjacent” means not only that the display area 110-1 and the display area 110-2 are in complete contact, but the display area 110-1 and the display area 110-2 are arranged side by side. Including those having a gap of a predetermined width between them.
  • the detection unit 120 detects the contact and approach of an object such as a finger to the display areas 110-1 and 110-2.
  • the control unit 130 displays information in the display areas 110-1 and 110-2. Further, the control unit 130 is a continuous region movement in which the change of the region exceeds each display region based on the change of the position of the contact region or the approach region on each display region detected by the detection unit 120. Judge whether there is. If the control unit 130 determines that the operation is based on a continuous operation that crosses the boundary between the display areas 110-1 and 110-2, the control unit 130 corresponds to the position where the detection unit 120 detects the start of contact. Second information (text, image, etc.) related to the first information (text, image, etc.) displayed at the position is displayed at a position corresponding to the position where the detection unit 120 detects the end of contact.
  • the control unit 130 detects the detection unit 120. Detects the second information related to the first information displayed at the position corresponding to the position where the start of the contact is detected (including the position where the start of the contact is detected), and the detection unit 120 terminates the contact. Display at the position corresponding to the detected position. Thereafter, the position detected by the detection unit 120 as having started contact or proximity is the start position, and the position where it is detected that the approach or proximity has ended after an operation having continuity is performed beyond each display area. This is called the end position. At this time, the control unit 130 reads out the second information related to the first information from the storage unit 140 and displays the second information.
  • control unit 130 displays a map as the second information in the display area including the end position detected by the detection unit 120
  • the display position on the map related to the first information is on the end position, or The map is displayed so as to be included in the area around the end position.
  • control unit 130 displays information indicating the mutual relationship between the information displayed on or around the two positions that are the respective start positions. , And display it at a position corresponding to the end position.
  • the information indicating the relationship between the information displayed at the two points is, for example, when “Ueno Station” and “Tokyo Station” are displayed as the first information at each of the two start positions.
  • the information displayed on the display area including the position may be information indicating a train route (transfer guidance) from “Ueno Station” to the destination “Tokyo Station”. It may be map information indicating between “Ueno Station” and “Tokyo Station”, or may be information comparing time required for each means of transportation from “Ueno Station” to “Tokyo Station”.
  • the control unit 130 displays a map as the second information in the display area including the end position
  • the control unit 130 displays on the map related to each information displayed at the position corresponding to the two points that are the start positions.
  • the map is displayed so that the respective positions are respectively corresponding to the positions of the two points which are the end positions. Details of this will be described later.
  • information indicating “ICHIRO” and information indicating “Hideki Matsui” are displayed at each of two positions where the detection unit 120 has detected contact. In this case, it may be information for comparing each player's batting average this year, number of home runs, number of games played, and the like.
  • the information indicating “Ichiro” and the information indicating “Hideki Matsui” are the text data of the name itself, image information indicating the person, and an area where information articles such as news are displayed. good.
  • the information type designated on the display area for displaying the second information may be referred to. That is, the information that is exemplified as the second information, such as the batting rate of each player and the number of home runs, is a display that displays the first information as the second information when the first information is selected as the start position. Information stored in association with the information type specified on the area may be extracted and displayed. Moreover, the information related to the 1st information memorize
  • the type of information displayed by the most recent user operation in the past on the display area for displaying the second information is the news information of the person in the current year
  • current information such as news information as identification information Is specified.
  • current information related to the person and article information are acquired and displayed. If it is determined that the person has been designated as the first information by the most recent user operation, the batting average, home run number of hits, and number of games played that were held in the storage unit 140 in association with the person and the result information Etc. are displayed.
  • the control unit 130 acquires second information corresponding to the first information from the storage unit 140. Therefore, the storage unit 140 stores the first information and the second information described above in association with each other.
  • the second information is not limited to the information stored in the storage unit 140, but is specified by the communication unit 150 on the display area for displaying the second information corresponding to the first information.
  • the second information based on the type of information obtained may be acquired via a network.
  • the case where the second information is held in the storage unit 140 is mainly illustrated as an example.
  • FIG. 2 is a diagram illustrating an example of correspondence between the first information and the second information stored in the storage unit 140 illustrated in FIG.
  • the storage unit 140 shown in FIG. 1 stores the first information and the second information in association with each other.
  • the first information “A” and the second information “A ′” are stored in association with each other.
  • the control unit 130 indicates that the information displayed at the position corresponding to the position where the detection unit 120 detects the end of contact is “A ′”.
  • the first information “B” and the second information “B ′” are stored in association with each other.
  • the control unit 130 indicates that the information displayed at the position corresponding to the position where the detection unit 120 has detected the end of contact is “B ′”.
  • the first information “C” and the second information “C ′” are stored in association with each other. This is a case where the start position and the end position of the contact detected by the detection unit 120 are included in different display areas, and are displayed at a position corresponding to the position where the detection unit 120 detects the start of contact.
  • the control unit 130 indicates that the information displayed at the position corresponding to the position where the detection unit 120 detects the end of contact is “C ′”.
  • the first method and the second information will be described below by way of example.
  • text data, image data, map data, and the like are data that can be displayed in the display areas 110-1 and 110-2. good.
  • FIG. 3 is a diagram showing a first example of the appearance of the display device 100 shown in FIG.
  • two display areas 110-1 and 110-2 are physically arranged on one display.
  • the boundary between the display area 110-1 and the display area 110-2 (shown by a broken line in FIG. 3) is not particularly defined as long as an operator operating the display device 100 can recognize it.
  • it may be a field for displaying input text and a field for displaying conversion candidates, which are displayed on a display when inputting the text of an e-mail on a mobile terminal.
  • FIG. 4 is a diagram showing a second example of the appearance of the display device 100 shown in FIG.
  • the display area 110-1 and the display area 110-2 are physically separated as shown in FIG.
  • the display area 110-1 and the display area 110-2 may be arranged in the same casing, or as shown in FIG. 4, different housings connected by hinges or the like. It may be arranged at 200-1 and 200-2, respectively.
  • FIG. 5 is a flowchart for explaining a display method in the display device 100 shown in FIG.
  • step 1 it is determined whether or not the detection unit 120 has detected the start of contact with a display area of a contact body such as a finger.
  • step 2 the control unit 130 uses the first information displayed at the position corresponding to the position where the start of contact is detected as a search key. However, the second information related to the first information is retrieved from the correspondence stored in the storage unit 140 and read.
  • the detection unit 120 determines whether or not the end of contact has been detected. That is, the detection unit 120 determines whether or not a contact body such as a finger that has been in contact with the display area has left the display area.
  • the position where the end of contact is detected in step 4 is included in a display area different from the display area including the position where the start of contact is detected.
  • the control unit 130 determines whether or not it is a position to be touched.
  • the process ends without doing anything.
  • the control unit 130 determines the end position, that is, the position where the second information is displayed.
  • step 6 the control unit 130 displays the second information at a position corresponding to the determined position.
  • FIG. 6 is a diagram illustrating an example of a state when the detection unit 120 illustrated in FIG. 1 detects the start of contact with the display region 110-1. A case where the display device 100 has an appearance as shown in FIG. 4 will be described as an example (hereinafter the same).
  • the control unit 130 searches the storage unit 140 for information related to the Tokyo Sky Tree.
  • FIG. 7 is a diagram illustrating an example of a state when the detection unit 120 illustrated in FIG. 1 detects the end of contact in the display area 110-2.
  • the operator who operates the display device 100 keeps the finger in contact with the display area 110-1, slides the finger to the display area 110-2, and releases it from the display area 110-2. Then, the detection unit 120 detects the end of the contact, and the control unit 130 displays information related to the Tokyo Sky Tree at the position where the end of the contact is detected.
  • a map is displayed in the display area 110-2, and the position where the detection unit 120 detects the end of the contact is displayed so as to correspond to the position on the Tokyo Sky Tree map. Therefore, when the operator removes the finger that was in contact with the lower part of the display area 110-2 from the display area 110-2, the detection unit 120 detects the end of the contact in the lower part of the display area 110-2.
  • the map is displayed so that the position of the Tokyo Sky Tree on the map is below the display area 110-2.
  • the display device 100 when the display device 100 is equipped with a function for acquiring the current position information of the display device 100 such as a GPS (Global Positioning System) function, the position of the display device 100, the position of the Tokyo Sky Tree, A map showing the positional relationship may be displayed as the second information. At this time, the position of the display device 100 on the map is displayed at a position determined in the display area 110-2, and the position of the Tokyo Sky Tree map is displayed at the position where the detection unit 120 detects the end of contact. Is done.
  • a function for acquiring the current position information of the display device 100 such as a GPS (Global Positioning System) function
  • GPS Global Positioning System
  • the displayed map may be a general map, a map using an aerial photograph, or a display using street view.
  • FIG. 8 is a diagram showing an example of how two pieces of information are displayed in the display area 110-1 shown in FIG.
  • FIG. 9 is a diagram illustrating an example of a state when the detection unit 120 illustrated in FIG. 1 detects the start of two points of contact with the display area 110-1.
  • the control unit 130 searches for information indicating the mutual relationship between “Tokyo Dome” and “Suidobashi”.
  • information indicating the mutual relationship between “Tokyo Dome” and “Suidobashi” includes, for example, a map showing the positional relationship between Tokyo Dome and Suidobashi Station, and a professional baseball night game played at Tokyo Dome.
  • Information indicating the hourly congestion status of Suidobashi Station in the case of breakage can be considered.
  • FIG. 10 is a diagram illustrating an example of a state when the detection unit 120 illustrated in FIG. 1 detects the end of contact of two points in the display area 110-2.
  • an operator who operates the display device 100 keeps two fingers in contact with two points of the display area 110-1, and slides the two fingers to the display area 110-2.
  • the detection unit 120 detects the end of the contact of two points
  • the control unit 130 detects the end of the contact and the information indicating the relationship between the two points. Is displayed.
  • FIG. 10 shows an example in which the control unit 130 displays a map in the display area 110-2.
  • the detection unit 120 relates to each piece of information displayed at two points where the start of contact is detected.
  • the map is displayed so that the respective positions on the map to be detected are the two positions where the detection unit 120 detects the end of the contact. That is, in the display area 110-2, the position of the Tokyo Dome on the map is the one point where the detection unit 120 detects the end of the detection, and the position of the Suidobashi station on the map is the detection unit 120. It is displayed at the position of the other point where the end of detection is detected.
  • the control unit 130 causes the display area 110-2 to display a map with an enlarged scale. Further, when the operator releases his / her finger from the display area 110-2, if the two fingers are released from the display area 110-2 in a state where the distance between the two fingers in contact is reduced, the scale is small. A map is displayed.
  • FIG. 11 is a diagram showing a second embodiment of the display device of the present invention.
  • the display device 101 includes a plurality of display areas 110-1 and 110-2, a detection unit 120, a control unit 131, and a communication unit 150.
  • FIG. 11 shows only the components related to the present invention among the components included in the display device 101.
  • a case where there are two display areas is shown as an example, but three or more display areas may be used.
  • the display areas 110-1 to 110-3 are the same as those shown in FIG.
  • the detection unit 120 is the same as that shown in FIG.
  • the control unit 131 does not search and read out the second information related to the first information from the storage unit 140 as in the first embodiment, but with the display device 101 via the communication unit 150. Obtained from a connected external predetermined server. In this acquisition, the second information is searched at a search site or the like using the first information as a search key, and the related information is acquired from the server storing the searched second information. Also good.
  • the other functions of the control unit 131 are the same as the functions of the control unit 130 shown in FIG.
  • the communication unit 150 communicates with a predetermined external server connected to the display device 101.
  • the predetermined server is a communication device arranged at a site connected to a general communication network and stores various information. Further, the server with which the communication unit 150 communicates is not limited to a single server, and may be a plurality of servers according to information.
  • FIG. 12 is a flowchart for explaining a display method in the display device 101 shown in FIG.
  • step 11 it is determined whether or not the detection unit 120 has detected the start of contact with a display area of a contact body such as a finger.
  • the control unit 131 uses the first information displayed at the position corresponding to the position where the start of contact is detected as a search key.
  • the second information related to the first information is acquired from an external server or the like via the communication unit 150.
  • the detection unit 120 determines whether or not the end of contact has been detected. That is, the detection unit 120 determines whether or not a contact body such as a finger that has been in contact with the display area has left the display area.
  • the position where the end of contact is detected in step 14 is included in a display area different from the display area including the position where the start of contact is detected.
  • the control unit 131 determines whether or not it is a position to be touched.
  • the process ends without doing anything.
  • the control unit 131 determines the position for displaying the second information.
  • step 16 the control unit 131 displays the second information at a position corresponding to the determined position.
  • the second information may be information according to the first information and an operation performed immediately before the contact operation.
  • the display unit 100 when the display device 100 has a communication function and detects a contact operation described above after performing a call or email transmission / reception, the display unit 100 is displayed at a position corresponding to the position where the start of the contact is detected.
  • the second information may be related information between the first information and the information of the other party who is making a call or sending / receiving e-mail.
  • the display position of the first information “baseball” displayed in the display area 110-1 within a predetermined period is set as the start position, and the detection unit
  • the control unit 130 determines that “Mr.
  • information related to the displayed information can be displayed at a desired position, or information indicating the relationship between a plurality of information can be easily displayed.
  • the display devices 100 and 101 can be applied to devices such as mobile phones, mobile terminals, tablet-type and notebook-type PCs (Personal Computers), smartphones, PDAs (Personal Digital Assistants), game machines, and electronic books. It is.
  • each component provided in the display devices 100 and 101 described above may be performed by a logic circuit that is produced according to the purpose.
  • a computer program (hereinafter referred to as a program) in which processing contents are described as a procedure is recorded on a recording medium readable by the display devices 100 and 101, and the program recorded on the recording medium is stored in the display devices 100 and 101. It may be read and executed.
  • Recording media that can be read by the display devices 100 and 101 include transferable recording media such as a floppy (registered trademark) disk, a magneto-optical disk, a DVD, and a CD, as well as a ROM built in the display devices 100 and 101, It refers to a memory such as a RAM or an HDD.
  • the program recorded on the recording medium is read by the control units 130 and 131 provided in the display devices 100 and 101, and the same processing as described above is performed under the control of the control units 130 and 131.
  • the control units 130 and 131 operate as a computer that executes a program read from a recording medium on which the program is recorded.
  • Appendix 1 A plurality of display areas adjacent to each other; A detection unit for detecting contact with the display area; When the start position and the end position of the contact detected by the detection unit are included in different display areas, the first position displayed at a position corresponding to the position at which the detection unit detects the start of contact. And a control unit that displays second information related to the information at a position corresponding to a position where the detection unit detects the end of the contact.
  • Appendix 2 In the display device according to Appendix 1, When the control unit displays a map as the second information in the display area where the detection unit detects the end of the contact, the position on the map related to the first information indicates the end of the contact. A display device that displays the map so that the position corresponds to the detected position.
  • Appendix 4 In the display device described in Appendix 3, When the control unit displays a map as the second information in the display area where the detection unit detects the end of the contact, the control unit displays the map at a position corresponding to two points where the detection unit detects the start of the contact. The map is displayed so that each display position on the map related to each piece of information is a position corresponding to the position of the two points where the detection unit detects the end of the contact. Display device.
  • the control unit displays the second information according to the first information and the immediately preceding operation.
  • Appendix 6 In the display device according to any one of appendices 1 to 5, A storage unit that stores the first information and the second information in association with each other; The control unit reads out the second information stored in association with the first information as information related to the first information from the storage unit, and displays the second information A display device characterized by that.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 検知部(120)が、表示領域(110-1),(110-2)への接触を検知し、検知部(120)が検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域(110-1),(110-2)に含まれる場合、制御部(130)が、検知部(120)が接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、検知部(120)が接触の終了を検知した位置に対応する位置に表示させる。

Description

表示装置
 本発明は、情報を表示する表示装置、表示方法およびプログラムに関する。
 近年、情報を表示するディスプレイが搭載された電子機器(以下、表示装置と称する)には、多種多様な情報が表示される。このような表示装置の中には、複数の薄い表示媒体から構成され、書籍のように利用することができるものも考えられている(例えば、特許文献1参照。)。
特開2003-58081号公報
 しかしながら、上述した技術においては、ディスプレイに表示された情報に関連する情報を見るには、検索用サイト等に接続してその情報を検索キーとして入力・検索して表示させたり、他の表示媒体に表示されている情報を手動・目視で探したりしなければならない。そのため、その手間がかかってしまうという問題点がある。
 本発明の目的は、上述した課題を解決する表示装置、表示方法およびプログラムを提供することである。
 本発明の表示装置は、
 互いに隣接する複数の表示領域と、
 前記表示領域への接触を検知する検知部と、
 前記検知部が検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域に含まれる場合、前記検知部が接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、前記検知部が前記接触の終了を検知した位置に対応する位置に表示させる制御部とを有する。
 また、本発明の表示方法は、
 互いに隣接する複数の表示領域への接触を検知する処理と、
 前記検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域に含まれる場合、前記接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、前記接触の終了を検知した位置に対応する位置に表示させる処理とを行う。
 また、本発明のプログラムは、
 互いに隣接する複数の表示領域を具備する表示装置に実行させるためのプログラムであって、
 前記表示領域への接触を検知する手順と、
 前記検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域に含まれる場合、前記接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、前記接触の終了を検知した位置に対応する位置に表示させる手順とを実行させる。
 以上説明したように、本発明においては、表示されている情報に関連する情報を容易に表示させることができる。
本発明の表示装置の第1の実施の形態を示す図である。 図1に示した記憶部に記憶されている第1の情報と第2の情報との対応付けの一例を示す図である。 図1に示した表示装置の外観の第1の例を示す図である。 図1に示した表示装置の外観の第2の例を示す図である。 図1に示した表示装置における表示方法を説明するためのフローチャートである。 図1に示した検知部が表示領域への接触の開始を検知したときの様子の一例を示す図である。 図1に示した検知部が表示領域にて接触の終了を検知したときの様子の一例を示す図である。 図1に示した表示領域に2つの情報が表示されている様子の一例を示す図である。 図1に示した検知部が表示領域への2点の接触の開始を検知したときの様子の一例を示す図である。 図1に示した検知部が表示領域にて2点の接触の終了を検知したときの様子の一例を示す図である。 本発明の表示装置の第2の実施の形態を示す図である。 図11に示した表示装置における表示方法を説明するためのフローチャートである。
 以下に、本発明の実施の形態について図面を参照して説明する。
 図1は、本発明の表示装置の第1の実施の形態を示す図である。
 本形態における表示装置100には図1に示すように、複数の表示領域110-1,110-2と、検知部120と、制御部130と、記憶部140とが設けられている。なお、図1においては、表示装置100が具備する構成要素のうち、本発明に関わるもののみを示した。また、図1において、表示領域が2つである場合を例に挙げて示しているが、3つ以上であっても良い。
 表示領域110-1,110-2は、画像や文字(テキスト)等の情報を表示する。また、表示領域110-1,110-2は、物理的に1つのディプレイ上に配置される領域であっても良い。また、表示領域110-1,110-2は、互いに物理的に分離されているものであっても良い。ただし、表示領域110-1,110-2は、互いに隣接して配置される。ここでの「隣接」とは、表示領域110-1と表示領域110-2とが完全に接触しているもののみではなく、表示領域110-1と表示領域110-2とが並んでおり、それらの間に、所定の幅の隙間があるものも含む。
 検知部120は、表示領域110-1,110-2への指等の物体の接触や接近を検知する。
 制御部130は、情報を表示領域110-1,110-2に表示させる。また、制御部130は、検知部120が検知したそれぞれの表示領域上の接触領域や、接近領域の位置変化に基づいて、その領域の変化が各表示領域を超えた連続性のある領域移動であるかどうかの判断を行う。また、制御部130は、表示領域110-1,110-2の境界を跨ぐ連続性のある操作に基づいたものであると判断した場合、検知部120が接触の開始を検知した位置に対応する位置に表示されている第1の情報(テキスト、画像等)に関連する第2の情報(テキスト、画像等)を、検知部120が接触の終了を検知した位置に対応する位置に表示させる。つまり、検知部120が接触の開始を検知した位置が含まれる表示領域と、検知部120がその接触の終了を検知した位置が含まれる表示領域とが異なる場合、制御部130は、検知部120が接触の開始を検知した位置に対応する位置に(接触の開始を検知した位置に含んで)表示されている第1の情報に関連する第2の情報を、検知部120が接触の終了を検知した位置に対応する位置に表示させる。以降、検知部120によって接触または近接を開始したと検知した位置を開始位置、その後に連続性を有する操作が各表示領域を超えて行われた後に、接近または近接を終了したと検知した位置を終了位置と称する。このとき、制御部130は、第1の情報に関連する第2の情報を、記憶部140から読み出して表示させる。
 また、制御部130は、検知部120が検知した終了位置を含む表示領域に第2の情報として地図を表示させる場合、第1の情報に関連する地図上の表示位置が、終了位置上、または当該終了位置周辺領域内に含まれるように地図を表示させる。
 また、制御部130は、開始位置と終了位置とが、それぞれ2点である場合、それぞれの開始位置である2点の位置上または当該位置周辺に表示された情報の互いの関係を示す情報を、終了位置に対応する位置に表示させる。
 この2点に表示された情報の互いの関係を示す情報とは、例えば、2つの開始位置それぞれに、第1の情報として「上野駅」と「東京駅」とが表示されている場合、終了位置を含む表示領域上に表示する情報として、「上野駅」を出発地とし、目的地となる「東京駅」までの電車のルート(乗り換えの案内)を示す情報であっても良いし、「上野駅」と「東京駅」との間を示す地図情報であっても良いし、「上野駅」から「東京駅」までの各交通手段による所要時間を比較する情報であっても良い。また、このとき、制御部130は、終了位置を含む表示領域に第2の情報として地図を表示させる場合、開始位置である2点に対応する位置に表示されたそれぞれの情報に関連する地図上のそれぞれの位置が、終了位置である2点の位置に対応する位置にそれぞれなるように地図を表示させる。この詳細については、後述する。
 また、互いの関係を示す情報として、ほかには、例えば、検知部120が接触を検知した2つの位置それぞれに、「イチロー」を示す情報と「松井秀樹」を示す情報とが表示されている場合、各選手の今年の打率や本塁打数、出場試合数等を比較する情報であっても良い。
 ここでは、「イチロー」を示す情報および「松井秀樹」を示す情報とは、その氏名そのもののテキストデータや、その人物を示す画像情報や、ニュース等の情報記事が表示された領域であっても良い。
 また、互いの関係を示す情報を指定するための識別情報として、第2の情報を表示する表示領域上で指定された情報種別を参照するものであっても良い。つまり、第2の情報として例示した、各選手の打率、本塁打数等の情報とは、第1の情報を開始位置として選択した場合に、第1の情報を、第2の情報を表示する表示領域上で指定されている情報種別とに対応付けられて記憶されている情報を抽出して表示するものであっても良い。また、直近に表示した情報の種別を識別情報として用いて、記憶部140に記憶された第1の情報と当該識別情報とに関連する情報を抽出して表示するものであっても良い。例えば、第2の情報を表示する表示領域上で、過去の直近のユーザ操作により表示していた情報の種別が、本年度の当該人物のニュース情報であれば、識別情報としてニュース情報等の時事情報が指定される。そして、当該人物に関連する時事情報や、記事情報を取得して表示する。直近のユーザ操作により、当該人物を第1の情報として指定されたと判断すると、当該人物と、成績情報とに関連付けられて記憶部140に保持されていた、今年の打率や本塁打数、出場試合数等を表示する。
 このように、直近のユーザ操作によって指定された識別情報がなくとも、あらかじめ、第2の情報を表示する表示領域上で指定されている情報種別があれば、その種別に応じた情報を表示することができる。例えば、画像表示用のプログラムやアプリケーションプログラムが、当該表示領域上で実行中であれば、当該人物の画像情報を取得して表示する。
 上述した処理を行うために、制御部130が、第1の情報に対応する第2の情報を記憶部140から取得する。そのため、記憶部140は、上述した第1の情報と第2の情報とを、あらかじめ対応付けて記憶するものとする。なお、ここで、第2の情報とは、記憶部140に保持された情報に限定せず、通信部150により、その第1の情報に対応する第2の情報を表示する表示領域上で指定された情報の種別に基づいた第2の情報を、ネットワークを介して取得するものであっても良い。ここでは、主として、第2の情報が記憶部140に保持されている場合として例示する。
 図2は、図1に示した記憶部140に記憶されている第1の情報と第2の情報との対応付けの一例を示す図である。
 図1に示した記憶部140には図2に示すように、第1の情報と第2の情報とが対応付けられて記憶されている。
 例えば、図2に示すように、第1の情報「A」と、第2の情報「A’」とが対応付けられて記憶されている。これは、検知部120が検知した接触の開始の位置と終了の位置とが、異なる表示領域に含まれる場合であって、検知部120が接触の開始を検知した位置に対応する位置に表示されている情報が「A」である場合、制御部130が、検知部120が接触の終了を検知した位置に対応する位置に表示させる情報は、「A’」であることを示している。また、第1の情報「B」と、第2の情報「B’」とが対応付けられて記憶されている。これは、検知部120が検知した接触の開始の位置と終了の位置とが、異なる表示領域に含まれる場合であって、検知部120が接触の開始を検知した位置に対応する位置に表示されている情報が「B」である場合、制御部130が、検知部120が接触の終了を検知した位置に対応する位置に表示させる情報は、「B’」であることを示している。また、第1の情報「C」と、第2の情報「C’」とが対応付けられて記憶されている。これは、検知部120が検知した接触の開始の位置と終了の位置とが、異なる表示領域に含まれる場合であって、検知部120が接触の開始を検知した位置に対応する位置に表示されている情報が「C」である場合、制御部130が、検知部120が接触の終了を検知した位置に対応する位置に表示させる情報は、「C’」であることを示している。
 なお、第1の方法および第2の情報は、以下で例を挙げて説明するが、テキストデータや、画像データ、地図データ等、表示領域110-1,110-2に表示できるデータであれば良い。
 図3は、図1に示した表示装置100の外観の第1の例を示す図である。
 図1に示した表示装置100は図3に示すように、2つの表示領域110-1,110-2が、物理的に1つのディプレイ上に配置されている。表示領域110-1と表示領域110-2との境界(図3中、破線で示したもの)は、表示装置100を操作する操作者が認識することができれば良く、特に規定しない。例えば、携帯端末で電子メールの本文を入力する際にディスプレイに表示される、入力文章を表示する欄と変換候補を表示する欄とのようなものであっても良い。
 図4は、図1に示した表示装置100の外観の第2の例を示す図である。
 図1に示した表示装置100は図4に示すように、表示領域110-1と表示領域110-2とが、物理的に分離されて配置されている。このとき、表示領域110-1と表示領域110-2とは、同一の筺体に配置されているものであっても良いし、図4に示すように、ヒンジ等で接続された互いに異なる筐体200-1,200-2にそれぞれ配置されているものであっても良い。
 以下に、図1に示した表示装置100における表示方法について説明する。
 図5は、図1に示した表示装置100における表示方法を説明するためのフローチャートである。
 まず、ステップ1にて、検知部120が、指等の接触体の表示領域への接触の開始を検知したかどうかを判別する。
 検知部120が表示領域への接触の開始を検知した場合、ステップ2にて、その接触の開始を検知した位置に対応する位置に表示されている第1の情報を検索キーとして、制御部130が、当該第1の情報と関連する第2の情報を記憶部140に記憶されている対応付けから検索して読み出す。
 その後、ステップ3にて、検知部120が、接触の終了を検知したかどうかを判別する。つまり、検知部120が、表示領域に接触していた指等の接触体が、表示領域から離れたかどうかを判別する。
 検知部120が表示領域への接触の終了を検知した場合、ステップ4にて、その接触の終了を検知した位置が、その接触の開始を検知した位置が含まれる表示領域と異なる表示領域に含まれる位置であるかどうかを制御部130が判別する。
 検知部120が接触の終了を検知した位置が、その接触の開始を検知した位置が含まれる表示領域と異なる表示領域に含まれる位置ではない場合、何もせずに、処理は終了する。
 一方、検知部120が接触の終了を検知した位置が、その接触の開始を検知した位置が含まれる表示領域と異なる表示領域に含まれる位置である場合は、ステップ5にて、制御部130は、検知部120が接触の終了を検知した位置を終了位置、つまり、第2の情報を表示させる位置として決定する。
 すると、ステップ6にて、制御部130は、決定した位置に対応する位置に第2の情報を表示させる。
 図6は、図1に示した検知部120が表示領域110-1への接触の開始を検知したときの様子の一例を示す図である。なお、表示装置100が図4に示すような外観を持つものである場合を例に挙げて説明する(以下、同じ)。
 図6に示すように、表示領域110-1に東京スカイツリーの画像を含む記事が表示さている状態で、東京スカイツリーを表示している位置において、検知部120が接触の開始を検知すると、制御部130は、東京スカイツリーに関連する情報を記憶部140から検索する。
 図7は、図1に示した検知部120が表示領域110-2にて接触の終了を検知したときの様子の一例を示す図である。
 図7に示すように、表示装置100を操作する操作者が、表示領域110-1に指を接触させたままで、その指を表示領域110-2まで滑らせて、表示領域110-2から離すと、検知部120が接触の終了を検知し、制御部130が、その接触の終了を検知した位置に、東京スカイツリーに関連する情報を表示させる。図7に示した例では、表示領域110-2に地図が表示され、検知部120が接触の終了を検知した位置が、東京スカイツリーの地図上の位置に当たるように表示される。そのため、操作者が表示領域110-2の下の方で接触していた指を表示領域110-2から離すと、検知部120が表示領域110-2の下の方で接触の終了を検知し、東京スカイツリーの地図上の位置が、表示領域110-2の下の方になるように地図が表示される。
 また、表示装置100がGPS(Global Positioning System)機能等の表示装置100の現在の位置情報を取得する機能を搭載しているものである場合、表示装置100の位置と、東京スカイツリーの位置との位置関係を示す地図が、第2の情報として表示されるものであっても良い。このとき、表示装置100の地図上の位置は、表示領域110-2において決められた位置に表示され、東京スカイツリーの地図上の位置は、検知部120が接触の終了を検知した位置に表示される。
 なお、表示される地図は、一般的な地図であっても良いし、航空写真を用いた地図であっても良いし、ストリートビューを用いた表示であっても良い。
 図8は、図1に示した表示領域110-1に2つの情報が表示されている様子の一例を示す図である。
 図8に示すように、表示領域110-1に「東京ドーム」と「水道橋」とが表示されている。
 図9は、図1に示した検知部120が表示領域110-1への2点の接触の開始を検知したときの様子の一例を示す図である。
 図9に示すように、表示領域110-1に「東京ドーム」と「水道橋」とが表示さている状態で、「東京ドーム」を表示している位置と、「水道橋」を表示している位置とにおいて、検知部120が接触の開始を検知すると、制御部130は、「東京ドーム」と「水道橋」との互いの関係を示す情報を検索する。ここで、「東京ドーム」と「水道橋」との互いの関係を示す情報としては、例えば、東京ドームと水道橋駅との位置関係を示す地図や、東京ドームでプロ野球のナイトゲームの試合が行われた場合の水道橋駅の時間別混雑状況を示す情報等が考えられる。
 図10は、図1に示した検知部120が表示領域110-2にて2点の接触の終了を検知したときの様子の一例を示す図である。
 図10に示すように、表示装置100を操作する操作者が、表示領域110-1の2点それぞれに2本の指を接触させたままで、その2本の指を表示領域110-2まで滑らせて、表示領域110-2から離すと、検知部120が2点の接触の終了を検知し、制御部130が、その接触の終了を検知した2点の位置に、互いの関係を示す情報を表示させる。
 図10では、制御部130が表示領域110-2に地図を表示させる場合を例に挙げて示しているが、検知部120が接触の開始を検知した2点に表示されたそれぞれの情報に関連する地図上のそれぞれの位置が、検知部120が接触の終了を検知した2点の位置にそれぞれなるように地図を表示させる。つまり、表示領域110-2には、東京ドームの地図上の位置が、検知部120が検知の終了を検知した1点の位置に、また、水道橋駅の地図上の位置が、検知部120が検知の終了を検知した他方の1点の位置に表示される。
 このように表示させることで、操作者が指を表示領域110-2から離すときに、接触させている2本の指の間隔を広げた状態でその2本の指を表示領域110-2から離せば、
それは、開始位置である2点間の距離に対し、終了位置にある2点間の距離が拡大されたことを示す。この距離間拡大処理および開始位置間の距離に対する拡大率に応じて、制御部130は、縮尺を拡大した地図として表示領域110-2に表示させる。また、操作者が指を表示領域110-2から離すときに、接触させている2本の指の間隔を狭めた状態でその2本の指を表示領域110-2から離せば、縮尺の小さな地図が表示される。
 図11は、本発明の表示装置の第2の実施の形態を示す図である。
 本形態における表示装置101には図11に示すように、複数の表示領域110-1,110-2と、検知部120と、制御部131と、通信部150とが設けられている。なお、図11には、表示装置101が具備する構成要素のうち、本発明に関わるもののみを示した。また、図11において、表示領域が2つである場合を例に挙げて示しているが、3つ以上であっても良い。
 表示領域110-1~110-3は、図1に示したものと同じである。
 検知部120は、図1に示したものと同じである。
 制御部131は、第1の情報に関連する第2の情報を、第1の実施の形態のように記憶部140から検索して読み出すのではなく、通信部150を介して、表示装置101と接続された外部の所定のサーバから取得する。この取得では、第1の情報を検索キーとして、検索サイト等で第2の情報の検索を行い、検索された第2の情報が格納されているサーバからその関連情報を取得するものであっても良い。また、制御部131が具備するその他の機能については、図1に示した制御部130の機能と同じである。
 通信部150は、表示装置101と接続された外部の所定のサーバとの間で通信を行う。この所定のサーバとは、一般的な通信ネットワークと接続されたサイトに配置されている通信装置であり、様々な情報が格納されているものである。また、通信部150が通信を行うサーバは、1つのサーバに限らず、情報に応じて、複数のサーバであっても良い。
 以下に、図11に示した表示装置101における表示方法について説明する。
 図12は、図11に示した表示装置101における表示方法を説明するためのフローチャートである。
 まず、ステップ11にて、検知部120が、指等の接触体の表示領域への接触の開始を検知したかどうかを判別する。
 検知部120が表示領域への接触の開始を検知した場合、ステップ12にて、その接触の開始を検知した位置に対応する位置に表示されている第1の情報を検索キーとして、制御部131が、当該第1の情報と関連する第2の情報を通信部150を介して、外部のサーバ等から取得する。
 その後、ステップ13にて、検知部120が、接触の終了を検知したかどうかを判別する。つまり、検知部120が、表示領域に接触していた指等の接触体が、表示領域から離れたかどうかを判別する。
 検知部120が表示領域への接触の終了を検知した場合、ステップ14にて、その接触の終了を検知した位置が、その接触の開始を検知した位置が含まれる表示領域と異なる表示領域に含まれる位置であるかどうかを制御部131が判別する。
 検知部120が接触の終了を検知した位置が、その接触の開始を検知した位置が含まれる表示領域と異なる表示領域に含まれる位置ではない場合、何もせずに、処理は終了する。
 一方、検知部120が接触の終了を検知した位置が、その接触の開始を検知した位置が含まれる表示領域と異なる表示領域に含まれる位置である場合は、ステップ15にて、制御部131は、検知部120が接触の終了を検知した位置を第2の情報を表示させる位置として決定する。
 すると、ステップ16にて、制御部131は、決定した位置に対応する位置に第2の情報を表示させる。
 また、第2の情報を、第1の情報と、その接触動作の直前の操作による動作とに応じた情報とするものであっても良い。
 例えば、表示装置100が通信機能を持っており、通話や電子メール送受信を行った後、上述した接触操作を検出した場合、検知部120が接触の開始を検知した位置に対応する位置に表示されている第1の情報と、通話や電子メール送受信をしていた相手の情報との関連情報を第2の情報とするものであっても良い。具体的には、操作者が、Aさんと電話をした後、所定の期間内に表示領域110-1に表示されている「野球」という第1の情報の表示位置を開始位置とし、検知部120がその接触の開始を検知して、操作者が表示領域110-2から指を離すことで、検知部120が接触の終了を検知した場合、制御部130は、「Aさん」と「野球」というキーワードを共有して有する情報を検索して表示領域110-2へ出力する。すなわち、表示装置100内に保持されている、Aさんが高校時代に所属していた野球部の情報が抽出され、第2の情報として表示領域110-2の終了位置に対応する位置に表示されるものであっても良い。記憶部140に記憶されている情報として記載したが、Aさんが保有または所持している情報であれば、サーバ上にある情報であっても良い。
 このように、表示されている情報に関連する情報を、所望の位置に表示させたり、複数の情報の互いの関係を示す情報を容易に表示させたりことができる。
 なお、表示装置100,101は、携帯電話機、携帯端末、タブレット型やノート型のPC(Personal Computer)、スマートフォン、PDA(Personal Digital Assistants)、ゲーム機、電子書籍等の装置に適用することが可能である。
 上述した表示装置100,101に設けられた各構成要素が行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を表示装置100,101にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを表示装置100,101に読み込ませ、実行するものであっても良い。表示装置100,101にて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、表示装置100,101に内蔵されたROM、RAM等のメモリやHDD等を指す。この記録媒体に記録されたプログラムは、表示装置100,101に設けられた制御部130,131にて読み込まれ、制御部130,131の制御によって、上述したものと同様の処理が行われる。ここで、制御部130,131は、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。
 上記の実施の形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)互いに隣接する複数の表示領域と、
 前記表示領域への接触を検知する検知部と、
 前記検知部が検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域に含まれる場合、前記検知部が接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、前記検知部が前記接触の終了を検知した位置に対応する位置に表示させる制御部とを有する表示装置。
 (付記2)付記1に記載の表示装置において、
 前記制御部は、前記検知部が前記接触の終了を検知した表示領域に前記第2の情報として地図を表示させる際、前記第1の情報に関連する地図上の位置が、前記接触の終了を検知した位置に対応する位置になるように前記地図を表示させることを特徴とする表示装置。
 (付記3)付記1に記載の表示装置において、
 前記制御部は、前記検知部が検知した接触の開始の位置と終了の位置とが、それぞれ2点である場合、前記検知部が前記接触の開始を検知した2点に対応する位置に表示された情報の互いの関係を示す情報を、前記検知部が前記接触の終了を検知した位置に対応する位置に表示させることを特徴とする表示装置。
 (付記4)付記3に記載の表示装置において、
 前記制御部は、前記検知部が前記接触の終了を検知した表示領域に前記第2の情報として地図を表示させる際、前記検知部が前記接触の開始を検知した2点に対応する位置に表示されたそれぞれの情報に関連する地図上のそれぞれの表示位置が、前記検知部が前記接触の終了を検知した2点の位置に対応する位置になるように前記地図を表示させることを特徴とする表示装置。
 (付記5)付記1に記載の表示装置において、
 前記制御部は、前記第1の情報と直前の動作とに応じた前記第2の情報を表示させることを特徴とする表示装置。
 (付記6)付記1から5のいずれか1項に記載の表示装置において、
 前記第1の情報と、前記第2の情報とを対応付けて記憶する記憶部を有し、
 前記制御部は、前記第1の情報に関連する情報として、該第1の情報と対応付けられて記憶されている第2の情報を前記記憶部から読み出して、前記第2の情報を表示させることを特徴とする表示装置。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年9月26日に出願された日本出願特願2011-208975を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (7)

  1.  互いに隣接する複数の表示領域と、
     前記表示領域への接触を検知する検知部と、
     前記検知部が検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域に含まれる場合、前記検知部が接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、前記検知部が前記接触の終了を検知した位置に対応する位置に表示させる制御部とを有する表示装置。
  2.  請求項1に記載の表示装置において、
     前記制御部は、前記検知部が前記接触の終了を検知した表示領域に前記第2の情報として地図を表示させる際、前記第1の情報に関連する地図上の位置が、前記接触の終了を検知した位置に対応する位置になるように前記地図を表示させることを特徴とする表示装置。
  3.  請求項1に記載の表示装置において、
     前記制御部は、前記検知部が検知した接触の開始の位置と終了の位置とが、それぞれ2点である場合、前記検知部が前記接触の開始を検知した2点に対応する位置に表示された情報の互いの関係を示す情報を、前記検知部が前記接触の終了を検知した位置に対応する位置に表示させることを特徴とする表示装置。
  4.  請求項3に記載の表示装置において、
     前記制御部は、前記検知部が前記接触の終了を検知した表示領域に前記第2の情報として地図を表示させる際、前記検知部が前記接触の開始を検知した2点に対応する位置に表示されたそれぞれの情報に関連する地図上のそれぞれの表示位置が、前記検知部が前記接触の終了を検知した2点の位置に対応する位置になるように前記地図を表示させることを特徴とする表示装置。
  5.  請求項1から4のいずれか1項に記載の表示装置において、
     前記第1の情報と、前記第2の情報とを対応付けて記憶する記憶部を有し、
     前記制御部は、前記第1の情報に関連する情報として、該第1の情報と対応付けられて記憶されている第2の情報を前記記憶部から読み出して、前記第2の情報を表示させることを特徴とする表示装置。
  6.  互いに隣接する複数の表示領域への接触を検知する処理と、
     前記検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域に含まれる場合、前記接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、前記接触の終了を検知した位置に対応する位置に表示させる処理とを行う表示方法。
  7.  互いに隣接する複数の表示領域を具備する表示装置に、
     前記表示領域への接触を検知する手順と、
     前記検知した接触の開始の位置と終了の位置とが、互いに異なる表示領域に含まれる場合、前記接触の開始を検知した位置に対応する位置に表示されている第1の情報に関連する第2の情報を、前記接触の終了を検知した位置に対応する位置に表示させる手順とを実行させるためのプログラム。
PCT/JP2012/070042 2011-09-26 2012-08-07 表示装置 WO2013046935A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP12836676.2A EP2763012A4 (en) 2011-09-26 2012-08-07 DISPLAY DEVICE
US14/346,905 US20140210762A1 (en) 2011-09-26 2012-08-07 Display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011208975 2011-09-26
JP2011-208975 2011-09-26

Publications (1)

Publication Number Publication Date
WO2013046935A1 true WO2013046935A1 (ja) 2013-04-04

Family

ID=47994987

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070042 WO2013046935A1 (ja) 2011-09-26 2012-08-07 表示装置

Country Status (4)

Country Link
US (1) US20140210762A1 (ja)
EP (1) EP2763012A4 (ja)
JP (1) JPWO2013046935A1 (ja)
WO (1) WO2013046935A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005128A (ja) * 2013-06-20 2015-01-08 シャープ株式会社 情報処理装置、プログラム
JP2017228093A (ja) * 2016-06-22 2017-12-28 シャープ株式会社 エンラージ表示用マルチディスプレイ、エンラージ接続方法、及びエンラージ表示用プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058081A (ja) 2001-08-09 2003-02-28 Casio Comput Co Ltd 電子表示装置
JP2010123082A (ja) * 2008-11-21 2010-06-03 Sharp Corp 表示装置、表示装置の制御方法、表示装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524572B1 (ko) * 2007-02-15 2015-06-01 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 인터페이스 제공 방법
US8619038B2 (en) * 2007-09-04 2013-12-31 Apple Inc. Editing interface
KR20090066368A (ko) * 2007-12-20 2009-06-24 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법
TWI358028B (en) * 2007-12-25 2012-02-11 Htc Corp Electronic device capable of transferring object b
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
US20110096014A1 (en) * 2008-06-30 2011-04-28 Tetsuya Fuyuno Information processing device, display control method, and recording medium
JP2010032280A (ja) * 2008-07-28 2010-02-12 Panasonic Corp 経路表示装置
KR101078929B1 (ko) * 2008-11-06 2011-11-01 엘지전자 주식회사 단말기 및 그 인터넷 이용 방법
KR101640460B1 (ko) * 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
KR101842906B1 (ko) * 2011-02-10 2018-05-15 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058081A (ja) 2001-08-09 2003-02-28 Casio Comput Co Ltd 電子表示装置
JP2010123082A (ja) * 2008-11-21 2010-06-03 Sharp Corp 表示装置、表示装置の制御方法、表示装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2763012A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015005128A (ja) * 2013-06-20 2015-01-08 シャープ株式会社 情報処理装置、プログラム
JP2017228093A (ja) * 2016-06-22 2017-12-28 シャープ株式会社 エンラージ表示用マルチディスプレイ、エンラージ接続方法、及びエンラージ表示用プログラム

Also Published As

Publication number Publication date
EP2763012A1 (en) 2014-08-06
EP2763012A4 (en) 2015-08-05
JPWO2013046935A1 (ja) 2015-03-26
US20140210762A1 (en) 2014-07-31

Similar Documents

Publication Publication Date Title
CN106104528A (zh) 用于屏幕上项目选择和消歧的基于模型的方法
KR102198778B1 (ko) 통지 메시지를 연관시키는 방법, 장치 및 이동 단말
US20220114221A1 (en) Searching social media content
EP3215956A1 (en) System and method for augmented reality annotations
US20100332218A1 (en) Keyword based message handling
JP2013200793A (ja) 情報処理装置、情報処理方法およびプログラム
JP6280093B2 (ja) ゲームシステムにおけるランキングリスト表示方法及び当該方法を実行するためのシステム
JP6652231B1 (ja) 会話制御プログラム、会話制御方法および情報処理装置
WO2021147421A1 (zh) 用于人机交互的自动问答方法、装置和智能设备
KR20140106887A (ko) 프로그램 표시 방법 및 그 전자 장치
CN105469104A (zh) 文本信息相似度的计算方法、装置及服务器
US20130086087A1 (en) Apparatus and method for generating and retrieving location-tagged content in computing device
WO2009024831A1 (en) A method of and a mobile communication device for producing personalised maps
WO2013046935A1 (ja) 表示装置
CN105119743B (zh) 用户行为意图的获取方法及装置
KR20150019668A (ko) 검색 연관 정보 제공 방법 및 이를 지원하는 전자 장치
CN105981357A (zh) 用于场境上的呼叫者识别的系统和方法
WO2013046942A1 (ja) 表示装置
CN109799916A (zh) 一种候选项联想方法和装置
JPWO2008149408A1 (ja) 情報検索システム、それに用いられる移動頻度管理装置およびエリア情報検索装置、移動頻度管理装置におけるプログラム、エリア情報検索装置におけるプログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2015021908A1 (en) Method, apparatus and system for security verification
JP2015052954A (ja) データ識別管理装置およびデータ識別管理方法
CN105930525A (zh) 内容搜索方法及装置
JP6442827B2 (ja) 情報提供装置、情報提供プログラム、情報提供方法、及び情報提供システム
CN107194004B (zh) 一种数据处理方法和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12836676

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012836676

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013536041

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14346905

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE