WO2014136400A1 - 携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents

携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2014136400A1
WO2014136400A1 PCT/JP2014/000970 JP2014000970W WO2014136400A1 WO 2014136400 A1 WO2014136400 A1 WO 2014136400A1 JP 2014000970 W JP2014000970 W JP 2014000970W WO 2014136400 A1 WO2014136400 A1 WO 2014136400A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
display unit
screen
image data
Prior art date
Application number
PCT/JP2014/000970
Other languages
English (en)
French (fr)
Inventor
伸二 日高
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to CN201480012077.9A priority Critical patent/CN105103116B/zh
Priority to JP2015504158A priority patent/JP6245250B2/ja
Priority to EP14760340.1A priority patent/EP2966556B1/en
Priority to US14/760,110 priority patent/US10222940B2/en
Publication of WO2014136400A1 publication Critical patent/WO2014136400A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/239Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests
    • H04N21/2393Interfacing the upstream path of the transmission network, e.g. prioritizing client content requests involving handling client requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44209Monitoring of downstream path of the transmission network originating from a server, e.g. bandwidth variations of a wireless network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6581Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/026Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0421Horizontal resolution change

Definitions

  • the present invention relates to a non-transitory computer-readable medium storing a portable terminal device, an image generation method, and a program, and in particular, stores a portable terminal device, an image generation method, and a program that generate image data indicating a displayed screen.
  • a non-transitory computer-readable medium storing a portable terminal device, an image generation method, and a program, and in particular, stores a portable terminal device, an image generation method, and a program that generate image data indicating a displayed screen.
  • a mobile terminal device such as a mobile phone or a smartphone
  • the convenience of the user can be improved by increasing the size of the screen.
  • the size of the screen is enlarged too much, the size of the entire mobile terminal device becomes large, which may be inconvenient to carry. Therefore, by providing a plurality of screens on the mobile terminal device and having a structure that can be folded or slid, it is possible to prevent inconvenience in carrying.
  • there is a technique for generating and storing image data indicating a screen displayed on a display device such as a screen shot, a screen capture, a screen dump, or a print screen. This technology is also applied to mobile phones and the like.
  • Patent Document 1 displays program content on the first display unit, and displays an image of the program content displayed on the first display unit on the second display unit as an image capture unit.
  • a mobile phone that displays an image capture button for capturing.
  • Patent Document 2 captures at least one of an image input by the first camera unit, an image input by the second camera unit, and a received image and stores it in the storage unit as a still image or a moving image.
  • a portable terminal device that can be stored, and can capture a plurality of images, combine them into one image, and store them.
  • Patent Document 1 only an image of content displayed on one display unit is captured.
  • Patent Document 2 when images taken by two cameras are displayed on two screens, they are only captured and combined into one image. That is, in the techniques of Patent Literature 1 and Patent Literature 2, when content is displayed on at least one of the plurality of display portions of the mobile terminal device using application software, the display portion to be captured is selected and displayed. It is difficult to generate data indicating the screen.
  • An object of the present invention is to solve such problems, and easily generates data indicating a screen displayed on a display unit using software according to a selection state of the display unit. It is another object of the present invention to provide a non-transitory computer-readable medium storing a portable terminal device, an image generation method, and a program.
  • a mobile terminal device includes a plurality of display units that display images, a display control unit that displays content on at least one of the plurality of display units using one or more software, and the plurality of display units Selection means for selecting one or more of the display sections, display screen acquisition means for acquiring screen data indicating the screen displayed on the display section selected by the selection means, and acquisition by the display screen acquisition means And image data generating means for generating image data based on the screen data.
  • the image generation method uses at least one software to display content on at least one of a plurality of display units that display an image provided in the mobile terminal device, and One or more of them are selected, screen data indicating the screen displayed on the selected display unit is acquired, and image data is generated based on the acquired screen data.
  • a program stored in a non-transitory computer-readable medium uses one or more software programs to store content in at least one of a plurality of display units that display an image provided in a mobile terminal device.
  • an image data generating step for generating image data based on the screen data acquired in the display screen acquiring step.
  • a portable terminal device an image generation method, and a program that can easily generate data indicating a screen displayed on a display unit using software according to a selection state of the display unit are stored.
  • Non-transitory computer readable media can be provided.
  • FIG. 1 is a plan view showing an external appearance of a mobile terminal device according to a first embodiment
  • 1 is a diagram illustrating a configuration of a mobile terminal device according to a first exemplary embodiment
  • FIG. 3 is a diagram illustrating each component realized by a control unit according to the first embodiment.
  • 3 is a flowchart showing processing according to the first exemplary embodiment
  • 3 is a flowchart showing processing according to the first exemplary embodiment
  • FIG. 6 is a diagram for explaining processing according to the first embodiment
  • FIG. 6 is a diagram for explaining processing according to the first embodiment
  • FIG. 6 is a diagram for explaining processing according to the first embodiment
  • FIG. 6 is a diagram for explaining processing according to the first embodiment
  • FIG. 6 is a diagram for explaining processing according to the first embodiment
  • FIG. 1 is a plan view showing an external appearance of a mobile terminal device according to a first embodiment
  • 1 is a diagram illustrating a configuration of a mobile terminal device according to a first exemplary embodiment
  • FIG. 3 is
  • FIG. 1 is a diagram showing an outline of a mobile terminal device 1 according to an embodiment of the present invention.
  • the mobile terminal device 1 includes a first display unit 2 and a second display unit 4 that are a plurality of display units, a display control unit 6, a selection unit 8, a display screen acquisition unit 10, And image data generation means 12.
  • the first display unit 2 and the second display unit 4 display images.
  • the display control means 6 displays content on at least one of the first display unit 2 and the second display unit 4 using one or more software.
  • the selection unit 8 selects one or more of the first display unit 2 and the second display unit 4.
  • the display screen acquisition unit 10 acquires screen data indicating the screen displayed on the display unit selected by the selection unit 8.
  • the image data generation unit 12 generates image data based on the screen data acquired by the display screen acquisition unit 10.
  • the mobile terminal device 1 According to the mobile terminal device 1 according to the embodiment of the present invention, it is possible to easily generate data indicating the screen displayed on the display unit using software according to the selection state of the display unit. .
  • data indicating the screen displayed on the display unit is easily generated using software according to the selection state of the display unit. Is possible.
  • FIG. 2 is a plan view illustrating an appearance of the mobile terminal device 100 according to the first embodiment.
  • FIG. 3 is a diagram of the mobile terminal device 100 according to the first embodiment.
  • substantially the same components are denoted by the same reference numerals.
  • the mobile terminal device 100 is, for example, a mobile phone, a smartphone, a tablet PC (Personal Computer), a mobile game machine, or the like.
  • the mobile terminal device 1 includes a first housing 102 and a second housing 104.
  • a first display portion 112 is provided in the first housing 102.
  • the second housing 104 is provided with a second display unit 114.
  • At least one of the first display unit 112 and the second display unit 114 is configured as a touch screen in which a display device and an input device are integrated. That is, the mobile terminal device 100 is configured so that the user can operate the touch panel by bringing the operating body such as a finger into contact with the surface of the first display unit 112 or the second display unit 114.
  • the portable terminal device 100 is configured to be easily carried by stacking the first housing 102 and the second housing 104 when not in use. For example, it may be foldable via a hinge (not shown) provided between the first housing 102 and the second housing 104. In addition, for example, by allowing the first casing 102 and the second casing 104 to slide relative to each other, the second casing 104 is placed under the first casing 102 when the portable terminal device 100 is not used.
  • the first housing 102 may be movable under the second housing 104 so that the first housing 102 can move.
  • an input key 120 is provided on the side surface of the second housing 104.
  • the input key 120 includes, for example, a power button 120a, a volume increase button 120b, and a volume decrease button 120c.
  • the mobile terminal device 100 can be turned on and off by pressing the power button 120a.
  • the volume of the mobile terminal device 100 can be increased by pressing the volume increase button 120b.
  • the volume of the mobile terminal device 100 can be reduced by pressing the volume reduction button 120c.
  • Display screen acquisition processing is started by operating the input key 120 by a predetermined method.
  • Display screen acquisition processing generates image data (screen data) indicating a screen displayed on at least one of the first display unit 112 and the second display unit 114, such as a screen shot, screen capture, screen dump, or print screen. The process to do.
  • An imaging unit 130 is provided in the first casing 102 or the second casing 104.
  • the imaging unit 130 is, for example, a camera, captures a subject, and generates image data indicating imaging.
  • the first housing 102 or the second housing 104 is provided with a microphone 132 and a speaker 134. Furthermore, the first housing 102 or the second housing 104 is provided with an LED (Light Emitting Diode) 136 that is turned on under the control of the control unit 200 described later.
  • LED Light Emitting Diode
  • a wireless communication unit 140 performs wireless communication with other devices via the antenna 140a to transmit / receive information.
  • the sound conversion unit 144 converts the sound data received by the wireless communication unit 140 into sound and causes the speaker 134 to output the sound data.
  • the voice conversion unit 144 converts the voice data output from the control unit 200 into voice and causes the speaker 134 to output the voice data. Further, the voice conversion unit 144 converts the voice collected by the microphone 132 into voice data and outputs the voice data to the wireless communication unit 140 or the control unit 200.
  • the storage unit 146 is, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory), and stores application software that executes various functions under the control of the control unit 200.
  • the memory 148 is a nonvolatile memory, for example, and stores various data under the control of the control unit 200.
  • the control unit 200 may include, for example, a central processing unit (CPU), a main storage device, an input / output port, and the like, and various controls using various application software (programs) stored in the storage unit 146. Execute.
  • the control unit 200 includes the first display unit 112, the second display unit 114, and the like according to the user's operation on the input key 120 or the input device provided in the first display unit 112 or the second display unit 114.
  • the operation of the imaging unit 130, the LED 136, the wireless communication unit 140, the storage unit 146, and the memory 148 is controlled.
  • control unit 200 executes application software (hereinafter simply referred to as “application”) to generate various contents. Further, the control unit 200 displays the generated content on the first display unit 112 and the second display unit 114, or any one of them.
  • the control unit 200 can simultaneously execute a plurality of applications. In this case, the control unit 200 can display the generated plurality of contents on the first display unit 112 and the second display unit 114, respectively.
  • the control unit 200 can perform display screen acquisition processing to acquire screen data indicating a screen including content displayed on the first display unit 112 and the second display unit 114. Details will be described below.
  • FIG. 4 is a diagram illustrating each component realized by the control unit 200 according to the first embodiment illustrated in FIG. 3.
  • 5 and 6 are flowcharts illustrating processing performed by the control unit 200 according to the first embodiment.
  • FIGS. 7A to 13 are diagrams for explaining processing performed by the control unit 200 according to the first embodiment.
  • the control unit 200 includes an application execution unit 202, a display control unit 204, a screen acquisition operation reception unit 206, a display screen acquisition unit 210, a selection unit 212, a selection operation reception unit 214, and an image data generation unit 220. , And an image data storage unit 222.
  • achieves is realizable by making a program run by control of the arithmetic unit (not shown) with which the control part 200 which is a computer is provided, for example. More specifically, the control unit 200 is realized by loading a program stored in the storage unit 146 into a main storage device (not shown) and executing the program under the control of the arithmetic device.
  • each component is not limited to being realized by software by a program, but may be realized by any combination of hardware, firmware, and software.
  • the control unit 200 executes the application and displays the content on at least one of the first display unit 112 and the second display unit 114 (S102). Specifically, the application execution unit 202 acquires application data from the storage unit 146 and executes the application. The application execution unit 202 generates content corresponding to the application by executing the application. Further, the application execution unit 202 outputs the generated content to the display control unit 204. The display control unit 204 performs necessary processing such as conversion processing on the content generated by the application execution unit 202. The display control unit 204 controls at least one of the first display unit 112 and the second display unit 114 so as to display the content.
  • the display control unit 204 may cause the first display unit 112 to display the content A as illustrated in FIG. 7A. At this time, the display control unit 204 may control the second display unit 114 that is not displaying content to turn off display. Thereby, power consumption can be saved. For example, when the application execution unit 202 executes the application B and generates the content B, the display control unit 204 may cause the second display unit 114 to display the content B as illustrated in FIG. 7B. . At this time, the display control unit 204 may control the first display unit 112 that is not displaying content to turn off display.
  • the display control unit 204 is displayed on both the first display unit 112 and the second display unit 114 as illustrated in FIG. Content A may be displayed. At this time, the display control unit 204 may generate the content Aa indicating the right side of the content A and generate the content Ab indicating the left side of the content A. Then, the display control unit 204 may display the content Aa on the first display unit 112 and display the content Ab on the second display unit 114.
  • the application execution unit 202 may execute the application A and the application B at the same time.
  • the application execution unit 202 may generate the content A by executing the application A and generate the content B by executing the application B.
  • the display control unit 204 may display the content A on the first display unit 112 and display the content B on the second display unit 114.
  • the control unit 200 receives a display screen acquisition operation for starting the display screen acquisition process (S104). Specifically, for example, when the user performs a predetermined operation on the input key 120, the screen acquisition operation reception unit 206 receives a signal indicating the screen acquisition operation, and displays this signal as the display screen acquisition unit 210. Output for. Thereby, the display screen acquisition unit 210 starts display screen acquisition processing.
  • the screen acquisition operation reception unit 206 may receive a signal indicating the screen acquisition operation.
  • control unit 200 determines whether the content is displayed on either the first display unit 112 or the second display unit 114 (S106). Specifically, the display screen acquisition unit 210 determines whether the display control unit 204 is displaying content on both the first display unit 112 and the second display unit 114.
  • the control unit 200 displays the content on either the first display unit 112 or the second display unit 114. It is determined whether it is displayed (S108). Specifically, for example, as illustrated in FIG. 7A, when the display control unit 204 displays content on the first display unit 112, the selection unit 212 selects “first display unit 112”. On the other hand, as illustrated in FIG. 7B, for example, when the display control unit 204 displays the content on the second display unit 114, the selection unit 212 selects the “second display unit 114”. Then, the display screen acquisition unit 210 determines which of the first display unit 112 and the second display unit 114 the selection unit 212 has selected.
  • the control unit 200 acquires screen data indicating the screen displayed on the first display unit 112 (S110). ). Specifically, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the first display unit 112. As an example of the method for acquiring the screen data, for example, a signal transmitted from the control unit 200 to the first display unit 112 may be acquired, and the screen data may be generated from the signal. The screen displayed on the 1 display unit 112 may be taken.
  • the control unit 200 generates image data corresponding to the screen displayed on the first display unit 112 (S112). Specifically, the image data generation unit 220 performs necessary processing such as data format conversion on the screen data acquired by the display screen acquisition unit 210 to generate image data. For example, as illustrated in FIG. 7A, when the screen including the content A is displayed on the first display unit 112, the image data generation unit 220 displays the image of the screen including the content A as illustrated in FIG. 10A. Is generated. Next, the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S114).
  • the control unit 200 acquires screen data indicating the screen displayed on the second display unit 114 (S120). ). Specifically, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the second display unit 114 by the same method as the process of S110.
  • the control unit 200 generates image data corresponding to the screen displayed on the second display unit 114 (S122). Specifically, the image data generation unit 220 performs necessary processing such as data format conversion on the screen data acquired by the display screen acquisition unit 210 to generate image data. For example, as illustrated in FIG. 7B, when a screen including the content B is displayed on the second display unit 114, the image data generation unit 220 may include a screen including the content B as illustrated in FIG. 10B, for example. The image data indicating the image is generated.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S114).
  • image data relating to the screen displayed on the displayed display unit can be generated. Further, in this case, after the user performs a display screen acquisition operation, image data relating to the screen displayed on the display unit can be generated without performing any operation.
  • the control unit 200 uses the same application to display the first display unit 112 and the second display unit 114. It is determined whether or not content is displayed on both (S130). Specifically, for example, as illustrated in FIG. 8, the display control unit 204 displays content on both the first display unit 112 and the second display unit 114 by one application (application A in the example of FIG. 8). If so, the selection unit 212 selects both the “first display unit 112” and the “second display unit 114”. That is, when content is displayed on both the first display unit 112 and the second display unit 114 by the same application, the selection unit 212 automatically selects the “first display unit 112” and the “second display unit 114”. Select both.
  • the display control unit 204 causes a plurality of applications (application A and application B in the example of FIG. 9) to display content on both the first display unit 112 and the second display unit 114. If it is, the selection unit 212 does not select the display unit. In this case, as will be described later, after the selection operation is performed, the selection unit 212 selects at least one of the “first display unit 112” and the “second display unit 114” according to the selection operation.
  • the display screen acquisition unit 210 determines which of the first display unit 112 and the second display unit 114 the selection unit 212 has selected.
  • the selection unit 212 selects both the “first display unit 112” and the “second display unit 114”.
  • the control unit 200 acquires two screen data indicating the screens respectively displayed on both the first display unit 112 and the second display unit 114 (S132).
  • the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the first display unit 112 by the same method as the process of S110. Similarly, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the second display unit 114. For example, in the example of FIG. 8, the display screen acquisition unit 210 acquires screen data a indicating the screen a including the content Aa displayed on the first display unit 112. Similarly, the display screen acquisition unit 210 acquires screen data b indicating the screen b including the content Ab displayed on the second display unit 114.
  • control unit 200 generates image data corresponding to the screens displayed on the first display unit 112 and the second display unit 114 (S134). Specifically, the image data generation unit 220 synthesizes two screen data acquired by the display screen acquisition unit 210. Further, the image data generation unit 220 performs necessary processing such as data format conversion on the combined screen data to generate image data.
  • the image data generation unit 220 when the screen a including the content Aa is displayed on the first display unit 112 and the screen b including the content Ab is displayed on the second display unit 114, the image data generation unit 220 is displayed. 11 generates image data indicating an image obtained by combining the screen a and the screen b, as illustrated in FIG. That is, as illustrated in FIG. 8, the content A is displayed by being separated into two display units by the application A, which is one application, but the image data generated by the display screen acquisition process is illustrated in FIG. As illustrated, it is not separated but is combined into one.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S114).
  • the control unit 200 shifts to the display unit selection operation mode (S140).
  • the selection unit 212 controls the selection operation reception unit 214 to enter a state (display unit selection operation mode) for receiving an operation for selecting a display unit.
  • a state display unit selection operation mode
  • the user when the user performs a predetermined operation, it is possible to select which display portion the screen to be acquired is acquired.
  • the first display unit 112 is configured as a touch screen
  • the user can perform a selection operation (first operation) by tapping the surface of the first display unit 112.
  • “tapping” refers to an operation of bringing a finger into contact with the surface of the display unit and releasing the finger within a predetermined time (for example, within 1 second).
  • the user taps the first display unit 112 and selects the selection operation reception unit 214.
  • the display control unit 204 controls the display brightness of the second display unit 114 to be darker than that of the first display unit 112, as illustrated in FIG. 12B. If a tap operation is not performed for a certain time (for example, 5 seconds) in this state, the selection unit 212 selects the “first display unit 112”.
  • the display control unit 204 displays the first display unit as illustrated in FIG. 12C.
  • the display brightness of the first display unit 112 is controlled to be darker than that of the second display unit 114, and the display brightness of the second display unit 114 is controlled to be brighter than that of the first display unit 112. If the tap operation is not performed for a certain time (for example, 5 seconds) in this state, the selection unit 212 selects the “second display unit 114”.
  • the display control unit 204 displays the first display unit as illustrated in FIG. Control is performed so that both the first display unit 112 and the second display unit are brightened in the same manner. If a tap operation is not performed for a certain time (for example, 5 seconds) in this state, the selection unit 212 selects “the first display unit 112 and the second display unit 114”.
  • the display of the 1st display part 112 and the 2nd display part 114 changes whenever selection operation (for example, tap operation) is performed, if a user does not perform selection operation for a fixed time in this state, It is possible to easily grasp which display unit is selected (that is, which display unit is a candidate that can be selected (selection candidate)). Further, the user can switch the selection candidates as described above by a simple operation such as a tap operation.
  • control unit 200 determines whether or not the display unit selection process has been completed (S142). Specifically, as described above, the selection unit 212 determines whether or not the selection operation is performed for a certain period of time. When it is determined that the selection process of the display unit is not completed (that is, when a selection operation is performed within a predetermined time) (NO in S142), the control unit 200 repeats the process of S140.
  • the control unit 200 displays the first display unit 112 and the second display unit. It is determined which display unit of the unit 114 has been selected (S146). Specifically, in the display screen acquisition unit 210, the selection unit 212 selects any one of the “first display unit 112”, the “second display unit 114”, and the “first display unit 112 and the second display unit 114”. Judgment is made.
  • the control unit 200 acquires screen data indicating the screen displayed on the first display unit 112 (S150). Specifically, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the first display unit 112 as in the process of S110. Next, the control unit 200 generates image data corresponding to the screen displayed on the first display unit 112 (S152). Specifically, the image data generation unit 220 performs necessary processing such as data format conversion on the screen data acquired by the display screen acquisition unit 210 to generate image data.
  • the screen including the content A is displayed on the first display unit 112 and the screen including the content B is displayed on the second display unit 114, which is illustrated in FIG. 12B.
  • the image data generation unit 220 when the first display unit 112 is selected, the image data generation unit 220 generates image data indicating a screen image including the content A as illustrated in FIG. 10A.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S154).
  • control unit 200 acquires screen data indicating the screen displayed on second display unit 114 (S160). ). Specifically, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the second display unit 114, as in the process of S120. Next, the control unit 200 generates image data corresponding to the screen displayed on the second display unit 114 (S162). Specifically, the image data generation unit 220 performs necessary processing such as data format conversion on the screen data acquired by the display screen acquisition unit 210 to generate image data.
  • the screen including the content A is displayed on the first display unit 112 and the screen including the content B is displayed on the second display unit 114, which is illustrated in FIG. 12C.
  • the image data generation unit 220 when the second display unit 114 is selected, the image data generation unit 220 generates image data indicating an image of a screen including the content B as illustrated in FIG. 10B.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S154).
  • the control unit 200 controls both the first display unit 112 and the second display unit 114.
  • Two pieces of screen data representing the displayed screens are acquired (S170).
  • the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the first display unit 112 as in the process of S132.
  • the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the second display unit 114.
  • control unit 200 generates image data corresponding to the screens displayed on the first display unit 112 and the second display unit 114 (S172). Specifically, the image data generation unit 220 synthesizes two screen data acquired by the display screen acquisition unit 210. Further, the image data generation unit 220 performs necessary processing such as data format conversion on the combined screen data to generate image data.
  • the screen A including the content A is displayed on the first display unit 112 and the screen B including the content B is displayed on the second display unit 114.
  • the image data generation unit 220 combines the screen A and the screen B as illustrated in FIG. 13. Is generated.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S154).
  • the user can repeatedly perform a selection operation (for example, a tap operation) and select a screen to be acquired according to the number of selection operations.
  • a selection operation for example, a tap operation
  • FIGS. 12A to 12C assuming that the state is the state of FIG. 12A first, when the user performs a selection operation once, the state of FIG. 12B is obtained, so the selection unit 212 selects the first display unit 112. . That is, the display screen acquisition unit 210 can acquire the display screen of the first display unit 112. When the user performs the selection operation twice, the state shown in FIG. 12C is entered, so the selection unit 212 selects the second display unit 114. That is, the display screen acquisition unit 210 can acquire the display screen of the second display unit 114.
  • the selection unit 212 selects the first display unit 112 and the second display unit 114. That is, the display screen acquisition unit 210 can acquire the display screen of the first display unit 112 and the display screen of the second display unit 114.
  • the image data generation unit 220 can generate image data synthesized with the display screen of the first display unit 112 and the display screen of the second display unit 114.
  • the display unit is automatically selected, so that the user can simply perform one operation such as a tap operation, and can easily perform image data relating to a desired screen. Can be obtained.
  • FIG. 14 is a flowchart of a process performed by the control unit 200 according to the second embodiment.
  • the flowchart of FIG. 14 is obtained by replacing S130 to S134 of FIG. 15A to 17B are diagrams for explaining the processing according to the second embodiment.
  • the control unit 200 displays the content on both the first display unit 112 and the second display unit 114 by the same application. It is determined whether or not (S202). Specifically, in the display screen acquisition unit 210, is the display control unit 204 displaying content on both the first display unit 112 and the second display unit 114 by one application (application A in the example of FIG. 8)? Judge whether or not.
  • the selection unit 212 controls the selection operation reception unit 214 to enter a state (display unit selection operation mode) for receiving an operation for selecting a display unit.
  • a state display unit selection operation mode
  • the selection unit 212 controls the selection operation reception unit 214 to enter a state (display unit selection operation mode) for receiving an operation for selecting a display unit.
  • this display portion selection mode when the user performs a predetermined operation, it is possible to select which display portion the screen to be acquired is acquired. Furthermore, when acquiring the screen displayed on both the 1st display part 112 and the 2nd display part 114, the image data which synthesize
  • the user taps the first display unit 112 and selects the selection operation receiving unit 214.
  • the display control unit 204 controls the display brightness of the second display unit 114 to be darker than that of the first display unit 112 as illustrated in FIG. 15B. If a tap operation is not performed for a certain time (for example, 5 seconds) in this state, the selection unit 212 selects the “first display unit 112”.
  • the display control unit 204 displays the first display unit as illustrated in FIG. 15C.
  • the display brightness of the first display unit 112 is controlled to be darker than that of the second display unit 114, and the display brightness of the second display unit 114 is controlled to be brighter than that of the first display unit 112.
  • the tap operation selection operation
  • the selection unit 212 selects the “second display unit 114”.
  • the display control unit 204 displays the first display unit as illustrated in FIG.
  • the state in which the display brightness of the first display unit 112 is brighter than that of the second display unit 114 and the state in which the display brightness of the second display unit 114 is brighter than that of the first display unit 112 are determined in advance. It repeats alternately every time (for example, every 0.2 seconds).
  • the display control unit 204 first makes the display brightness of the first display unit 112 brighter than that of the second display unit 114. For example, when 0.2 seconds elapses, the display control unit 204 increases the display brightness of the second display unit 114. Brighter than the first display unit 112. After another 0.2 seconds, the display control unit 204 makes the display brightness of the first display unit 112 brighter than that of the second display unit 114. Thereafter, the process of making one side brighter and the other darker is repeated. If the tap operation is not performed for a certain time (for example, 5 seconds) in this state, the selection unit 212 selects “the first display unit 112 and the second display unit 114” and “do not combine”.
  • the display control unit 204 displays the state shown in FIG. 15A. As illustrated, both the first display unit 112 and the second display unit are controlled to be similarly brightened. If the tap operation is not performed for a certain time (for example, 5 seconds) in this state, the selection unit 212 selects “the first display unit 112 and the second display unit 114” and “synthesize”.
  • the display of the 1st display part 112 and the 2nd display part 114 changes whenever selection operation (for example, tap operation) is performed, if a user does not perform selection operation for a fixed time in this state, It is possible to easily grasp which display unit is selected (that is, which display unit is a candidate that can be selected).
  • control unit 200 determines whether or not the display unit selection process has been completed (S206). Specifically, as described above, the selection unit 212 determines whether or not the selection operation is performed for a certain period of time. When it is determined that the selection process of the display unit is not completed (that is, when a selection operation is performed within a predetermined time) (NO in S206), the control unit 200 repeats the process of S204.
  • the control unit 200 displays the first display unit 112 and the second display unit.
  • 114 is determined (S208) Specifically, in the display screen acquisition unit 210, the selection unit 212 uses the “first display unit 112”, the “second display unit 114”, or the “second display unit”. It is determined which one of the first display unit 112 and the second display unit 114 is selected.
  • the control unit 200 acquires screen data indicating the screen displayed on the first display unit 112 (S210). Specifically, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the first display unit 112, as in the processing of S110 of the first embodiment. Next, the control unit 200 generates image data corresponding to the screen displayed on the first display unit 112 (S212). Specifically, the image data generation unit 220 performs necessary processing such as data format conversion on the screen data acquired by the display screen acquisition unit 210 to generate image data.
  • a screen including the content Aa that is a part of the content A is displayed on the first display unit 112, and a screen including the content Ab that is a part of the content A on the second display unit 114.
  • the image data generation unit 220 displays the screen including the content Aa as illustrated in FIG. 17A.
  • Image data indicating an image is generated.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S214).
  • the control unit 200 acquires screen data indicating the screen displayed on the second display unit 114 (S220). Specifically, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the second display unit 114, as in the process of S120 of the first embodiment. Next, the control unit 200 generates image data corresponding to the screen displayed on the second display unit 114 (S222). Specifically, the image data generation unit 220 performs necessary processing such as data format conversion on the screen data acquired by the display screen acquisition unit 210 to generate image data.
  • a screen including the content Aa that is a part of the content A is displayed on the first display unit 112, and a screen including the content Ab that is a part of the content A on the second display unit 114.
  • the image data generation unit 220 displays the screen including the content Aa as illustrated in FIG. 17B.
  • Image data indicating an image is generated.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S214).
  • the control unit 200 determines whether to synthesize the screens displayed on both display units. Is determined (S230). Specifically, the display screen acquisition unit 210 determines whether the selection unit 212 has selected “synthesize” or “do not combine”.
  • the control unit 200 displays two screens respectively displayed on both the first display unit 112 and the second display unit 114, as in S132 of the first embodiment.
  • Screen data is acquired (S240).
  • the control unit 200 generates image data corresponding to the screens displayed on the first display unit 112 and the second display unit 114, similarly to S134 of the first embodiment (S242).
  • the image data generation unit 220 synthesizes two screen data acquired by the display screen acquisition unit 210. Further, the image data generation unit 220 performs necessary processing such as data format conversion on the combined screen data to generate image data.
  • the screen a including the content Aa is displayed on the first display unit 112 and the screen b including the content Ab is displayed on the second display unit 114.
  • the image data generation unit 220 is illustrated in FIG.
  • image data indicating an image obtained by combining the screen a and the screen b is generated. That is, as illustrated in FIG. 8, the content A is displayed by being separated into two display units by the application A, which is one application, but the image data generated by the display screen acquisition process is illustrated in FIG. As illustrated, it is not separated but is combined into one.
  • the image data storage unit 222 of the control unit 200 stores the image data generated by the image data generation unit 220 in the memory 148 (S214).
  • the control unit 200 acquires two screen data indicating the screens displayed on both the first display unit 112 and the second display unit 114 (S250). ). Specifically, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the first display unit 112 by the same method as the process of S110 of the first embodiment. Similarly, the display screen acquisition unit 210 acquires screen data indicating the screen displayed on the second display unit 114. For example, in the example of FIG. 8, the display screen acquisition unit 210 acquires screen data a indicating the screen a including the content Aa displayed on the first display unit 112. Similarly, the display screen acquisition unit 210 acquires screen data b indicating the screen b including the content Ab displayed on the second display unit 114.
  • the control unit 200 separately generates image data corresponding to the screens displayed on the first display unit 112 and the second display unit 114 (S252). Specifically, the image data generation unit 220 generates image data by performing necessary processing such as data format conversion on the screen data indicating the screen displayed on the first display unit 112. Similarly, the image data generation unit 220 performs necessary processing such as data format conversion on the screen data indicating the screen displayed on the second display unit 114 to generate image data.
  • FIG. 17 when the screen a including the content Aa is displayed on the first display unit 112 and the screen b including the content Ab is displayed on the second display unit 114, FIG.
  • the image data generation unit 220 displays the images in FIGS. 17A and 17B.
  • image data (FIG. 17A) indicating a screen image including the content Aa and image data (FIG. 17B) indicating a screen image including the content Ab are separately generated.
  • the image data storage unit 222 of the control unit 200 stores the two image data generated by the image data generation unit 220 in the memory 148 (S214).
  • the user can repeatedly perform a selection operation (for example, a tap operation), select a screen to be acquired according to the number of selection operations, and further select whether to synthesize a plurality of screens. be able to.
  • a selection operation for example, a tap operation
  • the display screen acquisition unit 210 can acquire the display screen of the first display unit 112.
  • the selection unit 212 selects the second display unit 114. That is, the display screen acquisition unit 210 can acquire the display screen of the second display unit 114.
  • the selection unit 212 selects the first display unit 112 and the second display unit 114. That is, the display screen acquisition unit 210 can acquire the display screen of the first display unit 112 and the display screen of the second display unit 114.
  • the image data generation unit 220 can generate image data separately for the display screen of the first display unit 112 and the display screen of the second display unit 114.
  • the selection unit 212 selects the first display unit 112 and the second display unit 114. That is, the display screen acquisition unit 210 can acquire the display screen of the first display unit 112 and the display screen of the second display unit 114.
  • the image data generation unit 220 can generate image data synthesized with the display screen of the first display unit 112 and the display screen of the second display unit 114.
  • the display unit is automatically selected, and further whether or not to synthesize is also selected, so that the user simply repeats one operation such as a tap operation, Image data relating to a desired screen can be easily obtained.
  • the present invention is not limited to the above-described embodiment, and can be modified as appropriate without departing from the spirit of the present invention.
  • there are two housings but there may be one housing or three or more housings.
  • the number of display units is two, but the number of display units may be three or more.
  • the operating body is a user's finger, but the operating body is not limited to a finger.
  • the operating body may be a touch pen or a stylus.
  • the selection operation is a tap operation, but the selection operation is not limited to a tap operation.
  • the selection operation may be a flick operation or the input key 120 may be pressed.
  • two or more of the constituent elements shown in the above-described embodiments may be integrally formed.
  • the display screen acquisition unit 210 and the selection unit 212 may be integrated.
  • the display screen acquisition unit 210 may have the function of the selection unit 212.
  • the order of the processes (steps) can be changed as appropriate.
  • another process (step) may be executed while one process (step) is being executed.
  • One or more of the plurality of processes (steps) may be omitted.
  • a display unit that is not a selection candidate is darker than a display unit that is a selection candidate. It is not necessary to distinguish whether it is a selection candidate in light and dark.
  • the display control unit 204 may add a predetermined mark (for example, a cross or a character such as “non-selected”) to the screen of the display unit that is not a selection candidate.
  • the display control unit 204 may add a predetermined mark (for example, a mark such as a mark or “selection”) to the screen of the display unit that is a selection candidate.
  • the display state of the display unit and the selection candidates are sequentially changed according to the number of times the selection operation is performed using FIGS. 12A to 12C, 15A to 15C, and 16.
  • the order of the transition is not limited to the order of FIGS. 12A to 12C, 15A to 15C, and FIG. 16, and can be appropriately set by those skilled in the art.
  • Non-transitory computer readable media include various types of tangible storage media (tangible storage medium).
  • Examples of non-transitory computer-readable media include magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable ROM), flash ROM, RAM (random access memory)) are included.
  • the program may also be supplied to the computer by various types of temporary computer-readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)

Abstract

 表示部の選択状態に応じて、容易に、ソフトウェアを用いて表示部に表示された画面を示すデータを生成することが可能な携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供する。第1表示部(2)及び第2表示部(4)は、画像を表示する。表示制御手段(6)は、1つ以上のソフトウェアを用いて、第1表示部(2)及び第2表示部(4)の少なくとも1つにコンテンツを表示させる。選択手段(8)は、第1表示部(2)及び第2表示部(4)のうちの1つ以上を選択する。表示画面取得手段(10)は、選択手段(8)によって選択された表示部に表示された画面を示す画面データを取得する。画像データ生成手段(12)は、表示画面取得手段(10)によって取得された画面データに基づいて、画像データを生成する。

Description

携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体
 本発明は、携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体に関し、特に、表示された画面を示す画像データを生成する携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
 携帯電話又はスマートフォン等の携帯端末装置の技術において、画面のサイズを拡大することで、使用者の利便性を向上させることができるようになっている。しかしながら、あまりに画面のサイズを拡大させると、携帯端末装置全体のサイズが大きくなってしまい、持ち運びが不便となる可能性がある。そこで、携帯端末装置に複数の画面を設け、折り畳み可能又はスライド可能な構造とすることによって、持ち運びが不便とならないようにすることができる。
 一方、スクリーンショット、スクリーンキャプチャ、スクリーンダンプ又はプリントスクリーン等の、表示デバイスに表示された画面を示す画像データを生成し記憶する技術がある。この技術は、携帯電話等においても適用されている。
 上記の技術に関連し、特許文献1には、第1の表示部に番組コンテンツを表示させ、第2の表示部に、第1の表示部に表示されている番組コンテンツの画像を画像キャプチャ部によりキャプチャするための画像キャプチャボタンを表示させる携帯電話機が開示されている。
 また、特許文献2には、第1カメラ部により入力された画像、第2カメラ部により入力された画像、受信された画像の少なくとも1つの画像をキャプチャして静止画像又は動画像として保存部に保存することもでき、複数の画像をキャプチャして1つの画像に合成して保存することもできる携帯端末機が開示されている。
国際公開第2008/016031号公報 特開2007- 82223号公報
 特許文献1の技術においては、1つの表示部に表示されたコンテンツの画像をキャプチャするのみである。また、特許文献2の技術においては、2つのカメラによって撮影された画像が2つの画面に表示された場合にそれらの画像をキャプチャして1つの画像に合成するのみである。つまり、特許文献1及び特許文献2の技術では、アプリケーションソフトウェアを用いて携帯端末装置の複数の表示部の少なくとも1つにコンテンツが表示された場合に、キャプチャする表示部を選択して、表示された画面を示すデータを生成することは、困難である。
 本発明の目的は、このような課題を解決するためになされたものであり、表示部の選択状態に応じて、容易に、ソフトウェアを用いて表示部に表示された画面を示すデータを生成することが可能な携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供することにある。
 本発明にかかる携帯端末装置は、画像を表示する複数の表示部と、1つ以上のソフトウェアを用いて、前記複数の表示部の少なくとも1つにコンテンツを表示させる表示制御手段と、前記複数の表示部のうちの1つ以上を選択する選択手段と、前記選択手段によって選択された前記表示部に表示された画面を示す画面データを取得する表示画面取得手段と、前記表示画面取得手段によって取得された前記画面データに基づいて、画像データを生成する画像データ生成手段とを有するものである。
 本発明にかかる画像生成方法は、1つ以上のソフトウェアを用いて、携帯端末装置に設けられた、画像を表示する複数の表示部の少なくとも1つにコンテンツを表示させ、前記複数の表示部のうちの1つ以上を選択し、前記選択された前記表示部に表示された画面を示す画面データを取得し、前記取得された前記画面データに基づいて、画像データを生成するものである。
 本発明にかかる非一時的なコンピュータ可読媒体に格納されたプログラムは、1つ以上のソフトウェアを用いて、携帯端末装置に設けられた、画像を表示する複数の表示部の少なくとも1つにコンテンツを表示させる表示ステップと、前記複数の表示部のうちの1つ以上を選択する選択ステップと、前記選択ステップにおいて選択された前記表示部に表示された画面を示す画面データを取得する表示画面取得ステップと、前記表示画面取得ステップにおいて取得された前記画面データに基づいて、画像データを生成する画像データ生成ステップとを前記携帯端末装置のコンピュータに実行させるものである。
 本発明によれば、表示部の選択状態に応じて、容易に、ソフトウェアを用いて表示部に表示された画面を示すデータを生成することが可能な携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体を提供できる。
本発明の実施の形態にかかる携帯端末装置の概要を示す図である。 実施の形態1にかかる携帯端末装置の外観を示す平面図である。 実施の形態1にかかる携帯端末装置の構成を示す図である。 実施の形態1にかかる制御部によって実現される各構成要素を示す図である。 実施の形態1にかかる処理を示すフローチャートである。 実施の形態1にかかる処理を示すフローチャートである。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態1にかかる処理を説明するための図である。 実施の形態2にかかる処理を示すフローチャートである。 実施の形態2にかかる処理を説明するための図である。 実施の形態2にかかる処理を説明するための図である。 実施の形態2にかかる処理を説明するための図である。 実施の形態2にかかる処理を説明するための図である。 実施の形態2にかかる処理を説明するための図である。 実施の形態2にかかる処理を説明するための図である。
[本発明にかかる実施の形態の概要]
 実施の形態の説明に先立って、図1を用いて、本発明の実施の形態にかかる携帯端末装置の概要を説明する。図1は、本発明の実施の形態にかかる携帯端末装置1の概要を示す図である。図1に示すように、携帯端末装置1は、複数の表示部である第1表示部2及び第2表示部4と、表示制御手段6と、選択手段8と、表示画面取得手段10と、画像データ生成手段12とから構成される。
 第1表示部2及び第2表示部4は、画像を表示する。表示制御手段6は、1つ以上のソフトウェアを用いて、第1表示部2及び第2表示部4の少なくとも1つにコンテンツを表示させる。選択手段8は、第1表示部2及び第2表示部4のうちの1つ以上を選択する。表示画面取得手段10は、選択手段8によって選択された表示部に表示された画面を示す画面データを取得する。画像データ生成手段12は、表示画面取得手段10によって取得された画面データに基づいて、画像データを生成する。
 本発明の実施の形態にかかる携帯端末装置1によれば、表示部の選択状態に応じて、容易に、ソフトウェアを用いて表示部に表示された画面を示すデータを生成することが可能である。なお、携帯端末装置1による方法、又は携帯端末装置1に組み込まれ得るプログラムによっても、表示部の選択状態に応じて、容易に、ソフトウェアを用いて表示部に表示された画面を示すデータを生成することが可能である。
[実施の形態1]
 以下、図面を参照して実施の形態1について説明する。図2は、実施の形態1にかかる携帯端末装置100の外観を示す平面図である。また、図3は、実施の形態1にかかる携帯端末装置100を示す図である。なお、以下、実質的に同じ構成要素には、同じ符号が付される。
 携帯端末装置100は、例えば、携帯電話、スマートフォン、タブレットPC(Personal Computer)又は携帯ゲーム機等である。携帯端末装置1は、第1筐体102及び第2筐体104から構成されている。第1筐体102には、第1表示部112が設けられている。また、第2筐体104には、第2表示部114が設けられている。
 第1表示部112及び第2表示部114の少なくとも一方は、表示デバイスと入力デバイスとが一体となったタッチスクリーンとして構成されている。つまり、携帯端末装置100は、第1表示部112又は第2表示部114の表面に、使用者が指などの操作体を接触させることによって操作することができるように、構成されている。
 携帯端末装置100は、使用されないときには、第1筐体102と第2筐体104とを重ねることによって、持ち運びが容易となるように構成されている。例えば、第1筐体102と第2筐体104との間に設けられたヒンジ(図示せず)を介して折り畳み可能としてもよい。また、例えば、第1筐体102と第2筐体104とを互いに摺動可能とすることによって、携帯端末装置100が使用されないときに、第2筐体104が第1筐体102の下に移動できるように、又は、第1筐体102が第2筐体104の下に移動できるようにしてもよい。
 また、例えば第2筐体104の側面には、入力キー120が設けられている。入力キー120は、例えば、電源ボタン120aと、音量増ボタン120bと、音量減ボタン120cとから構成される。電源ボタン120aを押下することによって、携帯端末装置100の電源をオンオフすることができるように構成されている。また、音量増ボタン120bを押下することによって、携帯端末装置100に関する音量を増加させることができるように構成されている。また、音量減ボタン120cを押下することによって、携帯端末装置100に関する音量を減少させることができるように構成されている。
 さらに、入力キー120を予め定められた方法で操作することによって、後述する表示画面取得処理が開始されるようになっている。表示画面取得処理とは、スクリーンショット、スクリーンキャプチャ、スクリーンダンプ又はプリントスクリーン等の、第1表示部112及び第2表示部114の少なくとも一方に表示された画面を示す画像データ(画面データ)を生成する処理をいう。
 第1筐体102又は第2筐体104には、撮像部130が設けられている。撮像部130は、例えばカメラであって、被写体を撮影し、撮像を示す画像データを生成する。また、第1筐体102又は第2筐体104には、マイク132及びスピーカ134が設けられている。さらに、第1筐体102又は第2筐体104には、後述する制御部200の制御によって点灯するLED(Light Emitting Diode)136が設けられている。
 また、第1筐体102又は第2筐体104の内部には、無線通信部140と、音声変換部144と、記憶部146と、メモリ148と、制御部200とが設けられている。無線通信部140は、アンテナ140aを介して他の装置と無線通信を行い、情報を送受信する。音声変換部144は、無線通信部140によって受信された音声データを音声に変換し、スピーカ134に出力させる。また、音声変換部144は、制御部200から出力された音声データを音声に変換し、スピーカ134に出力させる。さらに、音声変換部144は、マイク132によって集音された音声を音声データに変換し、無線通信部140又は制御部200に対して出力する。
 記憶部146は、例えばROM(Read Only Memory)又はRAM(Random Access Memory)であって、制御部200の制御によって各種の機能を実行するアプリケーションソフトウェアを記憶する。メモリ148は、例えば不揮発性メモリであって、制御部200の制御によって各種データを格納する。制御部200は、例えば、中央演算処理装置(CPU:Central Processing Unit)、主記憶装置及び入出力ポート等を含んでもよく、記憶部146に記憶された各種アプリケーションソフトウェア(プログラム)を用いて各種制御を実行する。さらに、制御部200は、入力キー120、又は第1表示部112若しくは第2表示部114に設けられた入力デバイスに対する使用者の操作に応じて、第1表示部112、第2表示部114、撮像部130、LED136、無線通信部140、記憶部146及びメモリ148の動作を制御する。
 特に、制御部200は、アプリケーションソフトウェア(以下、単に「アプリケーション」と称する)を実行して、各種コンテンツを生成する。さらに、制御部200は、生成されたコンテンツを、第1表示部112及び第2表示部114、又はこれらのいずれかに表示させる。なお、制御部200は、複数のアプリケーションを同時に実行することができる。この場合、制御部200は、生成された複数のコンテンツを、それぞれ、第1表示部112及び第2表示部114に表示させることができる。さらに、制御部200は、表示画面取得処理を行って、第1表示部112及び第2表示部114に表示されたコンテンツを含む画面を示す画面データを取得することができる。以下、詳細に説明する。
 図4は、図3に示した実施の形態1にかかる制御部200によって実現される各構成要素を示す図である。図5及び図6は、実施の形態1にかかる制御部200によってなされる処理を示すフローチャートである。また、図7A~図13は、実施の形態1にかかる制御部200によってなされる処理を説明するための図である。
 図4に示すように、制御部200は、アプリケーション実行部202、表示制御部204、画面取得操作受付部206、表示画面取得部210、選択部212、選択操作受付部214、画像データ生成部220、及び画像データ格納部222から構成される。
 なお、制御部200が実現する各構成要素は、例えば、コンピュータである制御部200が備える演算装置(図示せず)の制御によって、プログラムを実行させることによって実現できる。より具体的には、制御部200は、記憶部146に格納されたプログラムを主記憶装置(図示せず)にロードし、演算装置の制御によってプログラムを実行して実現する。また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。
 制御部200は、アプリケーションを実行して、コンテンツを第1表示部112及び第2表示部114の少なくとも一方に表示させる(S102)。具体的には、アプリケーション実行部202は、記憶部146からアプリケーションデータを取得して、アプリケーションを実行する。また、アプリケーション実行部202は、アプリケーションの実行により、そのアプリケーションに対応するコンテンツを生成する。さらに、アプリケーション実行部202は、生成されたコンテンツを、表示制御部204に対して出力する。表示制御部204は、アプリケーション実行部202によって生成されたコンテンツに対して変換処理等の必要な処理を行う。また、表示制御部204は、コンテンツを表示させるように、第1表示部112及び第2表示部114の少なくとも一方を制御する。
 例えば、アプリケーション実行部202がアプリケーションAを実行してコンテンツAを生成した場合、図7Aに例示するように、表示制御部204は、第1表示部112にコンテンツAを表示させてもよい。なお、このとき、表示制御部204は、コンテンツが表示されていない第2表示部114に対し、表示をオフにするように制御してもよい。これにより、電力消費を節約することができる。また、例えば、アプリケーション実行部202がアプリケーションBを実行してコンテンツBを生成した場合、図7Bに例示するように、表示制御部204は、第2表示部114にコンテンツBを表示させてもよい。なお、このとき、表示制御部204は、コンテンツが表示されていない第1表示部112に対し、表示をオフにするように制御してもよい。
 また、例えば、アプリケーション実行部202がアプリケーションAを実行してコンテンツAを生成した場合、図8に例示するように、表示制御部204は、第1表示部112及び第2表示部114の両方にコンテンツAを表示させてもよい。このとき、表示制御部204は、コンテンツAの右側を示すコンテンツAaを生成し、コンテンツAの左側を示すコンテンツAbを生成してもよい。そして、表示制御部204は、第1表示部112にコンテンツAaを表示させ、第2表示部114にコンテンツAbを表示させてもよい。
 さらに、例えば、アプリケーション実行部202は、アプリケーションA及びアプリケーションBを同時に実行してもよい。この場合、アプリケーション実行部202は、アプリケーションAの実行によりコンテンツAを生成し、アプリケーションBの実行によりコンテンツBを生成してもよい。このとき、図9に例示するように、表示制御部204は、第1表示部112にコンテンツAを表示させ、第2表示部114にコンテンツBを表示させてもよい。
 次に、制御部200は、表示画面取得処理を開始する表示画面取得操作を受け付ける(S104)。具体的には、画面取得操作受付部206は、例えば使用者が入力キー120に対して予め定められた操作を行うと、画面取得操作を示す信号を受け付け、この信号を、表示画面取得部210に対して出力する。これによって、表示画面取得部210は、表示画面取得処理を開始する。ここで、例えば、使用者が電源ボタン120a及び音量減ボタン120cを同時に押下した場合、画面取得操作受付部206は、画面取得操作を示す信号を受け付けてもよい。
 次に、制御部200は、コンテンツが第1表示部112及び第2表示部114のいずれにも表示されているか否かを判断する(S106)。具体的には、表示画面取得部210は、表示制御部204が第1表示部112及び第2表示部114の両方にコンテンツを表示させているか否かを判断する。
 第1表示部112又は第2表示部114のどちらかのみにコンテンツが表示されている場合(S106のNO)、制御部200は、第1表示部112又は第2表示部114のどちらにコンテンツが表示されているかを判断する(S108)。具体的には、例えば図7Aのように、表示制御部204が第1表示部112にコンテンツを表示させている場合、選択部212は、「第1表示部112」を選択する。一方、例えば図7Bに例示するように、表示制御部204が第2表示部114にコンテンツを表示させている場合、選択部212は、「第2表示部114」を選択する。そして、表示画面取得部210は、選択部212が第1表示部112又は第2表示部114のどちらを選択しているかを判断する。
 第1表示部112にコンテンツが表示されていると判断された場合(S108の「第1」)、制御部200は、第1表示部112に表示された画面を示す画面データを取得する(S110)。具体的には、表示画面取得部210は、第1表示部112に表示された画面を示す画面データを取得する。画面データを取得する方法の例としては、例えば、制御部200から第1表示部112に送信される信号を取得して、その信号から画面データを生成してもよいし、撮像部130が第1表示部112に表示されている画面を撮影してもよい。
 次に、制御部200は、第1表示部112に表示されている画面に対応する画像データを生成する(S112)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。例えば、図7Aに例示するように、第1表示部112にコンテンツAを含む画面が表示されている場合、画像データ生成部220は、図10Aに例示するような、コンテンツAを含む画面の画像を示す画像データを生成する。次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S114)。
 第2表示部114にコンテンツが表示されていると判断された場合(S108の「第2」)、制御部200は、第2表示部114に表示された画面を示す画面データを取得する(S120)。具体的には、表示画面取得部210は、S110の処理と同様の方法で、第2表示部114に表示された画面を示す画面データを取得する。
 次に、制御部200は、第2表示部114に表示されている画面に対応する画像データを生成する(S122)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。例えば、図7Bに例示するように、第2表示部114にコンテンツBを含む画面が表示されている場合、画像データ生成部220は、例えば、図10Bに例示するような、コンテンツBを含む画面の画像を示す画像データを生成する。次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S114)。
 このように、2つの表示部のうちどちらか一方のみにコンテンツが表示されている場合は、その表示されている表示部に表示された画面に関する画像データを生成することができる。また、この場合、使用者が表示画面取得操作を行った後、何らの操作を行うことなく、表示部に表示された画面に関する画像データが生成され得る。
 一方、第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合(S106のYES)、制御部200は、同じアプリケーションによって、第1表示部112及び第2表示部114の両方にコンテンツが表示されているか否かを判断する(S130)。具体的には、例えば図8に例示するように、表示制御部204が1つのアプリケーション(図8の例ではアプリケーションA)によって第1表示部112及び第2表示部114の両方にコンテンツを表示させている場合、選択部212は、「第1表示部112」及び「第2表示部114」の両方を選択する。つまり、同じアプリケーションによって第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合、選択部212は、自動的に、「第1表示部112」及び「第2表示部114」の両方を選択する。
 一方、例えば図9に例示するように、表示制御部204が複数のアプリケーション(図9の例ではアプリケーションA及びアプリケーションB)によって第1表示部112及び第2表示部114の両方にコンテンツを表示させている場合は、選択部212は、表示部の選択を行っていない。この場合、後述するように、選択部212は、選択操作がなされた後、その選択操作にしたがって、「第1表示部112」及び「第2表示部114」の少なくとも一方を選択する。
 そして、表示画面取得部210は、選択部212が第1表示部112又は第2表示部114のどちらを選択しているかを判断する。同じアプリケーションによって第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合(つまり、選択部212が「第1表示部112」及び「第2表示部114」の両方を選択している場合)(S130のYES)、制御部200は、第1表示部112及び第2表示部114の両方にそれぞれ表示された画面を示す2つの画面データを取得する(S132)。
 具体的には、表示画面取得部210は、S110の処理と同様の方法で、第1表示部112に表示された画面を示す画面データを取得する。同様に、表示画面取得部210は、第2表示部114に表示された画面を示す画面データを取得する。例えば、図8の例では、表示画面取得部210は、第1表示部112に表示された、コンテンツAaを含む画面aを示す画面データaを取得する。同様に、表示画面取得部210は、第2表示部114に表示された、コンテンツAbを含む画面bを示す画面データbを取得する。
 次に、制御部200は、第1表示部112及び第2表示部114に表示されている画面に対応する画像データを生成する(S134)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された2つの画面データを合成する。さらに、画像データ生成部220は、合成されて1つになった画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図8に例示するように、第1表示部112にコンテンツAaを含む画面aが表示され、第2表示部114にコンテンツAbを含む画面bが表示されている場合、画像データ生成部220は、図11に例示するように、画面aと画面bとを合成した画像を示す画像データを生成する。つまり、図8に例示するように、1つのアプリケーションであるアプリケーションAによって2つの表示部に分離されてコンテンツAが表示されていたが、表示画面取得処理によって生成された画像データは、図11に例示するように、分離されたままでなく、1つに合成された状態となっている。
 次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S114)。
 一方、異なるアプリケーションによって、第1表示部112及び第2表示部114の両方にコンテンツが表示されていると判断された場合(つまり選択部212が表示部の選択を行っていない場合)(S130のNO)、制御部200は、表示部選択操作モードに移行する(S140)。
 具体的には、選択部212は、選択操作受付部214を制御して、表示部の選択を行うための操作を受け付ける状態(表示部選択操作モード)にする。この表示部選択モードにおいて、使用者が予め定められた操作を行うと、どの表示部に表示された画面を取得するかを選択することができる。例えば、第1表示部112がタッチスクリーンとして構成されている場合、使用者は、第1表示部112の表面をタップすることによって、選択操作(第1の操作)を行うことができる。ここで、「タップ」とは、表示部の表面に指を接触させ、予め定められた時間以内(例えば1秒以内)に指を離す操作をいう。
 まず、図12Aに例示するように、第1表示部112及び第2表示部114の両方が明るく点灯している状態において、使用者が、第1表示部112をタップし、選択操作受付部214がそのタップ操作を受け付けると、表示制御部204は、図12Bに例示するように、第2表示部114の表示の明るさを第1表示部112よりも暗くするように制御する。この状態で一定時間(例えば5秒間)タップ操作が行われないと、選択部212は、「第1表示部112」を選択する。
 一方、一定時間内に、再度、使用者が、第1表示部112をタップし、選択操作受付部214がそのタップ操作を受け付けると、表示制御部204は、図12Cに例示するように、第1表示部112の表示の明るさを第2表示部114よりも暗くし、第2表示部114の表示の明るさを第1表示部112よりも明るくするように制御する。この状態で一定時間(例えば5秒間)タップ操作が行われないと、選択部212は、「第2表示部114」を選択する。
 一方、一定時間内に、再度、使用者が、第1表示部112をタップし、選択操作受付部214がそのタップ操作を受け付けると、表示制御部204は、図12Aに例示するように、第1表示部112及び第2表示部の両方を同じように明るくするように制御する。この状態で一定時間(例えば5秒間)タップ操作が行われないと、選択部212は、「第1表示部112及び第2表示部114」を選択する。
 このように、選択操作(例えばタップ操作)を行うたびに第1表示部112及び第2表示部114の表示が変化するので、使用者は、この状態で選択操作を一定時間行わなければ、どの表示部が選択されるのか(つまりどの表示部が、選択されうる候補(選択候補)となっているか)を、容易に把握することができる。また、使用者は、上記のような選択候補の切り替えを、例えばタップ操作といった簡単な操作で行うことができる。
 次に、制御部200は、表示部の選択処理が終了したか否かを判断する(S142)。具体的には、上記のように、選択部212は、一定時間、選択操作がなされないか否かを判断する。表示部の選択処理が終了していないと判断された場合(つまり、一定時間内に選択操作がなされた場合)(S142のNO)、制御部200は、S140の処理を繰り返す。
 一方、表示部の選択処理が終了したと判断された場合(つまり、一定時間内に選択操作がなされなかった場合)(S142のYES)、制御部200は、第1表示部112及び第2表示部114のどの表示部が選択されたかを判断する(S146)。具体的には、表示画面取得部210は、選択部212が「第1表示部112」、「第2表示部114」又は「第1表示部112及び第2表示部114」のいずれを選択しているかを判断する。
 「第1表示部112」が選択されたと判断された場合(S146の「第1」)、制御部200は、第1表示部112に表示された画面を示す画面データを取得する(S150)。具体的には、表示画面取得部210は、S110の処理と同様に、第1表示部112に表示された画面を示す画面データを取得する。次に、制御部200は、第1表示部112に表示されている画面に対応する画像データを生成する(S152)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図9に例示するように、第1表示部112にコンテンツAを含む画面が表示され、第2表示部114にコンテンツBを含む画面が表示されている場合であって、図12Bに例示するように、第1表示部112が選択されたとき、画像データ生成部220は、図10Aに例示するような、コンテンツAを含む画面の画像を示す画像データを生成する。
 次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S154)。
 一方、「第2表示部114」が選択されたと判断された場合(S146の「第2」)、制御部200は、第2表示部114に表示された画面を示す画面データを取得する(S160)。具体的には、表示画面取得部210は、S120の処理と同様に、第2表示部114に表示された画面を示す画面データを取得する。次に、制御部200は、第2表示部114に表示されている画面に対応する画像データを生成する(S162)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図9に例示するように、第1表示部112にコンテンツAを含む画面が表示され、第2表示部114にコンテンツBを含む画面が表示されている場合であって、図12Cに例示するように、第2表示部114が選択されたとき、画像データ生成部220は、図10Bに例示するような、コンテンツBを含む画面の画像を示す画像データを生成する。
 次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S154)。
 一方、「第1表示部112及び第2表示部114」が選択されたと判断された場合(S146の「両方」)、制御部200は、第1表示部112及び第2表示部114の両方にそれぞれ表示された画面を示す2つの画面データを取得する(S170)。具体的には、表示画面取得部210は、S132の処理と同様に、第1表示部112に表示された画面を示す画面データを取得する。同様に、表示画面取得部210は、第2表示部114に表示された画面を示す画面データを取得する。
 次に、制御部200は、第1表示部112及び第2表示部114に表示されている画面に対応する画像データを生成する(S172)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された2つの画面データを合成する。さらに、画像データ生成部220は、合成されて1つになった画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図9に例示するように、第1表示部112にコンテンツAを含む画面Aが表示され、第2表示部114にコンテンツBを含む画面Bが表示されている場合であって、図12Aに例示するように、第1表示部112及び第2表示部114の両方が選択されたとき、画像データ生成部220は、図13に例示するように、画面Aと画面Bとを合成した画像を示す画像データを生成する。
 次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S154)。
 このように、使用者は、選択操作(例えばタップ操作)を繰り返し行い、その選択操作の回数に応じて取得したい画面を選択することができる。例えば、図12A~図12Cの例では、始めに図12Aの状態だとすると、使用者が選択操作を1回行うと、図12Bの状態になるので、選択部212は第1表示部112を選択する。つまり、表示画面取得部210は第1表示部112の表示画面を取得することができる。使用者が選択操作を2回行うと、図12Cの状態になるので、選択部212は第2表示部114を選択する。つまり、表示画面取得部210は第2表示部114の表示画面を取得することができる。
 使用者が選択操作を3回行うと、図12Aの状態になるので、選択部212は第1表示部112及び第2表示部114を選択する。つまり、表示画面取得部210は、第1表示部112の表示画面と第2表示部114の表示画面とを取得することができる。そして、画像データ生成部220は、第1表示部112の表示画面と第2表示部114の表示画面と合成した画像データを生成することができる。
 したがって、選択操作のための、特別な操作及び入力キーデバイスは、不要である。さらに、一定時間、選択操作がなされない場合に、自動的に、表示部が選択されるので、使用者は、例えばタップ操作といった1つの操作を繰り返すのみで、簡単に、所望の画面に関する画像データを取得することができる。
[実施の形態2]
 次に、実施の形態2について説明する。実施の形態2は、実施の形態1において、同じアプリケーションによって、第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合の処理を変形したものである。以下、図5の「S106のYES」以降を変形した処理について説明する。
 図14は、実施の形態2にかかる制御部200によってなされる処理を示すフローチャートである。図14のフローチャートは、図5のS130~S134を置き換えたものである。また、図15A~図17Bは、実施の形態2にかかる処理を説明するための図である。
 第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合、制御部200は、同じアプリケーションによって、第1表示部112及び第2表示部114の両方にコンテンツが表示されているか否かを判断する(S202)。具体的には、表示画面取得部210は、表示制御部204が1つのアプリケーション(図8の例ではアプリケーションA)によって第1表示部112及び第2表示部114の両方にコンテンツを表示させているか否かを判断する。
 異なるアプリケーションによって、第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合(S202のYES)、図6に示されたS140の処理が行われ、以降、実施の形態1と同様の処理がなされる。一方、同じアプリケーションによって第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合(S202のYES)、制御部200は、表示部選択操作モードに移行する(S204)。
 具体的には、選択部212は、選択操作受付部214を制御して、表示部の選択を行うための操作を受け付ける状態(表示部選択操作モード)にする。この表示部選択モードにおいて、使用者が予め定められた操作を行うと、どの表示部に表示された画面を取得するかを選択することができる。さらに、第1表示部112及び第2表示部114の両方に表示された画面を取得する場合には、それらの画面を合成した画像データを生成するか、又は、合成しないで別個の画像データを生成するかを選択することができる。例えば、実施の形態1と同様に、第1表示部112がタッチスクリーンとして構成されている場合、使用者は、第1表示部112の表面をタップすることによって、選択操作を行うことができる。
 まず、図15Aに例示するように、第1表示部112及び第2表示部114の両方が明るく点灯している状態において、使用者が、第1表示部112をタップし、選択操作受付部214がそのタップ操作を受け付けると、表示制御部204は、図15Bに例示するように、第2表示部114の表示の明るさを第1表示部112よりも暗くするように制御する。この状態で一定時間(例えば5秒間)タップ操作が行われないと、選択部212は、「第1表示部112」を選択する。
 一方、一定時間内に、再度、使用者が、第1表示部112をタップし、選択操作受付部214がそのタップ操作を受け付けると、表示制御部204は、図15Cに例示するように、第1表示部112の表示の明るさを第2表示部114よりも暗くし、第2表示部114の表示の明るさを第1表示部112よりも明るくするように制御する。この状態で一定時間(例えば5秒間)タップ操作(選択操作)が行われないと、選択部212は、「第2表示部114」を選択する。
 一方、一定時間内に、再度、使用者が、第1表示部112をタップし、選択操作受付部214がそのタップ操作を受け付けると、表示制御部204は、図16に例示するように、第1表示部112の表示の明るさを第2表示部114よりも明るくした状態と、第2表示部114の表示の明るさを第1表示部112よりも明るくした状態とを、予め定められた時間ごと(例えば0.2秒ごと)に、交互に繰り返す。
 つまり、表示制御部204は、まず、第1表示部112の表示の明るさを第2表示部114よりも明るくし、例えば0.2秒経過したら、第2表示部114の表示の明るさを第1表示部112よりも明るくする。さらに0.2秒経過したら、表示制御部204は、第1表示部112の表示の明るさを第2表示部114よりも明るくする。以後、この一方を明るくし、他方を暗くすることを繰り返す。この状態で一定時間(例えば5秒間)タップ操作が行われないと、選択部212は、「第1表示部112及び第2表示部114」及び「合成しない」を選択する。
 一方、一定時間内(例えば5秒以内)に、再度、使用者が、第1表示部112をタップし、選択操作受付部214がそのタップ操作を受け付けると、表示制御部204は、図15Aに例示するように、第1表示部112及び第2表示部の両方を同じように明るくするように制御する。この状態で一定時間(例えば5秒間)タップ操作が行われないと、選択部212は、「第1表示部112及び第2表示部114」及び「合成する」を選択する。
 このように、選択操作(例えばタップ操作)を行うたびに第1表示部112及び第2表示部114の表示が変化するので、使用者は、この状態で選択操作を一定時間行わなければ、どの表示部が選択されるのか(つまりどの表示部が、選択されうる候補となっているか)を、容易に把握することができる。
 次に、制御部200は、表示部の選択処理が終了したか否かを判断する(S206)。具体的には、上記のように、選択部212は、一定時間、選択操作がなされないか否かを判断する。表示部の選択処理が終了していないと判断された場合(つまり、一定時間内に選択操作がなされた場合)(S206のNO)、制御部200は、S204の処理を繰り返す。
 一方、表示部の選択処理が終了したと判断された場合(つまり、一定時間内に選択操作がなされなかった場合(S206のYES)、制御部200は、第1表示部112及び第2表示部114のどの表示部が選択されたかを判断する(S208)。具体的には、表示画面取得部210は、選択部212が「第1表示部112」、「第2表示部114」又は「第1表示部112及び第2表示部114」のいずれを選択しているかを判断する。
 「第1表示部112」が選択されたと判断された場合(S208の「第1」)、制御部200は、第1表示部112に表示された画面を示す画面データを取得する(S210)。具体的には、表示画面取得部210は、実施の形態1のS110の処理と同様に、第1表示部112に表示された画面を示す画面データを取得する。次に、制御部200は、第1表示部112に表示されている画面に対応する画像データを生成する(S212)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図8に例示するように、第1表示部112にコンテンツAの一部であるコンテンツAaを含む画面が表示され、第2表示部114にコンテンツAの一部であるコンテンツAbを含む画面が表示されている場合であって、図15Bに例示するように、第1表示部112が選択されたとき、画像データ生成部220は、図17Aに例示するような、コンテンツAaを含む画面の画像を示す画像データを生成する。
 次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S214)。
 一方、「第2表示部114」が選択されたと判断された場合(S208の「第2」)、制御部200は、第2表示部114に表示された画面を示す画面データを取得する(S220)。具体的には、表示画面取得部210は、実施の形態1のS120の処理と同様に、第2表示部114に表示された画面を示す画面データを取得する。次に、制御部200は、第2表示部114に表示されている画面に対応する画像データを生成する(S222)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図8に例示するように、第1表示部112にコンテンツAの一部であるコンテンツAaを含む画面が表示され、第2表示部114にコンテンツAの一部であるコンテンツAbを含む画面が表示されている場合であって、図15Cに例示するように、第2表示部114が選択されたとき、画像データ生成部220は、図17Bに例示するような、コンテンツAaを含む画面の画像を示す画像データを生成する。
 次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S214)。
 一方、「第1表示部112及び第2表示部114」が選択されたと判断された場合(S208の「両方」)、制御部200は、両方の表示部に表示された画面を合成するか否かを判断する(S230)。具体的には、表示画面取得部210は、選択部212が「合成する」を選択したか「合成しない」を選択したかを判断する。
 合成すると判断された場合(S230のYES)、制御部200は、実施の形態1のS132と同様に、第1表示部112及び第2表示部114の両方にそれぞれ表示された画面を示す2つの画面データを取得する(S240)。次に、制御部200は、実施の形態1のS134と同様に、第1表示部112及び第2表示部114に表示されている画面に対応する画像データを生成する(S242)。具体的には、画像データ生成部220は、表示画面取得部210によって取得された2つの画面データを合成する。さらに、画像データ生成部220は、合成されて1つになった画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図8に例示するように、第1表示部112にコンテンツAaを含む画面aが表示され、第2表示部114にコンテンツAbを含む画面bが表示されている場合であって、図15Aに例示するように、第1表示部112及び第2表示部114の両方が選択され、かつ、両者の画面を合成させることが選択されたとき、画像データ生成部220は、図11に例示するように、画面aと画面bとを合成した画像を示す画像データを生成する。つまり、図8に例示するように、1つのアプリケーションであるアプリケーションAによって2つの表示部に分離されてコンテンツAが表示されていたが、表示画面取得処理によって生成された画像データは、図11に例示するように、分離されたままでなく、1つに合成された状態となっている。
 次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された画像データを、メモリ148に格納する(S214)。
 一方、合成しないと判断された場合(S230のNO)、制御部200は、第1表示部112及び第2表示部114の両方にそれぞれ表示された画面を示す2つの画面データを取得する(S250)。具体的には、表示画面取得部210は、実施の形態1のS110の処理と同様の方法で、第1表示部112に表示された画面を示す画面データを取得する。同様に、表示画面取得部210は、第2表示部114に表示された画面を示す画面データを取得する。例えば、図8の例では、表示画面取得部210は、第1表示部112に表示された、コンテンツAaを含む画面aを示す画面データaを取得する。同様に、表示画面取得部210は、第2表示部114に表示された、コンテンツAbを含む画面bを示す画面データbを取得する。
 次に、制御部200は、第1表示部112及び第2表示部114に表示されている画面それぞれに対応する画像データを、別個に生成する(S252)。具体的には、画像データ生成部220は、第1表示部112に表示された画面を示す画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。同様に、画像データ生成部220は、第2表示部114に表示された画面を示す画面データに対して、データ形式の変換等の必要な処理を施して、画像データを生成する。
 例えば、図8に例示するように、第1表示部112にコンテンツAaを含む画面aが表示され、第2表示部114にコンテンツAbを含む画面bが表示されている場合であって、図16に例示するように、第1表示部112及び第2表示部114の両方が選択され、かつ、両者の画面を合成させないことが選択されたとき、画像データ生成部220は、図17A,図17Bに例示するように、コンテンツAaを含む画面の画像を示す画像データ(図17A)と、コンテンツAbを含む画面の画像を示す画像データ(図17B)とを、別個に生成する。次に、制御部200の画像データ格納部222は、画像データ生成部220によって生成された2つの画像データを、メモリ148に格納する(S214)。
 このように、使用者は、選択操作(例えばタップ操作)を繰り返し行い、その選択操作の回数に応じて取得したい画面を選択することができ、さらに、複数の画面を合成するか否かも選択することができる。例えば、図15A~図15C,図16の例では、始めに図15Aの状態だとすると、使用者が選択操作を1回行うと、図15Bの状態になるので、選択部212は第1表示部112を選択する。つまり、表示画面取得部210は第1表示部112の表示画面を取得することができる。使用者が選択操作を2回行うと、図15Cの状態になるので、選択部212は第2表示部114を選択する。つまり、表示画面取得部210は第2表示部114の表示画面を取得することができる。
 使用者が選択操作を3回行うと、図16の状態になるので、選択部212は第1表示部112及び第2表示部114を選択する。つまり、表示画面取得部210は、第1表示部112の表示画面と第2表示部114の表示画面とを取得することができる。そして、画像データ生成部220は、第1表示部112の表示画面と第2表示部114の表示画面とで別個に画像データを生成することができる。
 使用者が選択操作を4回行うと、図15Aの状態になるので、選択部212は第1表示部112及び第2表示部114を選択する。つまり、表示画面取得部210は、第1表示部112の表示画面と第2表示部114の表示画面とを取得することができる。そして、画像データ生成部220は、第1表示部112の表示画面と第2表示部114の表示画面と合成した画像データを生成することができる。
 したがって、選択操作のための、特別な操作及び入力キーデバイスは、不要である。さらに、一定時間、選択操作がなされない場合に、自動的に、表示部が選択され、さらに合成するか否かも選択されるので、使用者は、例えばタップ操作といった1つの操作を繰り返すのみで、簡単に、所望の画面に関する画像データを取得することができる。
 なお、上述した実施の形態2においては、1つのアプリケーションによって第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合について説明したが、異なるアプリケーションによって第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合にも適用可能である。具体的には、実施の形態1の図6に示したフローチャートのS170及びS172の処理を、実施の形態2の図14に示したフローチャートのS230~S252に対応する処理に置き換えてもよい。
 このように構成することによって、異なるアプリケーションによって第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合であって、使用者が両方の表示部を選択したときであっても、常に、第1表示部112の表示画面と第2表示部114の表示画面とが合成されるわけではない。つまり、使用者は、第1表示部112の表示画面と第2表示部114の表示画面とを、合成するか又は別個にするかを選択することができる。これによって、例えば図9のように、異なるアプリケーションによって第1表示部112及び第2表示部114の両方にコンテンツが表示されている場合に、使用者が第1表示部112及び第2表示部114の表示画面を別個に取得することを所望するとき、使用者は、第1表示部112を選択して第1表示部112の表示画面に関する画像データ(図10A)を生成させた後で、第2表示部114を選択して第2表示部114の表示画面に関する画像データ(図10A)を生成させるといった、煩わしい処理をすることがなくなる。
[変形例]
 なお、本発明は上記実施の形態に限られたものではなく、以下のように、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述した実施の形態においては、筐体は2つであるとしたが、筐体は1つであってもよく、3つ以上であってもよい。また、上述した実施の形態においては、表示部は2つであるとしたが、表示部は3つ以上であってもよい。
 また、上述した実施の形態においては、操作体は使用者の指であるとしたが、操作体は、指に限られない。例えば、操作体は、タッチペン又はスタイラス等であってもよい。また、上述した実施の形態においては、選択操作はタップ操作としたが、選択操作はタップ操作に限られない。例えば、選択操作は、フリック操作であってもよいし、入力キー120の押下でもよい。
 また、上述した実施の形態において示した各構成要素の2つ以上は、一体に構成されてもよい。例えば、表示画面取得部210と選択部212とは一体であってもよく、例えば、表示画面取得部210が選択部212の機能を有していてもよい。
 また、図5,図6,図14に示したフローチャートにおいて、処理(ステップ)の順序は、適宜、変更可能である。また、1つの処理(ステップ)が実行されている間に他の処理(ステップ)が実行されてもよい。また、複数ある処理(ステップ)のうちの1つ以上は、省略されてもよい。
 また、上述した実施の形態において、図12A~図12C及び図15A~図15Cを用いて、選択候補でない表示部については、選択候補である表示部よりも表示を暗くすると説明したが、表示の明暗で選択候補であるか否かを区別しなくてもよい。例えば、表示制御部204は、選択候補でない表示部の画面に予め定められたマーク(例えばバツ印又は「非選択」といった文字等)を付してもよい。また、例えば、表示制御部204は、選択候補である表示部の画面に予め定められたマーク(例えばマル印又は「選択」といった文字等)を付してもよい。
 また、上述した実施の形態において、図12A~図12C,図15A~図15C及び図16を用いて、選択操作がなされる回数に応じて、表示部の表示状態及び選択候補が順に遷移するとしたが、その遷移する順序は、図12A~図12C,図15A~図15C及び図16の順序に限られず、当業者によって、適宜、設定され得る。
 また、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2013年3月5日に出願された日本出願特願2013-42735を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 携帯端末装置
2 第1表示部
4 第2表示部
6 表示制御手段
8 選択手段
10 表示画面取得手段
12 画像データ生成手段
100 携帯端末装置
112 第1表示部
114 第2表示部
120 入力キー
120a 電源ボタン
120b 音量増ボタン
120c 音量減ボタン
146 記憶部
148 メモリ
200 制御部
202 アプリケーション実行部
204 表示制御部
206 画面取得操作受付部
210 表示画面取得部
212 選択部
214 選択操作受付部
220 画像データ生成部
222 画像データ格納部

Claims (13)

  1.  画像を表示する複数の表示部と、
     1つ以上のソフトウェアを用いて、前記複数の表示部の少なくとも1つにコンテンツを表示させる表示制御手段と、
     前記複数の表示部のうちの1つ以上を選択する選択手段と、
     前記選択手段によって選択された前記表示部に表示された画面を示す画面データを取得する表示画面取得手段と、
     前記表示画面取得手段によって取得された前記画面データに基づいて、画像データを生成する画像データ生成手段と
     を有する携帯端末装置。
  2.  使用者による第1の操作を受け付ける操作受付手段
     をさらに有し、
     前記選択手段は、前記操作受付手段が前記第1の操作を受け付けた回数に応じて、前記複数の表示部のうちの1つ以上を選択する
     請求項1に記載の携帯端末装置。
  3.  前記表示制御手段が、複数のソフトウェアを用いて複数の前記表示部にそれぞれコンテンツを表示させている場合、前記選択手段は、前記操作受付手段が前記第1の操作を受け付けた回数に応じて、前記複数の表示部のうちの1つ以上を選択する
     請求項2に記載の携帯端末装置。
  4.  前記操作受付手段が、前記第1の操作を受け付けてから予め定められた時間以内に、次の前記第1の操作を受け付けない場合に、前記選択手段は、前記複数の表示部のうちの1つ以上を選択する
     請求項2又は3に記載の携帯端末装置。
  5.  使用者による第1の操作を受け付ける操作受付手段
     をさらに有し、
     前記表示制御手段は、前記操作受付手段が前記第1の操作を受け付けた場合に、前記複数の表示部の少なくとも1つの表示状態を切り替える
     請求項1から4のいずれか1項に記載の携帯端末装置。
  6.  前記表示制御手段は、前記操作受付手段が前記第1の操作を受け付けたことに応じて前記複数の表示部の少なくとも1つの表示状態を切り替える場合、前記選択手段によって選択されうる候補となっている前記表示部の表示状態と、前記選択手段によって選択されうる候補となっていない前記表示部の表示状態とが異なるように、前記複数の表示部を制御する
     請求項5に記載の携帯端末装置。
  7.  前記複数の表示部の少なくとも1つは、表示手段と入力手段とが一体に構成されており、
     前記選択手段は、前記表示部の前記入力手段に操作体が接触したことに応じて、選択されうる候補となる前記表示部を切り替える
     請求項1から6のいずれか1項に記載の携帯端末装置。
  8.  前記表示制御手段が、1つのソフトウェアを用いて複数の前記表示部にコンテンツを表示させている場合、前記画像データ生成手段は、前記複数の表示部それぞれに表示された画面を合成して、前記画像データを生成する
     請求項1から7のいずれか1項に記載の携帯端末装置。
  9.  前記表示制御手段が、1つのソフトウェアを用いて複数の前記表示部にコンテンツを表示させている場合、前記選択手段は、前記操作受付手段が前記第1の操作を受け付けた回数に応じて、前記複数の表示部のうちの1つ以上を選択し、さらに、前記複数の表示部のうちの2つ以上を選択した場合に、前記画像データ生成手段によって前記選択された2つ以上の表示部それぞれに表示された画面を合成するか否かを選択する
     請求項2に記載の携帯端末装置。
  10.  1つ以上のソフトウェアを用いて、携帯端末装置に設けられた、画像を表示する複数の表示部の少なくとも1つにコンテンツを表示させ、
     前記複数の表示部のうちの1つ以上を選択し、
     前記選択された前記表示部に表示された画面を示す画面データを取得し、
     前記取得された前記画面データに基づいて、画像データを生成する
     画像生成方法。
  11.  使用者による第1の操作を受け付け、
     前記第1の操作を受け付けた回数に応じて、前記複数の表示部のうちの1つ以上を選択する
     請求項10に記載の画像生成方法。
  12.  1つ以上のソフトウェアを用いて、携帯端末装置に設けられた、画像を表示する複数の表示部の少なくとも1つにコンテンツを表示させる表示ステップと、
     前記複数の表示部のうちの1つ以上を選択する選択ステップと、
     前記選択ステップにおいて選択された前記表示部に表示された画面を示す画面データを取得する表示画面取得ステップと、
     前記表示画面取得ステップにおいて取得された前記画面データに基づいて、画像データを生成する画像データ生成ステップと
     を前記携帯端末装置のコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
  13.  使用者による第1の操作を受け付ける操作受付ステップ
     を前記携帯端末装置のコンピュータに実行させ、
     前記選択ステップにおいて、前記操作受付ステップにおいて前記第1の操作を受け付けた回数に応じて、前記複数の表示部のうちの1つ以上を選択する
     請求項12に記載のプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2014/000970 2013-03-05 2014-02-25 携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体 WO2014136400A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201480012077.9A CN105103116B (zh) 2013-03-05 2014-02-25 移动终端设备、图像生成方法和存储程序的非暂时性计算机可读介质
JP2015504158A JP6245250B2 (ja) 2013-03-05 2014-02-25 携帯端末装置、画像生成方法及びプログラム
EP14760340.1A EP2966556B1 (en) 2013-03-05 2014-02-25 Mobile terminal apparatus, image generation method, and non-transitory computer-readable medium storing program
US14/760,110 US10222940B2 (en) 2013-03-05 2014-02-25 Handheld terminal, image generation method, and non-transitory computer-readable medium containing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013042735 2013-03-05
JP2013-042735 2013-03-05

Publications (1)

Publication Number Publication Date
WO2014136400A1 true WO2014136400A1 (ja) 2014-09-12

Family

ID=51490939

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000970 WO2014136400A1 (ja) 2013-03-05 2014-02-25 携帯端末装置、画像生成方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Country Status (5)

Country Link
US (1) US10222940B2 (ja)
EP (1) EP2966556B1 (ja)
JP (1) JP6245250B2 (ja)
CN (1) CN105103116B (ja)
WO (1) WO2014136400A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211494A (ja) * 2016-05-25 2017-11-30 株式会社リコー 画像処理装置、画像処理システム、画像処理方法及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9880799B1 (en) * 2014-08-26 2018-01-30 Sprint Communications Company L.P. Extendable display screens of electronic devices
WO2016182133A1 (ko) * 2015-05-14 2016-11-17 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
US11093197B2 (en) * 2017-07-31 2021-08-17 Stmicroelectronics, Inc. System and method to increase display area utilizing a plurality of discrete displays
US10230826B1 (en) 2017-08-22 2019-03-12 Futurewei Technologies, Inc. Foldable mobile device
JP7290095B2 (ja) * 2019-09-30 2023-06-13 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102918A (ja) * 1995-10-05 1997-04-15 Matsushita Electric Ind Co Ltd 映像信号表示装置
JP2007082223A (ja) 2005-09-09 2007-03-29 Lg Electronics Inc 携帯端末機及びこれを利用した表示方法
WO2008016031A1 (fr) 2006-07-31 2008-02-07 Access Co., Ltd. Composant électronique, système d'affichage, procédé d'affichage et programme

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4189315B2 (ja) 2003-12-26 2008-12-03 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4012933B2 (ja) 2004-03-22 2007-11-28 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲームプログラムを記憶した記憶媒体およびゲーム制御方法
JP5004435B2 (ja) * 2005-05-13 2012-08-22 株式会社カプコン ゲームプログラム及びゲーム装置
JP4643484B2 (ja) 2006-03-29 2011-03-02 株式会社東芝 画面送信装置および画面表示方法
KR20100074160A (ko) 2007-09-04 2010-07-01 인터내셔널 비지네스 머신즈 코포레이션 전자 문서를 검증하는 시스템 및 방법
JP2010157189A (ja) 2009-01-05 2010-07-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
CN102023834B (zh) * 2009-09-21 2013-03-20 联想(北京)有限公司 一种背景图片的显示方法及系统
JP4818427B2 (ja) * 2009-12-22 2011-11-16 株式会社東芝 情報処理装置及び画面選択方法
KR101087479B1 (ko) 2010-01-29 2011-11-25 주식회사 팬택 멀티 디스플레이 장치 및 그 제어 방법
KR101642722B1 (ko) * 2010-02-04 2016-07-27 삼성전자 주식회사 듀얼 표시부를 가지는 휴대단말 및 그 표시부의 표시 제어 방법
KR20110092802A (ko) * 2010-02-10 2011-08-18 삼성전자주식회사 복수개의 표시부를 가지는 단말기의 데이터 운용 방법 및 이를 지원하는 단말기
US20110209101A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
JP5635850B2 (ja) * 2010-09-16 2014-12-03 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システムおよび情報処理方法
JP5598207B2 (ja) 2010-09-24 2014-10-01 日本電気株式会社 表示装置、表示方法およびプログラム
JP5749043B2 (ja) * 2011-03-11 2015-07-15 京セラ株式会社 電子機器
JP5805428B2 (ja) * 2011-04-26 2015-11-04 京セラ株式会社 携帯端末装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09102918A (ja) * 1995-10-05 1997-04-15 Matsushita Electric Ind Co Ltd 映像信号表示装置
JP2007082223A (ja) 2005-09-09 2007-03-29 Lg Electronics Inc 携帯端末機及びこれを利用した表示方法
WO2008016031A1 (fr) 2006-07-31 2008-02-07 Access Co., Ltd. Composant électronique, système d'affichage, procédé d'affichage et programme

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"2106BPM,'SUMAHO DE KACHIKACHI DEKIRU! ''ORITATAMI NO N'' GA H anatsu, Masaka no Sotogawa 2 Gamen no Oritatami Smartphone 'MEDIAS W N-05E' o Shashin to Doga de Check [Report", GADGET NEWS, 22 January 2013 (2013-01-22), pages 1 - 7, XP055290535, Retrieved from the Internet <URL:HTTP://GETNEWS.JP/ARCHIVES/285450> [retrieved on 20140320] *
See also references of EP2966556A4
YOICHI HIRAGA: "2 Gamen de Kitto Hakadoru: Shashin to Doga de Kaisetsu suru 'MEDIAS W N-05E (2/3", IT MEDIA MOBILE, 23 January 2013 (2013-01-23), pages 1 - 5, XP055290537, Retrieved from the Internet <URL:HTTP://WWW.ITMEDIA.CO.JP/MOBILE/ARTICLES/1301/23/NEWS144_2.HTML> [retrieved on 20140320] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211494A (ja) * 2016-05-25 2017-11-30 株式会社リコー 画像処理装置、画像処理システム、画像処理方法及びプログラム
US10725653B2 (en) 2016-05-25 2020-07-28 Ricoh Company, Ltd. Image processing device, image processing system, and image processing method

Also Published As

Publication number Publication date
CN105103116B (zh) 2018-09-21
US10222940B2 (en) 2019-03-05
EP2966556A4 (en) 2016-10-26
JP6245250B2 (ja) 2017-12-13
EP2966556B1 (en) 2019-10-09
JPWO2014136400A1 (ja) 2017-02-09
US20150355791A1 (en) 2015-12-10
EP2966556A1 (en) 2016-01-13
CN105103116A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
JP6245250B2 (ja) 携帯端末装置、画像生成方法及びプログラム
US10754532B2 (en) Method and apparatus for operating function in touch device
EP3246802A1 (en) Mobile terminal and method for controlling the same
JP6007469B2 (ja) 情報処理装置、表示制御方法、およびプログラム
JP6196398B2 (ja) タッチボタン及び指紋認証を実現する装置、方法、端末機器、並びにプログラム及び記録媒体
KR20170006559A (ko) 이동단말기 및 그 제어방법
KR20180095331A (ko) 이동단말기 및 그 제어 방법
CN102981750A (zh) 用于在移动终端中编辑文本的方法和设备
KR20180133743A (ko) 이동 단말기 및 그 제어 방법
JP2019159261A (ja) 電子黒板、映像表示方法、プログラム
US9621809B2 (en) Display control apparatus and method for controlling the same
WO2011067985A1 (ja) 携帯端末装置及び携帯端末装置の機能設定方法
US10855731B2 (en) Information processing apparatus, data processing method thereof, and program
US10075645B2 (en) Control of display of plurality of items and associated information
KR101591329B1 (ko) 이동단말기 및 이동 단말기의 제어방법
US10432848B2 (en) Electronic apparatus and method for controlling the same
KR100749481B1 (ko) 무접점 기능을 수행하는 장치 및 방법
JP6457170B2 (ja) 携帯電子機器
CN117519565A (zh) 一种设备的操控方法及电子设备
JP2014021893A (ja) 情報処理装置、操作信号生成方法、およびプログラム
KR20080018332A (ko) 통신 단말기의 정보 리스트 표시 방법
JP2005237042A (ja) 携帯電話機
KR20170028103A (ko) 이동 단말기 및 그 제어 방법
JP2015184938A (ja) 情報処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480012077.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14760340

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014760340

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14760110

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2015504158

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE