WO2016157475A1 - 電子機器及び表示制御プログラム - Google Patents

電子機器及び表示制御プログラム Download PDF

Info

Publication number
WO2016157475A1
WO2016157475A1 PCT/JP2015/060371 JP2015060371W WO2016157475A1 WO 2016157475 A1 WO2016157475 A1 WO 2016157475A1 JP 2015060371 W JP2015060371 W JP 2015060371W WO 2016157475 A1 WO2016157475 A1 WO 2016157475A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
electronic device
processor
contact
display device
Prior art date
Application number
PCT/JP2015/060371
Other languages
English (en)
French (fr)
Inventor
昌雅 川村
朋仁 岩村
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2015/060371 priority Critical patent/WO2016157475A1/ja
Priority to JP2017509091A priority patent/JP6384593B2/ja
Publication of WO2016157475A1 publication Critical patent/WO2016157475A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • the present invention relates to an electronic device and a display control program.
  • a touch panel is an input device in which, for example, a device for detecting coordinates of a contact position by an operation of a user (hereinafter also referred to as a user) is superimposed on a display device such as an LCD (Liquid Crystal Display).
  • a display device such as an LCD (Liquid Crystal Display).
  • Examples of the electronic device including the touch panel include a PC (Personal Computer), a mobile phone, a smartphone, a notebook PC, a tablet PC, a PDA (Personal Data Assistance), a game machine, and a navigation device.
  • an electronic device equipped with a resume function turns off a display device in a non-operation state, detects an operation of an operation button or the like, and turns on the display device in the turn-off state.
  • the display screen before turning off is displayed on the display device that has returned to the lit state.
  • an operation button such as a power source may be disposed at a position that is difficult to operate or a position that is difficult to find.
  • a resume function using sensing such as a touch panel may be provided.
  • sensing such as a touch panel
  • the proximity sensor is a sensor that detects an object close to the electronic device.
  • an electronic device such as a smartphone
  • the touch panel or the like suppresses contact detection on the touch panel surface such as a face that occurs during a call.
  • a smartphone or the like in which detection of contact with the touch panel surface is suppressed, for example, it is possible to prevent screen lighting due to erroneous contact that occurs during a call.
  • a proximity sensor for example, when a smartphone or the like is taken out from a storage location such as a pocket of clothes, a bag, a box, or a desk drawer with a finger or the like in contact with the touch panel surface, the proximity is approached. The object is not detected. For this reason, a smart phone etc. will detect the contact to the touch panel surface suppressed, and will light up the display device of a light extinction state. A display screen before turning off is displayed on the lit display device. When a smartphone or the like is taken out from a storage destination such as a bag while a finger or the like is in contact with the touch panel surface, information displayed on the display device may be viewed by a third party.
  • an object of the present invention is to provide a technique for suppressing a user's unintended return from an unlit state of a display screen.
  • the electronic apparatus includes a display device, a first detection unit that detects a contact with an object that is superimposed on the display device, a second detection unit that detects an object that is in proximity to the display device, and a display device. If the second detection unit detects an object in the proximity state when the first detection unit detects the first contact in the off state, the off state is maintained and the second detection unit is in the proximity state. When a certain object is not detected, it is determined whether or not the second contact detected by the first detection unit continues from the detection time of the object in the proximity state by the second detection unit. A control unit that maintains the extinguishing state of the display device when it is determined that the display device is continuing.
  • FIG. 1 illustrates an example of the hardware configuration of the electronic device of the present embodiment.
  • the electronic device 10 of the present embodiment includes, for example, a touch panel as an input device.
  • the touch panel is an input device in which, for example, a device for detecting coordinates of a contact position by an operation of a user (hereinafter also referred to as a user) is superimposed on a display device such as an LCD (Liquid Crystal Display).
  • LCD Liquid Crystal Display
  • Examples of the electronic device 10 including a touch panel include electronic devices such as a PC (PC: Personal Computer), a mobile phone, a smartphone, a notebook PC, a tablet PC, a PDA (Personal Data Assistant), a game machine, a digital camera, and a navigation device. included.
  • the electronic device 10 having a touch panel may be a wearable electronic device that can be worn on the user's body, such as a music player, a wristwatch type, or a wristband type.
  • the electronic device 10 includes a proximity sensor that detects the presence of a nearby object in the input device.
  • the proximity sensor detects the presence of an object in proximity to the sensor from changes in, for example, infrared rays, electromagnetic waves, ultrasonic waves, capacitance, and magnetic field strength.
  • the sensor that detects the presence of the adjacent object is not limited to the proximity sensor. Any sensor that can detect the presence of an object close to the electronic device 10 may be used.
  • An illuminance sensor can be exemplified as a sensor for detecting the presence of an adjacent object.
  • the illuminance sensor is, for example, a sensor that detects the brightness (incident light amount) around the electronic device 10.
  • the electronic device 10 may detect the presence of an object close to the electronic device 10 based on ambient brightness (incident light amount) detected by the illuminance sensor.
  • ambient brightness incident light amount
  • a proximity sensor is demonstrated as an example of a sensor which detects presence of the target object which adjoins electronic device 10.
  • a resume function using sensing of a touch panel is provided.
  • the electronic device 10 shifts the display device of the touch panel when not in operation to a light-off state.
  • the display device that has transitioned to the off state returns to the on state by the resume function using sensing on the touch panel.
  • the display device that is turned off returns to the lighting state based on the touch on the touch panel that is turned off.
  • the display screen before turning off is displayed on the display device that has returned to the lit state.
  • power consumption during non-operation is suppressed and operability related to the resume function is ensured.
  • the electronic device 10 of the present embodiment detects the presence or absence of an object in the proximity state when detecting contact with the display device surface that has been turned off, for example.
  • the presence / absence of an object in the proximity state is detected by a proximity sensor or the like.
  • the display device is turned off. To maintain.
  • the electronic device 10 of this embodiment determines whether the contact detected after the target object in a proximity
  • the contact detected after the presence of the target object in the proximity state is no longer detected is the contact that has been continued since the presence of the target object in the proximity state is detected.
  • the display device remains off.
  • the electronic device 10 according to the present embodiment displays a light-off state when, for example, the contact detected after the detection of the proximity state of the object is not the contact that has been continued from the proximity state of the object. Return the device to a lit state.
  • the electronic device 10 according to the present embodiment is a case where the electronic device 10 is taken out from a storage location such as a pocket of clothes, a bag, a box, a bag, or a desk drawer with a finger or the like in contact with the touch panel surface.
  • a storage location such as a pocket of clothes, a bag, a box, a bag, or a desk drawer with a finger or the like in contact with the touch panel surface.
  • a storage location such as a pocket of clothes, a bag, a box, a bag, or a desk drawer with a finger or the like in contact with the touch panel surface.
  • a storage location such as a pocket of clothes, a bag, a box, a bag, or a desk drawer with a finger or the like in contact with the touch panel surface.
  • the possibility that the display information displayed on the display device that has returned from the off state is viewed by a third party can be reduced.
  • the electronic device 10 illustrated in FIG. 1 includes a CPU (Central Processing Unit) 11, a main storage unit 12, an auxiliary storage unit 13, an input unit 14, an output unit 15, and a communication unit 16 that are connected to each other via a connection bus B1. .
  • the main storage unit 12 and the auxiliary storage unit 13 are recording media that can be read by the electronic device 10.
  • the electronic device 10 includes a first sub processor 17 and a second sub processor 18 connected to the connection bus B1.
  • the touch sensor 14 a of the input unit 14 is connected to the first sub processor 17, and the IR proximity sensor 14 b and the acceleration sensor 14 c are connected to the second sub processor 18.
  • the first sub processor 17 and the second sub processor 18 are connected to each other independently of the connection bus B1.
  • the CPU 11 develops the program stored in the auxiliary storage unit 13 in the work area of the main storage unit 12 so as to be executable, and controls peripheral devices through the execution of the program.
  • the first sub-processor 17 and the second sub-processor 18 develop the programs stored in the respective internal memories so as to be executable in the work areas of the internal memories, and control peripheral devices through the execution of the programs. I do. Thereby, the electronic device 10 can implement
  • the built-in memory of the first sub-processor 17 includes a ROM 17a and a RAM 17b.
  • the built-in memory of the second sub-processor 18 includes a ROM 18a and a RAM 18b.
  • the CPU 11 is a central processing unit that controls the entire electronic device 10.
  • the CPU 11 performs processing according to a program stored in the auxiliary storage unit 13.
  • the main storage unit 12 is a storage medium in which the CPU 11 caches programs and data and expands a work area.
  • the main storage unit 12 includes, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the auxiliary storage unit 13 stores various programs and various data in a recording medium in a readable and writable manner.
  • the auxiliary storage unit 13 is also called an external storage device.
  • the auxiliary storage unit 13 stores an operating system (Operating System: OS), various programs, various tables, and the like.
  • OS Operating System
  • the OS provides an application program with an interface to a resource to be managed for an installed application program (hereinafter also referred to as an application).
  • the application installed in the electronic device 10 realizes an application function through an interface to a resource provided via the OS.
  • the OS includes a communication interface program that exchanges data with an external device or the like connected via the communication unit 16.
  • Examples of the external device include other electronic devices such as a PC and a server, an external storage device, and the like on a network (not shown).
  • the auxiliary storage unit 13 is, for example, an EPROM (Erasable Programmable ROM), a solid state drive device, a hard disk drive (HDD, Hard Disk Drive) device, or the like.
  • EPROM Erasable Programmable ROM
  • a solid state drive device solid state drive device
  • HDD Hard Disk Drive
  • the auxiliary storage unit 13 for example, a CD drive device, a DVD drive device, a BD drive device, or the like can be presented.
  • the recording medium include a silicon disk including a nonvolatile semiconductor memory (flash memory), a hard disk, a CD, a DVD, a BD, a USB (Universal Serial Bus) memory, and a memory card.
  • the input unit 14 receives an operation instruction from a user or the like.
  • the input unit 14 is an input device such as a camera, an input button, a touch sensor 14a, a pointing device, or a microphone.
  • the input unit 14 may include a keyboard, a wireless remote controller, and the like. Examples of the pointing device include a touch panel, a mouse, a trackball, and a joystick.
  • the input unit 14 includes various sensors such as an IR proximity sensor 14b and an acceleration sensor 14c.
  • connection bus B1 information input from the touch sensor 14a is output to the connection bus B1 via the first processor 17.
  • Information input from the IR proximity sensor 14b and the acceleration sensor 14c is output to the connection bus B1 via the second processor.
  • Information input from other devices of the input unit 14 is output to the connection bus B1.
  • Various input information output to the connection bus B1 is notified to the CPU 11.
  • the output unit 15 outputs data processed by the CPU 11 and data stored in the storage unit 12.
  • the output unit 15 includes a display device such as a CRT (Cathode Ray Tube) display, an LCD (Liquid Crystal Display) 15a, a PDP (Plasma Display Panel), an EL (Electroluminescence) panel, and an organic EL panel.
  • the output unit 15 includes output devices such as a printer and a speaker.
  • the touch sensor 14a of the input unit 14 functions as a touch panel by being superimposed on a display device such as the LCD 15a of the output unit 15 for example.
  • the touch sensor 14a detects, for example, the coordinates of the contact position with respect to the display device surface such as the LCD 15a.
  • a display device surface such as the LCD 15a is also referred to as a “touch panel surface”.
  • the communication unit 16 is, for example, an interface with a network to which the electronic device 10 is connected.
  • the network includes, for example, a public network such as the Internet, a wireless network such as a mobile phone network including a communication base station, and a local area network (LAN).
  • a public network such as the Internet
  • a wireless network such as a mobile phone network including a communication base station
  • LAN local area network
  • the first processor 17 and the second processor 18 are low power consumption microcomputers.
  • a microcomputer with low power consumption is designed using a process with a relatively small operating current or the like when active, for example, so as to maximize the energy efficiency of the operation.
  • the low power consumption microcomputer operates using a built-in memory such as a ROM and a RAM.
  • the first processor 17 performs processing related to contact with the touch panel surface of the electronic device 10.
  • the touch to the touch panel surface is performed via the touch sensor 14 a connected to the first processor 17.
  • the first processor 17 performs a process related to touching the touch panel surface according to a program stored in the built-in memory.
  • the built-in memory is a storage medium that can be read by the first processor 17, and includes a storage medium in which the first processor 17 caches programs and data and expands a work area.
  • the internal memory of the first processor 17 includes, for example, a ROM 17a and a RAM 17b.
  • the second processor 18 performs processing related to detection of an object close to the electronic device 10. Processing related to detection of an object close to the electronic device 10 is performed via an IR proximity sensor 14 b connected to the second processor 18. Further, the second processor 18 performs processing related to detection of a relative angle with respect to the vertical downward direction of the electronic device 10. Processing related to detection of the relative angle of the electronic device 10 with respect to the vertically downward direction is performed via the acceleration sensor 14c.
  • the second processor 18 performs the above processing according to a program stored in the built-in memory.
  • the built-in memory is a storage medium that can be read by the second processor 18, and includes a storage medium in which the second processor 18 caches programs and data and expands a work area.
  • the internal memory of the second processor 18 includes, for example, a ROM 18a and a RAM 18b.
  • the resume function using sensing such as a touch panel of the electronic device 10 of the present embodiment is provided by the processing of the CPU 11, the first processor 17, and the second processor 18 connected to the connection bus B1.
  • the processing configurations of the CPU 11, the first processor 17, and the second processor will be described.
  • the CPU 11 of the electronic device 10 reads and executes an OS, various programs, and various data stored in the auxiliary storage unit 13 to provide various installed application functions.
  • the electronic device 10 provides a resume function using sensing such as a touch panel.
  • the CPU 11 of the electronic device 10 accepts a touch operation on an operation object displayed on a display device that is in a lit state of the touch panel.
  • CPU11 receives the coordinate which concerns on the contact operation detected with the touch panel via the 1st processor 17 connected to connection bus B1.
  • CPU11 performs the process linked
  • the CPU 11 of the electronic device 10 specifies a target operation object from among a plurality of operation objects displayed on the screen of the display device based on the contact operation. For example, it is assumed that an application function such as a character input application or a browser application is associated with the identified operation object.
  • the CPU 11 provides an application function by reading and executing various programs and various data associated with the target operation object.
  • CPU11 of the electronic device 10 which provides a character input application receives the coordinate of the contact position which moves a touchscreen surface in a contact state as time series data, for example.
  • CPU11 specifies the locus
  • CPU11 outputs the locus
  • a character “A” or the like based on a locus input by handwriting is displayed.
  • the browser application is specified based on the contact operation.
  • various contents provided by each site connected via the Internet are displayed on the display screen of the touch panel.
  • the CPU 11 specifies, for example, a user's contact operation with respect to content displayed on the display screen from the time-series data of the coordinates of the contact position.
  • CPU11 scrolls a display screen according to a moving direction, for example, when detecting the flick operation moved so that the operation finger etc. which touched the touch panel surface may be played.
  • the display position of the content displayed on the touch panel of the electronic device 10 moves in the flick operation direction.
  • the CPU 11 detects a tap operation that causes the operation finger or the like that has been brought into contact with the touch panel surface to be removed from the contact position
  • the CPU 11 performs an operation associated with the operation object of the content displayed at the contact position.
  • display switching of information provided by the content displayed on the display screen of the touch panel is performed based on the tap operation.
  • the CPU 11 of the electronic device 10 does not detect contact with the touch panel surface for a certain period in a state where predetermined information is displayed on the display screen, or does not accept an input operation via the input unit 14. In this case, the display device in the lit state is shifted to the unlit state. This is because it is possible to determine that the touch panel surface is not operated for a certain period of time, or when no input operation is accepted via the input unit 14. For example, the electronic device 10 suppresses the power consumption in the non-operation state by shifting the display device of the touch panel in the non-operation state to the off state.
  • the power consumption of the display device in the lit state is experimentally measured, and the transition period from the lit state to the unlit state is determined based on the measured power consumption. Can be determined.
  • the certain period may be a period set in advance through an operation input by the user of the electronic device 10, for example.
  • the CPU 11 of the electronic device 10 in the non-operation state shifts the display device such as the LCD 15a to a light-off state, for example, and switches the first processor 17 connected to the touch sensor 14a to the “contact detection mode”.
  • the “contact detection mode” of the first processor 17 is a mode for detecting the presence / absence of contact generated on the touch panel surface that is turned off with low power consumption.
  • the electronic device 10 detects the presence / absence of contact with the touch panel surface shifted to the unlit state by the first processor 17 shifted to the “contact detection mode”.
  • the CPU 11 may shift the power state of the CPU 11 to the standby state of the power saving mode when the first processor 17 shifts to the “contact detection mode”.
  • the first processor 17 that has shifted to the “contact detection mode” for example, a contact state detection program is executed. By executing the contact state detection program, the presence or absence of contact with the touched touch panel is detected.
  • the first processor 17 that has shifted to the “contact detection mode” notifies the CPU 11 of the resume recovery that causes the display device that is turned off to return to the lighting state via the connection bus B1.
  • the CPU 11 accepts, for example, a resume return notification from the first processor 17 as an input for interrupt processing.
  • the CPU 11 causes the display device of the touch panel that is turned off to return to the lighting state in response to reception of the interrupt processing input.
  • the CPU 11 may return to the operation state upon reception of the interrupt processing input.
  • the CPU 11 that has shifted to the operating state may return the display device of the touch panel that is in the off state to the on state.
  • the CPU 11 of the electronic device 10 returns the first processor 17 to the operating state when the display device resumes.
  • the first processor 17 that has returned to the operation state from the “contact detection mode” for example, the coordinates of the touch panel related to the contact position are calculated based on the detection signal of the touch sensor 14a.
  • the coordinates relating to the contact position calculated by the first processor 17 are delivered to the operating CPU 11 via the connection bus B1.
  • the various application functions described above are provided based on the coordinates relating to the contact position received via the connection bus B1.
  • the CPU 11 of the electronic device 10 in the non-operating state shifts the display device such as the LCD 15a to a light-off state and activates the second processor 18, for example.
  • An IR proximity sensor 14b and an acceleration sensor 14c for detecting an object in proximity are connected to the second processor 18 illustrated in FIG.
  • a proximity sensor monitoring program based on the detection signal of the connected IR proximity sensor 14b is executed.
  • the activated second processor 18 executes an acceleration sensor monitoring program based on the detection signal of the connected acceleration sensor 14c.
  • execution of the proximity sensor monitoring program generates a proximity state monitoring signal indicating the presence or absence of an object close to the electronic device 10 based on the sensor signal acquired from the IR proximity sensor 14b. For example, the second processor 18 notifies the generated proximity state monitoring signal to the first processor 17 that has shifted to the “contact detection mode”. In the first processor 17 that has shifted to the “contact detection mode”, the processing of the contact state detection program is performed based on the proximity state monitoring signal notified from the second processor 18.
  • the second processor 18 specifies the relative angle of the electronic device 10 with respect to the vertically downward direction as the terminal angle based on the sensor signal acquired from the acceleration sensor 14c by executing the acceleration sensor monitoring program. For example, the second processor 18 notifies the first processor 17 that has shifted to the “contact detection mode” of the specified terminal angle. In the first processor 17 that has shifted to the “contact detection mode”, processing of a contact state detection program using an acceleration sensor is performed based on the proximity state monitoring signal and the terminal angle notified from the second processor 18. The first processor 17 notifies the CPU 11 of the resume return by executing the contact state detection program.
  • the CPU 11 of the electronic device 10 that has received the notification of the resume return notifies the second processor 18 of the end of the processing of the proximity sensor monitoring program, for example. Further, when the process of the acceleration sensor program is being executed, the CPU 11 of the electronic device 10 notifies the second processor 18 of the end of the process of the acceleration sensor program. The CPU 11 of the electronic device 10 shifts the second processor 18 that has finished various processing programs to a standby state.
  • the first processor 17 reads and executes various programs and various data stored in the ROM 17a, the RAM 17b, and the like, thereby performing processing related to touching the touch panel surface. For example, based on the notification from the CPU 11, the first processor 17 provides three types of processing modes relating to touch on the touch panel surface, such as “mode 1”, “mode 2”, and “mode 3”.
  • Mode 1 is, for example, a processing mode provided when the CPU 11 of the electronic device 10 is in an operating state.
  • the first processor 17 calculates coordinates related to the contact position of the operation finger or the like on the touch panel surface in the lit state based on the detection signal of the touch sensor 14a. The coordinates relating to the calculated contact position are notified to the operating CPU 11 via the connection bus B1, for example.
  • Mode 2 is, for example, a processing mode provided when the CPU 11 of the electronic device 10 is in a sleep state.
  • the “mode 2” processing mode for example, the first processor 17 is in a standby state with low power consumption.
  • the processing mode of “mode 2” the processing related to the touch on the touch panel surface and the touch position is suppressed.
  • Mode 3 is, for example, a processing mode provided when the display device of the touch panel during non-operation is in an unlit state. “Mode 3” is the processing mode of the “contact detection mode” already described.
  • a contact state detection program is executed. By executing the contact state detection program, a resume function using touch panel sensing provided in the electronic device 10 of the present embodiment is provided.
  • the first processor 17 in “Mode 3” detects the presence / absence of contact with the display device surface in the off state.
  • the first processor 17 in “mode 3” suppresses calculation of coordinates related to the contact position of the operation finger or the like on the touch panel surface in the unlit state. For this reason, the first processor 17 in “mode 3” can suppress power consumption relative to the processing mode in “mode 1”.
  • the first processor 17 in the “mode 3” can detect the presence / absence of contact with the display device surface that is in a light-off state with low power consumption.
  • the processing form provided by the first processor 17 is not limited to the above three types.
  • a plurality of processing modes can be provided according to the performance provided by the electronic device 10, the power consumption of various devices included in the electronic device 10, and the like.
  • the processing of the first processor 17 regarding the processing modes of “mode 1” and “mode 3”, excluding “mode 2” in which processing related to touch on the touch panel surface is suppressed will be described.
  • a touch sensor 14 a is connected to the first processor 17.
  • the touch sensor 14a outputs, for example, changes in physical quantities such as capacitance, voltage, pressure, light, and vibration caused by contact with the display device surface (touch panel surface) to the first processor 17 as detection signals.
  • the first processor 17 samples the detection signal output from the touch sensor 14a at a predetermined periodic interval such as 10 ms.
  • the sampled detection signal of the touch sensor 14a is acquired as time series data.
  • the first processor 17 detects contact of an operation finger or the like with respect to the display device surface based on the sampled detection signal. Further, the first processor 17 detects the separation of the touched operation finger or the like from the change in the time-series data of the detection signal indicating the contact state. The first processor 17 calculates the coordinates of the contact and detachment positions with respect to the display device surface based on the detection signal output from the touch sensor 14a.
  • the coordinates calculated by the first processor 17 are, for example, the upper left corner of the combined display device such as the LCD 15a as the origin, the horizontal direction of the display device as the X axis, and the vertical direction as the Y axis (X, Y) can be expressed as two-dimensional coordinates.
  • the first processor 17 notifies the CPU 11 of the calculated two-dimensional coordinates of the contact position as time series data via the connection bus B1.
  • Mode 3 contact detection mode
  • a contact state detection program is executed.
  • the contact state detection program By executing the contact state detection program, presence / absence of contact with the display device surface in the extinguished state is detected based on the detection signal output from the touch sensor 14a.
  • the calculation of the coordinates related to the contact position of the operation finger or the like on the touch panel surface in the unlit state is suppressed.
  • the second processor 18 is connected to the first processor 17 independently of the connection bus B1.
  • the first processor 17 in “mode 3” is notified of the proximity state monitoring signal generated by the second processor 18 and the terminal angle as a relative angle with respect to the vertical downward direction of the electronic device 10.
  • the first processor 17 detects contact with the display device surface in the extinguished state
  • the first processor 17 detects the presence or absence of an object in the close state based on the close state monitoring signal.
  • the first processor 17 suppresses resume recovery.
  • the first processor 17 notifies the CPU 11 of the resume return even if it detects contact with the display device surface in the off state. Absent.
  • the first processor 17 is, for example, a contact in which the contact detected after the presence of the object in the proximity state is no longer detected is continued from the state in which the presence of the object in the proximity state is detected. It is determined whether or not there is.
  • the first processor 17 detects, for example, that the contact detected after the presence of an object in the proximity state is no longer detected is a contact that continues from the state in which the presence of the object in the proximity state is detected. In this case, resume resume is suppressed. The first processor 17 does not notify the CPU 11 of the resume return.
  • the first processor 17 determines that the contact detected after the presence of the object in the proximity state is no longer detected is continued from the state in which the presence of the object in the proximity state is detected. If not, resume resume. In other words, the electronic device 10 returns the lighted display device to the lighted state again when contact with the lighted display device surface is detected again after the close target object is no longer detected. For example, the first processor 17 performs a resume return notification to the CPU 11 via the connection bus B1.
  • the CPU 11 Based on the resume return notification from the first processor 17, the CPU 11 returns the display device such as the LCD 15 a that is turned off to the lighting state, for example.
  • the CPU 11 that has received the resume return notification from the first processor 17 notifies the first processor 17 of the switching of the processing mode, for example.
  • the CPU 11 notifies the first processor 17 of switching to shift the “mode 3” processing mode being executed to “mode 1”.
  • the first processor 17 shifts the processing mode of “mode 3” to the processing mode of “mode 1” based on the switching notification from the CPU 11 to “mode 1”. In the first processor 17 that has shifted to the “mode 1” processing mode, the calculation of the coordinates of the contact position based on the detection signal of the touch panel 14a described above is executed.
  • the second processor 18 reads and executes various programs and various data stored in the ROM 18a, the RAM 18b, and the like, thereby performing processing related to detection of an object in the proximity state. Processing related to detection of an object in the proximity state is performed, for example, by executing a proximity sensor monitoring program.
  • the second processor 18 reads out and executes various programs and various data stored in the ROM 18a, RAM 18b, etc., thereby performing processing related to specifying the relative angle with respect to the vertically downward direction.
  • the process related to specifying the relative angle with respect to the vertically downward direction is performed, for example, by executing an acceleration sensor monitoring program.
  • the second processor 18 provides, for example, two types of processing forms such as “standby state” and “operation state” based on a notification from the CPU 11.
  • the “standby state” is, for example, a processing form provided when the CPU 11 of the electronic device 10 is in a sleep state.
  • the “standby state” processing mode for example, the second processor 18 is in a standby state with low power consumption.
  • processing related to detection of an object in the proximity state and processing related to specification of a relative angle with respect to the vertically downward direction are suppressed.
  • “Operation state” is a processing form provided when, for example, the display device of the touch panel when not in operation is in a light-off state.
  • the second processor 18 executes a proximity sensor monitoring program and performs processing related to detection of an object in the proximity state.
  • the second processor 18 executes, for example, an acceleration sensor monitoring program and performs processing related to specification of a relative angle with respect to the vertically downward direction.
  • processing forms provided by the second processor 18 are not limited to two types. A plurality of processing modes can be provided according to the performance provided by the electronic device 10, the power consumption of various devices included in the electronic device 10, and the like. Hereinafter, the processing of the second processor 18 will be described with respect to the “operation state” processing mode.
  • the IR proximity sensor 14 b is connected to the second processor 18.
  • the IR proximity sensor 14b is an infrared proximity sensor that combines a light emitting element that emits infrared light and a light receiving element that receives infrared light and converts it into an electrical signal or the like.
  • the IR proximity sensor 14b is disposed on the same surface as the touch panel surface, for example, and detects the presence of an object that is close to the touch panel surface.
  • the infrared type IR proximity sensor 14b for example, a light emitting element and a light receiving element that emit infrared light are generally used. Infrared light transmitted from the light emitting element is reflected by an adjacent object and received by the light receiving element.
  • the light receiving element of the IR proximity sensor 14b senses, for example, the intensity of infrared light reflected by a nearby object, and outputs an electrical signal corresponding to the sensed intensity to the second processor 18.
  • the proximity sensor connected to the second processor 18 is not limited to the infrared type.
  • a “capacitance type” using static electricity, an “ultrasonic type” using ultrasonic waves, or an “electromagnetic wave type” proximity sensor using electromagnetic waves may be used. Any proximity sensor that can detect the proximity of an object as a change in an electrical signal or the like may be used.
  • the processing of the second processor 18 will be described using an IR proximity sensor as an example.
  • the second processor 18 detects the distance between the adjacent objects based on the electrical signal output from the IR proximity sensor 14b. The distance between the adjacent objects is detected according to the level of the electric signal, for example. For example, the second processor 18 determines that the distance to the detected object is equal to or less than a predetermined value. For example, the second processor 18 compares the level of the electrical signal output from the IR proximity sensor 14b with a threshold value, and determines that the distance to the object is equal to or less than a predetermined value.
  • the threshold value is obtained by, for example, preliminarily bringing the target object close to the electronic device 10 so as to be in a close state, and experimentally measuring the distance from the target object, and is stored in the electronic device 10 in advance. That's fine. Then, the electronic device 10 measures the level of the electric signal output from the proximity sensor corresponding to the predetermined value, and compares the measured level with a threshold value for determining the distance from the object in the proximity state. That's fine.
  • the predetermined value may be set in advance through an operation input by the user of the electronic device 10, for example. As an example of the predetermined value, a distance in centimeters such as 3 cm can be exemplified.
  • the second processor 18 that executes the proximity sensor monitoring program outputs, for example, a result of determination of the distance to the object in the proximity state to the first processor 17 as a “proximity state monitoring signal”.
  • the “proximity state monitoring signal” is output to, for example, the first processor 17 that is executing the contact state detection program.
  • the “proximity state monitoring signal” of the second processor 18 is output to the first processor 17 independently of the connection bus B1.
  • the “proximity state monitoring signal” can be expressed as a status signal indicating a binary state such as “1/0” or “H / L”, for example.
  • the second processor 18 that executes the proximity sensor monitoring program sends the status signal “0 (L)” to the “proximity” when the distance to the object in the proximity state is equal to or less than a predetermined value. It is output as a “status monitoring signal”.
  • the second processor 18 outputs a status signal of the state value “1 (H)” as a “proximity state monitoring signal” when the distance to the object in the proximity state exceeds a predetermined value. To do.
  • proximity sensors of “capacitance type”, “ultrasonic type”, and “electromagnetic wave type”.
  • a change in capacitance is output as an electrical signal due to the proximity of an object.
  • an “ultrasonic wave type” or “electromagnetic wave type” proximity sensor changes in ultrasonic waves and electromagnetic waves reflected by the proximity of an object are output as electrical signals.
  • the second processor 18 compares the level of the electrical signal output corresponding to the distance with the threshold value corresponding to the predetermined distance, thereby generating the “proximity state monitoring signal”. Can be generated.
  • the senor connected to the second processor 18 is not limited to a proximity sensor as long as it can detect the presence of an adjacent object.
  • a proximity sensor that detects the brightness (incident light quantity) around the electronic device 10 with a light receiving element such as a photodiode or a phototransistor and outputs an electrical signal at a level corresponding to the detected brightness can be exemplified.
  • FIG. 2 illustrates a hardware configuration example of the electronic device 10 including the illuminance sensor 14d.
  • the illuminance sensor 14d included in the electronic device 10 is connected to the second processor independently of the connection bus B1.
  • the second processor 18 can generate a “proximity state monitoring signal” by using a threshold value as in the case of the IR proximity sensor 14b.
  • a threshold value as in the case of the IR proximity sensor 14b.
  • the user of the electronic device 10 experimentally brings an object close to the electronic device 10 including the illuminance sensor 14d, and measures the distance to the object and the level of the electric signal output from the illuminance sensor 14d. To do.
  • the 2nd processor 18 of the electronic device 10 provided with the illumination intensity sensor 14d should just make the output level of the electrical signal of the illumination intensity sensor 14d corresponding to a predetermined distance the threshold value for determining a proximity state.
  • the 2nd processor 18 provided with illuminance sensor 14d acquires the electric signal output from illuminance sensor 14d with execution of a proximity sensor monitoring program, for example.
  • the “proximity monitoring signal” is generated by comparing the level of the acquired electrical signal with a threshold value specified in advance through experiments.
  • an MR (magnetoresistive) sensor can be exemplified.
  • the strength of the magnetic field around the electronic device 10 is detected by a magnetoresistive element, and an electric signal having a level corresponding to the detected strength of the magnetic field is output.
  • FIG. 3 illustrates a hardware configuration example of the electronic device 10 when the MR sensor 14e is used. Even when the MR sensor 14e is provided, the second processor 18 connects to the MR sensor 14e independently of the connection bus B1.
  • the second processor 18 can generate the “proximity state monitoring signal” by using the threshold value even when the MR sensor 14e is used.
  • the MR sensor 14e detects the strength of the magnetic field according to the distance to the object
  • the object to be detected in the proximity state is limited to, for example, an object on which a magnet or the like is arranged.
  • a dedicated protective case embedded with a magnet or the like for protecting the electronic device 10 such as a smartphone can be exemplified.
  • the electronic device 10 is housed in a bag or a pocket of clothes while being housed in a protective case.
  • the electronic device 10 can protect the display device of the touch panel from an impact such as dropping by being housed in a protective case.
  • a threshold value for determining the proximity state of the object can be obtained in the same manner as the IR proximity sensor 14b and the illuminance sensor 14d. That is, for example, the user of the electronic device 10 experimentally brings an object on which a magnet or the like is disposed close to the electronic device 10 including the MR sensor 14e, and outputs the distance from the object and the MR sensor 14d. Measure the level of the electrical signal. And the 2nd processor 18 of the electronic device 10 should just make the output level of the electrical signal of MR sensor 14e corresponding to a predetermined distance the threshold value for determining a proximity state.
  • the second processor 18 including the MR sensor 14e acquires, for example, an electrical signal output from the MR sensor 14e when the proximity sensor monitoring program is executed.
  • the “proximity monitoring signal” is generated by comparing the level of the acquired electrical signal with a threshold value specified in advance through experiments.
  • the “proximity monitoring signal” generated based on the detection signals of the IR proximity sensor 14b, the illuminance sensor 14d, and the MR sensor 14e is connected to the second processor 18 independently of the connection bus B1. 17 is output.
  • the second processor 18 that executes the proximity sensor monitoring program outputs a “proximity state monitoring signal” to the first processor 17 that executes the contact state detection program.
  • the acceleration sensor 14 c is connected to the second processor 18.
  • the acceleration sensor 14c detects acceleration due to gravity in the vertically downward direction.
  • the acceleration sensor 14c detects acceleration in a triaxial direction in which the horizontal direction of the touch panel of the electronic device 10 is the X axis, the vertical direction is the Y axis, the depth is orthogonal to the touch panel surface, and the front direction is the Z axis.
  • the acceleration in the three-axis direction is detected as a resultant force of the acceleration in each direction and the gravitational acceleration in the vertical downward direction.
  • the acceleration detected by the acceleration sensor 14c is output to the second processor 18 as an acceleration value in each axial direction, for example.
  • the second processor 18 calculates a relative angle with the vertical downward direction of the electronic device 10 as a reference axis based on the acceleration value in each axial direction output from the acceleration sensor 14c.
  • the relative angle with the vertical downward direction of the electronic device 10 as the reference axis is calculated using, for example, a trigonometric function.
  • the acceleration sensor 14c may output a relative angle to the second processor 18 with the vertical downward direction of the electronic device 10 as a reference axis.
  • the second processor 18 that executes the acceleration sensor monitoring program outputs, for example, a relative angle with the vertical downward direction of the electronic device 10 as the reference axis as the “terminal angle” to the first processor 17.
  • the “terminal angle” from the second processor 18 is output to the first processor 17 connected independently of the connection bus B1.
  • the second processor 18 that executes the acceleration sensor monitoring program outputs “terminal angle” to the first processor 17 that executes the contact state detection program.
  • FIG. 4 is an example of a flowchart of state detection processing based on detection of an object in the proximity state.
  • FIG. 5 is an example of a flowchart of a state detection process based on detection of an object in the proximity state and a relative angle of the electronic device 10 with respect to a vertically downward direction.
  • the start of the state detection process can be exemplified when the first processor 17 is notified of switching to “mode 3”.
  • the electronic device 10 shifts a display device such as the LCD 15a during non-operation from a lighting state to a non-lighting state.
  • a display device such as the LCD 15a during non-operation from a lighting state to a non-lighting state.
  • the display information is displayed on the display screen such as the LCD 15a and the touch on the touch panel surface is not detected for a certain period of time, or input via the input unit 14
  • the case where operation is not received can be illustrated.
  • Transition period can be defined. Further, the certain period may be a period set in advance through an operation input by the user of the electronic device 10, for example.
  • the electronic device 10 shifts the display device such as the LCD 15a to the off state and switches the first processor 17 connected to the touch sensor 14a to “mode 3”.
  • the contact state detection program is executed.
  • the presence / absence of contact generated on the display device surface such as the LCD 15a in the extinguished state is detected.
  • the electronic device 10 shifts the display device such as the LCD 15a to the off state and activates the second processor 18.
  • a proximity sensor monitoring program is executed (S1).
  • the second processor 18 outputs the determination result of the presence / absence of an object close to the electronic device 10 to the first processor 17 as a “proximity state monitoring signal”.
  • the process of the proximity sensor monitoring program in S1 will be described in detail with reference to FIG.
  • the electronic device 10 stores, for example, the contact state of the display device surface in the off state in the variable “D” (S2).
  • the variable “D” is, for example, a variable in which the presence / absence of contact of the display device surface in the unlit state is stored.
  • the contact state of the display device surface such as the LCD 15a in the extinguished state is acquired via the touch sensor 14a.
  • the first processor 17 samples the detection signal output from the touch sensor 14a at a predetermined periodic interval such as 10 ms.
  • the detection signal of the touch sensor 14a is acquired as time series data of sampling cycle intervals.
  • the variable “D” stores the contact state with respect to two consecutive detection signals sampled at a predetermined cycle interval as time series data. For example, in the variable “D”, a contact state with respect to the detection signal acquired by the latest sampling and a contact state with respect to the detection signal acquired by the immediately previous sampling are continuously paired and stored.
  • the contact state for the latest sampling stored in the variable “D” is represented as “D [0]”
  • the contact state for the immediately preceding sampling is represented as “D [1]”.
  • Two consecutive contact states held in the variable “D” can be represented as “D [1: 0]”.
  • the first processor 17 of the electronic device 10 stores, for example, the contact state with respect to the detection signal acquired by the latest sampling in the variable “D [0]”.
  • the contact state can be expressed as, for example, binary state values of “1” and “0”.
  • the variable “D [0]” is set to “1”. Stores the state value of. Similarly, the first processor 17 of the electronic device 10 stores a state value of “0” in the variable “D [0]” when contact with the display device surface such as the LCD 15a in the extinguished state is not detected. .
  • the first processor 17 of the electronic device 10 stores, for example, the contact state with respect to the acquired detection signal in a variable “D [0]” in which the latest state value is stored every time sampling is performed.
  • the state value for the detection signal acquired by the immediately previous sampling is stored in the variable “D [0]”.
  • the state value for the previous sampling stored in the variable “D [0]” is shifted to the variable “D [1]”, for example, before storing the state value for the latest sampling.
  • the variable “D” the state value for the detection signal acquired by the latest sampling and the state value for the detection signal acquired by the previous sampling are continuously held.
  • the electronic device 10 determines whether or not there is an object close to the electronic device 10, for example.
  • the first processor 17 of the electronic device 10 acquires the proximity state monitoring signal output from the second processor 18 activated in the process of S1.
  • the first processor 17 determines whether the state of the acquired proximity state monitoring signal is “H” status or “L” status.
  • the proximity state monitoring signal is output as an “L” status.
  • the “proximity state monitoring signal” is output as the “H” status.
  • the electronic device 10 proceeds to the process of S2 and repeats the processes of S2-S3.
  • the processing of S ⁇ b> 2-S ⁇ b> 3 is repeated until the presence of a close target object is no longer detected.
  • the electronic device 10 proceeds to the process of S4.
  • the processing of S4-S11 is executed.
  • the electronic device 10 determines whether the state value held in the variable “D [0]” is “1” or “0” by the process of S2. For example, when the state value held in the variable “D [0]” is “0” (S4, 0), the electronic device 10 proceeds to the process of S2 and repeats the processes of S2-S4. In the electronic device 10, when the contact with the display device surface whose latest state value is in the off state is not detected, the processing of S2-S4 is repeated.
  • the electronic device 10 proceeds to the process of S5.
  • S5 it is determined whether or not contact is detected based on the previous state value.
  • the electronic device 10 when the latest state value detects contact with the display device surface in the extinguished state, it is determined whether or not the previous state value has detected contact.
  • S4 to S5 it is determined whether or not the contact detected in the latest sampling is a contact that continues from the immediately preceding sampling.
  • the electronic device 10 determines whether the state value held in the variable “D [1]” that stores the immediately previous contact state is “1” or “0”. In the process of S5, when the state value held in the variable “D [1]” is “1”, that is, when contact with the display device surface in the off state is detected, it is detected by the latest sampling. It can be determined that the contact is a contact that continues from the immediately preceding sampling.
  • the electronic device 10 proceeds to the process of S6. That is, in the electronic device 10, when the contact detected in the latest sampling is not a contact that has continued from the immediately preceding sampling, the resume recovery process shown in S6-S9 is performed.
  • the electronic device 10 proceeds to the process of S10. That is, in the electronic device 10, when the contact detected in the latest sampling is a contact that continues from the immediately preceding sampling, a process of maintaining the extinguished state of S10-S11 is performed.
  • the electronic device 10 returns a display device such as the LCD 15a that is turned off to a lighting state.
  • the first processor 17 of the electronic device 10 notifies the CPU 11 of a resume of resume that causes the display device in the off state to return to the on state.
  • the CPU 11 of the electronic device 10 shifts the display device such as the LCD 15 a in the extinguished state to the lit state based on the notification from the first processor 17.
  • the CPU 11 changes the power state that has shifted to the standby state to the operating state by notification from the first processor 17, for example. Return. Then, the CPU 11 that has returned to the operating state may cause the display device such as the LCD 15a that is turned off to shift to the lighting state.
  • the electronic device 10 stores the state value indicating the contact state of the display device surface in the extinguished state, and sets the state value held in the variable “D [1: 0]” to the initial state.
  • the electronic device 10 shifts the first processor 17 connected to the touch sensor 14a to “mode 1”.
  • the CPU 11 of the electronic device 10 notifies the first processor 17 of the transition to “mode 1” via the connection bus B1.
  • the first processor 17 shifts the “mode 3” processing mode to the “mode 1” processing mode.
  • the contact state detection program is terminated together with the transition of the processing mode to “mode 1”.
  • the first processor 17 that has shifted to “mode 1”, for example, based on the detection signal of the touch sensor 14a, coordinates related to the contact position of the operation finger or the like on the touch panel surface in the lighting state are calculated.
  • the coordinates relating to the calculated contact position are notified to the operating CPU 11 via the connection bus B1, for example.
  • the electronic device 10 ends the proximity sensor monitoring program started in the process of S1.
  • the CPU 11 of the electronic device 10 notifies the second processor 18 of the end of the proximity sensor monitoring program via the connection bus B1.
  • the second processor 18 ends the proximity sensor monitoring program being executed based on the notification from the CPU 11.
  • the CPU 11 shifts the second processor 18 that has finished the proximity sensor monitoring program to a standby state.
  • the electronic device 10 determines whether the state value held in the variable “D [0]” is “1” or “0”, for example. For example, when the state value held in the variable “D [0]” is “1” (S10, 1), the first processor 17 of the electronic device 10 proceeds to the process of S11.
  • the electronic device 10 stores the contact state with respect to the detection signal acquired by the latest sampling in the variable “D [0]”, and proceeds to the process of S10.
  • the processing of S10-S11 is repeated until the contact that has been determined in the processing of S4-S5 and continues from the previous sampling is not detected.
  • the display device 10 is turned off. Can be maintained. For example, even when the electronic device 10 is removed from a bag or the like with a finger or the like in contact with the display device surface of the touch panel, the electronic device 10 is turned off when the contact with the display device surface continues. Resume return to the lighting state of a certain display device can be suppressed.
  • the first processor 17 of the electronic device 10 performs the process of S2, for example, when the state value held in the variable “D [0]” is “0” (S10, 0).
  • Migrate to In the electronic device 10 when contact that has been detected from the immediately preceding sampling determined in S 4 -S 5 is not detected, the process of S 2 -S 11 is executed based on the latest sampled detection signal. .
  • the electronic device 10 for example, after removing the finger or the like from the bag with the finger touching the display device surface, the touched finger or the like is detached from the display device surface, and the finger or the like is newly put on the display device in the off state. By making contact, it is possible to resume the lighting state. In the electronic device 10, it is possible to return the display device in the off state to the lighting state by contact intended by the user.
  • the process of S2 executed by the electronic device 10 is an example of a first detection step that is superimposed on the display device and detects contact by an object.
  • the first processor 17 or the like of the electronic apparatus 10 executes the process of S2 as an example of a first detection unit that is superimposed on the display device and detects contact with an object.
  • processing of S1 executed by the electronic device 10 is an example of a second detection step of detecting an object that is in proximity to the display device.
  • the second processor 18 or the like of the electronic device 10 executes the process of S1 as an example of a second detection unit that detects an object in a proximity state with respect to the display device.
  • the processing of S3-S5 (1) and S10-S11 executed by the electronic device 10 is such that the second detection unit is in the proximity state when the first detection unit detects the first contact with the display device turned off.
  • the light-off state is maintained, and the second contact detected by the first detection unit is detected as the second detection when the second detection unit does not detect the object in the proximity state. It is determined whether or not the object is in a proximity state by the unit, and if it is determined that the second contact is continuing, the display device is turned off. It is an example of the control step which maintains When the first processor 17 of the electronic device 10 detects an object in the proximity state when the display device is off and the first detection unit detects the first contact, the second detection unit detects the first contact.
  • S3-S5 (1), S10- as an example of a control unit that maintains the display device extinguishing state when it is determined whether or not the second contact is continued. The process of S11 is executed.
  • the processing of S3-S5 (0) and S6-S9 executed by the electronic device 10 is a control step for returning from the display device extinguishing state when it is determined that the second contact is not continued. It is an example. Further, the CPU 11, the first processor 17, the second processor 18, and the like of the electronic device 10 are examples of a control unit that returns from the display device extinguishing state when it is determined that the second contact is not continued. The processes of S3-S5 (0) and S6-S9 are executed.
  • the electronic device 10 it is possible to detect the presence or absence of an object in the vicinity of the electronic device 10 whose display device is turned off. For example, when the electronic device 10 detects contact with the display device surface that is in an extinguished state, the electronic device 10 can determine the presence or absence of an object in the proximity state.
  • the electronic device 10 can maintain the display device in the extinguished state.
  • the electronic device 10 further determines whether or not the detected contact is a contact that continues from the state in which the object in the proximity state is detected. it can.
  • the electronic device 10 when the contact in the state where the object in the proximity state is not detected is a contact that continues from the state in which the object in the proximity state is detected, the electronic device 10 of the display device The extinguished state can be maintained.
  • the electronic device 10 according to the present embodiment is a display device that is turned off when the contact in a state in which the object in the proximity state is not detected is not a contact that continues from the state in which the object in the proximity state is detected. Can be returned to the lighting state.
  • the electronic device 10 according to the present embodiment erroneously returns from the off state to the lit state even when the electronic device 10 is taken out from a storage destination such as a bag with a finger or the like in contact with the touch panel surface. Can be prevented.
  • a storage destination such as a bag with a finger or the like in contact with the touch panel surface.
  • the possibility that the display information displayed on the display device that has returned from the off state is viewed by a third party can be reduced.
  • the electronic device 10 according to the present embodiment can provide a technique for suppressing a user's unintended return from a display screen extinguishing state using touch panel sensing.
  • the operability of the resume function using sensing on the touch panel can be improved.
  • the electronic device 10 adds to the state detection process illustrated in FIG. 4 on the condition that the relative angle with respect to the vertically downward direction is within a predetermined angle range, and enters the light-off state. A certain display device is returned to the lighting state.
  • the electronic device 10 executes, for example, an acceleration sensor monitoring program.
  • the acceleration sensor monitoring program is executed by the second processor 18.
  • the relative angle of the electronic device 10 with respect to the vertically downward direction is calculated.
  • the second processor 18 outputs the calculated relative angle of the electronic device 10 to the vertical downward direction as the “terminal angle B” to the first processor 17.
  • the acceleration sensor monitoring program ends with a notification from the CPU 11 that has returned the display device in the off state to the on state (S13).
  • the CPU 11 of the electronic device 10 notifies the end of the acceleration sensor monitoring program to the second processor 18, for example, via the connection bus B1.
  • the second processor 18 ends the running acceleration sensor monitoring program based on the notification from the CPU 11.
  • the CPU 11 shifts the second processor 18 that has finished the acceleration sensor monitoring program to a standby state.
  • the electronic device 10 performs the processes of S10-S11 and S14-S21. Execute. Note that whether or not the contact detected in the latest sampling is a contact that continues from the immediately preceding sampling is determined by the processing of S4-S5. Further, the processing of S10-S11 is performed after the execution of the processing of S14-S21.
  • the electronic device 10 starts a timer program for determining the relative angle of the electronic device 10 with respect to the vertically downward direction, for example.
  • the first processor 17 of the electronic device 10 measures an elapsed time T from when it is determined that the contact detected by the latest sampling is a contact that continues from the immediately preceding sampling.
  • a relative angle with respect to the vertical downward direction of the electronic device 10 within a predetermined period is determined.
  • the predetermined period is, for example, a period until it is estimated that the electronic device 10 taken out from a bag or the like is in use.
  • the predetermined period can be set, for example, by experimentally measuring a period until the electronic device 10 is stored in a bag, the stored electronic device 10 is taken out, and is put into use.
  • the predetermined period may be set in advance by, for example, an operation input by the user of the electronic device 10. In the state detection process illustrated in FIG. 5, a period of ms unit such as “5000 ms” is illustrated as an example of the predetermined period. Details of the processing of the timer program in S14 will be described with reference to FIG.
  • the electronic device 10 determines, for example, that the relative angle of the electronic device 10 with the vertical downward direction as a reference axis is within a predetermined angle range.
  • the predetermined angle range is, for example, a relative angle with respect to a vertically downward direction in which the electronic device 10 having a touch panel is estimated to be in use.
  • the predetermined angle range can be set based on the measured relative angle by experimentally measuring the relative angle of the electronic device 10 in use with respect to the vertically downward direction, for example. Further, the predetermined angle range may be set in advance by, for example, an operation input by the user of the electronic device 10. In the state detection process illustrated in FIG. 5, an angle range of “0 degrees ⁇ relative angle ⁇ +50 degrees” is illustrated as an example of the predetermined angle range.
  • the first processor 17 of the electronic device 10 acquires, for example, the terminal angle B output from the second processor 18 in which the acceleration sensor monitoring program is started in the process of S12.
  • the first processor 17 determines whether or not the acquired terminal angle B is in an angle range of “0 degrees ⁇ terminal angle B ⁇ +50 degrees”.
  • the electronic device 10 proceeds to the process of S16.
  • the first processor 17 of the electronic device 10 ends the timer program started in the process of S14 and ends the measurement of the elapsed time T.
  • the electronic device 10 proceeds to the process of S6 after the process of S16 is completed.
  • the electronic device 10 returns a display device such as the LCD 15a that is turned off to a lighting state.
  • the electronic device 10 proceeds to the process of S17.
  • the electronic device 10 determines whether the state value held in the variable “D [0]” is “1” or “0”, for example.
  • the first processor 17 of the electronic device 10 proceeds to the process of S21.
  • the first processor 17 of the electronic device 10 ends the timer program started in the process of S14 and ends the measurement of the elapsed time T.
  • the electronic device 10 proceeds to the process of S2 after the process of S21 is completed.
  • the first processor 17 of the electronic device 10 proceeds to the process of S18.
  • the electronic device 10 stores the contact state with respect to the detection signal acquired by the latest sampling in the variable “D [0]”, and proceeds to the process of S19.
  • the electronic device 10 determines whether or not the elapsed time T measured by the timer program started in the process of S14 is less than a predetermined period of 5000 ms.
  • the first processor 17 of the electronic device 10 acquires the elapsed time T measured by the timer program, and determines whether or not the acquired elapsed time T is less than 5000 ms.
  • the electronic device 10 proceeds to the process of S15 and repeats the processes of S15 to S19.
  • the electronic device 10 proceeds to the process of S20 and ends the timer program.
  • the first processor 17 of the electronic device 10 ends the timer program when the measured elapsed time T is equal to or longer than a predetermined period.
  • the processing of S10-S11 is executed after the end processing of the timer program of S20. .
  • the process of S12 executed by the electronic device 10 is an example of a second detection step of further specifying a relative angle with respect to the vertical downward direction of the display surface of the display device.
  • the second processor 18 or the like of the electronic device 10 executes the process of S12 as an example of a second detection unit that further specifies a relative angle with respect to the vertical downward direction of the display surface of the display device.
  • the processes of S3-S5 (1), S6-S9, and S14-S21 executed by the electronic device 10 are performed even if it is determined that the second contact is continued.
  • This is an example of a control step for returning from the extinguished state of the display device when the relative angle specified in (b) is within a predetermined angle range estimated to be in use.
  • the relative angle specified by the second detection unit is As an example of the control unit that returns from the extinguishing state of the display device when the predetermined angle range is estimated to be in use, the processing of S3-S5 (1), S6-S9, and S14-S21 is executed. To do.
  • the electronic device 10 can detect, for example, a relative angle with respect to the vertical downward direction of the electronic device 10 as the terminal angle by the processing of the acceleration sensor monitoring program. Moreover, the electronic device 10 can measure the elapsed time from when it is determined that the contact detected in the state where the proximity target is detected is continued by the processing of the timer program.
  • the electronic device 10 can determine whether or not the terminal angle detected until the elapsed time has passed the predetermined period is within the angle range estimated to be in use. For example, when the detected terminal angle is in an angle range that is estimated to be in use, the electronic device 10 can return the display device that is in the off state to the on state. As a result, the electronic device 10 can detect the detected terminal even when the contact detected in the state where the proximity object is detected continues in the state where the proximity object is not detected. Resume return can be performed based on the angle. In the electronic device 10 of the present embodiment, the operability of the resume function using touch panel sensing can be improved.
  • the proximity state monitoring program is executed by the second processor 18 to which the IR proximity sensor 14b is connected.
  • the second processor 18 acquires, for example, an electrical signal output from the IR proximity sensor 14b.
  • An object in proximity to the electronic device 10 is detected based on the level of the electrical signal from the IR proximity sensor 14b.
  • the second processor 18 determines whether or not the level of the acquired electric signal is equal to or higher than a predetermined threshold value.
  • the predetermined threshold value is a threshold value for determining the relative distance to the object in the proximity state.
  • the predetermined threshold value is, for example, a state in which the target object is brought close to the electronic device 10 in advance to be in a close state, and the distance to the target object and the level of the electrical signal output from the IR proximity sensor 14b corresponding to the distance are measured. Can be obtained experimentally.
  • the predetermined threshold value can be set according to a distance for determining an adjacent object.
  • the predetermined threshold may be set in advance by, for example, an operation input by the user of the electronic device 10.
  • the second processor 18 proceeds to the process of S33.
  • the second processor 18 proceeds to the process of S32.
  • the status value of the proximity state monitoring signal indicating the presence of the proximity state object is set.
  • the proximity state monitoring signal is output to the first processor 17 that is executing the contact state detection program.
  • the second processor 18 sets the status value of the proximity state monitoring signal to “H”.
  • the second processor 18 sets the status value of the proximity state monitoring signal to “L”.
  • the second processor 18 determines whether or not there is an instruction to end the proximity sensor monitoring program.
  • the instruction to end the proximity sensor monitoring program is performed by the process of S9 in the flowchart illustrated in FIGS.
  • the second processor 18 proceeds to the process of S31 and repeats the processes of S31-S34.
  • the processing of S31 to S34 is repeated until an end instruction of the proximity sensor monitoring program is notified.
  • the second processor 18 proceeds to the process of S35.
  • the second processor 18 ends the operation of the connected IR proximity sensor 14b.
  • the second processor 18 ends the proximity sensor monitoring program being executed after the process of S35.
  • the second processor 18 determines the level of the electrical signal output from the illuminance sensor 14d in the process of S31. You can get it. And the 2nd processor 18 should just determine presence of the target object of a proximity
  • the second processor 18 may end the operation of the connected illuminance sensor 14c in the process of S35.
  • the proximity state monitoring signal can be generated based on the output signal of the illuminance sensor 14d.
  • the second processor 18 determines the level of the electric signal output from the MR sensor 14 e in the process of S ⁇ b> 31. You can get it.
  • the MR sensor 14e detects the strength of the magnetic field according to the distance to the object, the object to be detected in the proximity state is limited to, for example, a dedicated protective case in which a magnet or the like is disposed. Is done.
  • the second processor 18 may determine the presence of an object in the proximity state using a distance determination threshold value corresponding to the output level of the MR sensor 14e.
  • the second processor 18 can set the status value of the proximity state monitoring signal based on the level of the electrical signal output from the MR sensor 14e.
  • the second processor 18 may end the operation of the connected MR sensor 14e in the process of S35.
  • the electronic device 10 illustrated in FIG. 3 it is possible to generate a proximity state monitoring signal based on the output signal of the MR sensor 14 e.
  • acceleration sensor monitoring program Next, with reference to the flowchart illustrated in FIG. 7, the processing of the acceleration sensor monitoring program for specifying the relative angle with respect to the vertically downward direction of the electronic device 10 in S12 illustrated in FIG. 5 will be described.
  • the acceleration sensor monitoring program is executed by the second processor 18 to which the acceleration sensor 14c is connected.
  • the second processor 18 acquires, for example, accelerations in the X-axis, Y-axis, and Z-axis directions output from the acceleration sensor 14c.
  • the acceleration sensor 14c detects, for example, acceleration in a triaxial direction in which the horizontal direction of the touch panel of the electronic device 10 is the X axis, the vertical direction is the Y axis, the depth is orthogonal to the touch panel surface, and the front direction is the Z axis.
  • the triaxial acceleration is detected as a resultant force of the acceleration in each direction and the gravitational acceleration in the vertically downward direction.
  • the second processor 18 calculates a relative angle with the vertical downward direction of the electronic device 10 as the reference axis based on the acceleration value in each axial direction output from the acceleration sensor 14c.
  • the relative angle with the vertical downward direction of the electronic device 10 as the reference axis is calculated using, for example, a trigonometric function.
  • the acceleration sensor 14c may output a relative angle to the second processor 18 with the vertical downward direction of the electronic device 10 as a reference axis.
  • the second processor 18 stores the relative angle with respect to the vertically downward direction as the terminal angle B.
  • the relative angle stored in the terminal angle B is output to the first processor 17 that is executing the contact state detection program illustrated in FIG.
  • the terminal angle B output from the second processor 18 is acquired by the process of S15 in FIG. Based on the acquired terminal angle B, the first processor 17 determines whether or not the state of the electronic device 10 is within an angle range that is estimated to be in use.
  • the second processor 18 determines whether or not there is an instruction to end the acceleration sensor monitoring program, for example.
  • the instruction to end the acceleration sensor monitoring program is performed, for example, by the process of S13 in the flowchart illustrated in FIG.
  • the second processor 18 proceeds to the process of S41.
  • the processing of S41 to S43 is repeated until an instruction to end the acceleration sensor monitoring program is notified.
  • the second processor 18 proceeds to the process of S44.
  • the second processor 18 ends the operation of the connected acceleration sensor 14c.
  • the second processor 18 ends the running acceleration sensor monitoring program after the process of S44.
  • timer program Next, the process of the timer program in S14 illustrated in FIG. 5 will be described with reference to the flowchart illustrated in FIG.
  • the timer program is executed by the first processor 17 in the “mode 3” processing mode.
  • mode 3 processing mode 3
  • it is determined by the execution of the timer program that the contact after the presence of the object in the proximity state is no longer detected is the continuation of the contact detected in the state of detecting the object in the proximity state
  • the elapsed time is measured.
  • the first processor 17 determines whether or not there is a timer program start instruction from the contact state detection program being executed, for example.
  • the process of S14 is a timer program start instruction.
  • the first processor 17 proceeds to the process of S52.
  • the first processor 17 waits until there is an instruction to start the timer program. The first processor 17 starts measuring the elapsed time T triggered by the “YES” determination in S51.
  • the first processor 17 waits until the unit time for measuring the elapsed time T elapses, for example.
  • the unit time for measuring the elapsed time T is set according to the performance of various devices included in the electronic device 10, for example.
  • examples of the unit time include ms units, 10 ms units, and the like.
  • the example of FIG. 8 is an example when “1 ms” is set as the unit time for time measurement.
  • the first processor 17 proceeds to S53 after the unit time has elapsed.
  • the first processor 17 increments the elapsed time T based on the unit time.
  • the first processor 17 proceeds to the process of S54.
  • the first processor 17 determines whether there is an instruction to end the timer program from the contact state detection program being executed.
  • the processing of S16, S20, and S21 is an instruction to end the timer program.
  • a timer program end instruction is issued. Further, for example, when the contact determined to be the continuation of the contact detected in the state where the proximity target is detected is not detected by the determination of S17 in FIG. Instruction is given. Further, for example, when the elapsed time T exceeds a predetermined period as a result of the determination in S19 of FIG.
  • the first processor 17 proceeds to the process of S52.
  • the processing of S52 to S54 is repeated until a timer program end instruction is notified.
  • the first processor 17 ends the timer program.
  • Computer-readable recording medium A program for causing a computer or other machine or device (hereinafter, a computer or the like) to realize any of the above functions can be recorded on a recording medium that can be read by the computer or the like.
  • the function can be provided by causing a computer or the like to read and execute the program of the recording medium.
  • a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like.
  • Examples of such recording media that can be removed from a computer or the like include, for example, a memory such as a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a Blu-ray disc, a DAT, an 8 mm tape, and a flash memory.
  • a memory such as a flexible disk, a magneto-optical disk, a CD-ROM, a CD-R / W, a DVD, a Blu-ray disc, a DAT, an 8 mm tape, and a flash memory.
  • cards There are cards.
  • a hard disk, a ROM, and the like as a recording medium fixed to a computer or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 タッチパネルのセンシングを用いた表示画面の消灯状態からの、ユーザの意図しない復帰を抑制する技術を提供する。電子機器は、表示デバイスと、表示デバイスに重畳され、物体による接触を検出する第1検出部と、表示デバイスに対して近接状態にある物体を検出する第2検出部と、表示デバイスが消灯状態で第1検出部が第1の接触を検出したときに第2検出部が近接状態にある物体を検出している場合には消灯状態を維持すると共に、第2検出部が近接状態にある物体を検出していない場合に第1検出部の検出した第2の接触が第2検出部による近接状態にある物体の検出時点から継続しているか否かを判定し、第2の接触が継続していると判定された場合には、表示デバイスの消灯状態を維持する制御部と、を備える。

Description

電子機器及び表示制御プログラム
 本発明は、電子機器及び表示制御プログラムに関する。
 近年、タッチパネルを備える電子機器が普及してきている。タッチパネルは、例えば、LCD(Liquid Crystal Display)等の表示デバイスに、利用者(以下、ユーザとも称す)の操作による接触位置の座標を検出するデバイスを重畳させて組合せた入力デバイスである。タッチパネルを備える電子機器として、例えば、PC(Personal Computer)、携帯電話機、スマートフォン、ノートPC、タブレットPC、PDA(Personal Data Assistance)、ゲーム機、ナビゲーション装置等が例示できる。
 上記の電子機器では、消費電力を抑制するために、レジューム(Resume)機能を搭載する機器が増えてきている。レジューム機能を搭載する電子機器は、例えば、非操作時の表示デバイスを消灯状態とし、操作ボタン等の操作を検出して消灯状態の表示デバイスを点灯させる。点灯状態に復帰した表示デバイスには消灯前の表示画面が表示される。
 近年の電子機器では、表示デバイスの大画面化やデザインを重視した構造が増加する傾向にある。表示デバイスの大画面化やデザインを重視した電子機器では、電源等の操作ボタンが操作し難い位置や見つけ難い位置に配置される場合がある。電源等の操作ボタンが操作し難い位置等に配置された電子機器では、例えば、タッチパネル等のセンシングを利用したレジューム機能が提供される場合がある。電子機器では、タッチパネル等のセンシングを利用することで、例えば、電源等の操作ボタンが操作し難い位置等に配置された場合であっても、レジューム機能に関する操作性の確保が可能となる。
 なお、本明細書で説明する技術の前提となる一般的技術が記載されている先行技術文献としては、以下の特許文献が存在している。
特開2014-68402号公報
 ところで、タッチパネル等のセンシングを利用したレジューム機能では、タッチパネル面への誤接触による画面点灯が生じる虞がある。誤接触による画面点灯を防止するため、近接センサを用いることが提案されている。近接センサは、電子機器に近接する対象物を検出するセンサである。例えば、スマートフォン等の電子機器では、ユーザの顔等を近接センサで検出している場合、タッチパネル等は通話の際に生じる顔等のタッチパネル面への接触検出を抑制する。タッチパネル面への接触検出が抑制されたスマートフォン等では、例えば、通話の際に生じた誤接触による画面点灯の防止が可能となる。
 しかしながら、近接センサを用いる上述のケースでは、例えば、タッチパネル面に指等を接触させた状態で衣服のポケットや鞄,箱,机の引き出し等の収納先からスマートフォン等を取り出した状態では、近接する対象物は検出されない。このため、スマートフォン等は、抑制されているタッチパネル面への接触を検出し、消灯状態の表示デバイスを点灯させることになる。点灯された表示デバイスには、消灯前の表示画面が表示される。タッチパネル面に指等を接触させた状態で鞄等の収納先からスマートフォン等を取り出した場合には、表示デバイスに表示された情報を第3者に閲覧される虞があった。
 1つの側面では、本発明は、表示画面の消灯状態からの、ユーザの意図しない復帰を抑制する技術の提供を目的とする。
 上記技術は、次の電子機器の構成によって例示できる。すなわち、電子機器は、表示デバイスと、表示デバイスに重畳され、物体による接触を検出する第1検出部と、表示デバイスに対して近接状態にある物体を検出する第2検出部と、表示デバイスが消灯状態で第1検出部が第1の接触を検出したときに第2検出部が近接状態にある物体を検出している場合には消灯状態を維持すると共に、第2検出部が近接状態にある物体を検出していない場合に第1検出部の検出した第2の接触が第2検出部による近接状態にある物体の検出時点から継続しているか否かを判定し、第2の接触が継続していると判定された場合には、表示デバイスの消灯状態を維持する制御部と、を備える。
 上記の電子機器によれば、表示画面の消灯状態からの、ユーザの意図しない復帰を抑制する技術が提供できる。
本実施形態の電子機器のハードウェア構成の一例を示す図である。 本実施形態の電子機器の他のハードウェア構成の一例を示す図である。 本実施形態の電子機器の他のハードウェア構成の一例を示す図である。 本実施形態の接触状態検出処理を例示するフローチャートである。 本実施形態の加速度センサを用いた接触状態検出処理を例示するフローチャートである。 近接センサ監視プログラムの処理を例示するフローチャートである。 加速度センサ監視プログラムの処理を例示するフローチャートである。 タイマープログラムの処理を例示するフローチャートである。
 以下、図面を参照して、一実施形態に係る電子機器について説明する。以下の実施形態の構成は例示であり、電子機器は実施形態の構成には限定されない。
 以下、図1から図8の図面に基づいて、電子機器を説明する。
 <実施形態>
 図1に、本実施形態の電子機器のハードウェア構成の一例を例示する。本実施形態の電子機器10は、例えば、タッチパネルを入力デバイスに備える。タッチパネルは、例えば、LCD(Liquid Crystal Display)等の表示デバイスに、利用者(以下、ユーザとも称す)の操作による接触位置の座標を検出するデバイスを重畳させて組合せた入力デバイスである。
 タッチパネルを備える電子機器10には、例えば、PC(PC:Personal Computer)、携帯電話機、スマートフォン、ノートPC、タブレットPC、PDA(Personal Data Assistance)、ゲーム機、デジタルカメラ、ナビゲーション装置等の電子機器が含まれる。なお、タッチパネルを有する電子機器10は、例えば、音楽プレーヤー、腕時計型やリストバンド型といったユーザの身体に装着可能なウェアラブル式の電子機器であってもよい。
 本実施形態の電子機器10は、近接する対象物の存在を検知する近接センサを入力デバイスに備える。近接センサは、例えば、赤外線、電磁波、超音波、静電容量、磁界強度等の変化から該センサに近接する対象物の存在を検出する。但し、近接する対象物の存在を検知するセンサは、近接センサに限定されない。電子機器10に近接する対象物の存在を検知可能なセンサであればよい。近接する対象物の存在を検知するセンサとして、例えば、照度センサが例示できる。照度センサは、例えば、電子機器10の周囲の明るさ(入射光量)を検知するセンサである。電子機器10は、例えば、照度センサで検知された周囲の明るさ(入射光量)に基づいて、電子機器10に近接する対象物の存在を検知するとすればよい。以下では、近接センサを、電子機器10に近接する対象物の存在を検知するセンサ例として説明する。
 本実施形態の電子機器10では、例えば、タッチパネルのセンシングを利用したレジューム機能が提供される。電子機器10は、例えば、非操作時のタッチパネルの表示デバイスを消灯状態に移行させる。消灯状態に移行された表示デバイスは、タッチパネルのセンシングを利用したレジューム機能により点灯状態に復帰する。電子機器10では、消灯状態のタッチパネルに対する接触に基づいて、消灯状態となった表示デバイスが点灯状態に復帰する。点灯状態に復帰した表示デバイスには消灯前の表示画面が表示される。電子機器10では、非操作時の消費電力が抑制されると共に、レジューム機能に関する操作性が確保される。
 但し、本実施形態の電子機器10は、例えば、消灯状態となった表示デバイス面への接触を検出した際に、近接状態にある対象物の存在の有無を検知する。近接状態にある対象物の存在の有無は、近接センサ等により検知される。本実施形態の電子機器10は、例えば、消灯状態となった表示デバイス面への接触を検出した際に、近接状態にある対象物の存在が検知されている場合には、表示デバイスの消灯状態を維持する。
 そして、本実施形態の電子機器10は、例えば、近接状態にある対象物が検知されなくなった後に検出された接触が、対象物の近接状態から継続されている接触であるか否かを判定する。本実施形態の電子機器10は、例えば、近接状態にある対象物の存在が検知されなくなった後に検出された接触が、近接状態にある対象物の存在を検知したときから継続されている接触である場合には、表示デバイスの消灯状態を維持する。また、本実施形態の電子機器10は、例えば、対象物の近接状態の検知がなくなった後に検出された接触が対象物の近接状態から継続されている接触ではない場合には、消灯状態の表示デバイスを点灯状態に復帰させる。
 この結果、本実施形態の電子機器10は、タッチパネル面に指等を接触させた状態で衣類のポケットや鞄,箱,袋,机の引き出し等の収納先から電子機器10を取り出した場合であっても、消灯状態から点灯状態に誤って復帰してしまうことを防止できる。本実施形態の電子機器10では、消灯状態から復帰した表示デバイスに表示された表示情報が第3者に閲覧される可能性を軽減できる。本実施形態の電子機器10では、タッチパネル等のセンシングを用いた表示画面の消灯状態からの、ユーザの意図しない復帰を抑制する技術が提供できる。本実施形態の電子機器10では、タッチパネル等のセンシングを利用したレジューム(Resume)機能の操作性が向上できる。
 〔装置構成〕
 図1に例示の電子機器10は、接続バスB1によって相互に接続されたCPU(Central Processing Unit)11、主記憶部12、補助記憶部13、入力部14、出力部15、通信部16を有する。主記憶部12及び補助記憶部13は、電子機器10が読み取り可能な記録媒体である。
 また、電子機器10は、接続バスB1に接続する第1サブプロセッサ17、第2サブプロセッサ18を有する。入力部14のタッチセンサ14aは第1サブプロセッサ17に接続し、IR近接センサ14bおよび加速度センサ14cは第2サブプロセッサ18に接続する。第1サブプロセッサ17と第2のサブプロセッサ18は、接続バスB1とは独立して相互に接続する。
 電子機器10は、CPU11が補助記憶部13に記憶されたプログラムを主記憶部12の作業領域に実行可能に展開し、プログラムの実行を通じて周辺機器の制御を行う。また、電子機器10では、第1サブプロセッサ17および第2サブプロセッサ18は、それぞれの内蔵メモリに記憶されたプログラムを内蔵メモリの作業領域に実行可能に展開し、プログラムの実行を通じて周辺機器の制御を行う。これにより、電子機器10は、所定の目的に合致した機能を実現することができる。なお、第1のサブプロセッサ17の内蔵メモリには、ROM17aおよびRAM17bが含まれる。また、第2のサブプロセッサ18の内蔵メモリには、ROM18aおよびRAM18bが含まれる。
 図1に例示の電子機器10において、CPU11は、電子機器10全体の制御を行う中央処理演算装置である。CPU11は、補助記憶部13に格納されたプログラムに従って処理を行う。主記憶部12は、CPU11がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体である。主記憶部12は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。
 補助記憶部13は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。補助記憶部13は、外部記憶装置とも呼ばれる。補助記憶部13には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル等が格納される。OSは、例えば、搭載されたアプリケーションプログラム(以下、アプリとも称す)に対し、管理するリソースへのインターフェースをアプリケーションプログラムに提供する。
 電子機器10に搭載されたアプリは、OSを介して提供されたリソースへのインターフェースにより、アプリ機能を実現する。OSは、通信部16を介して接続される外部装置等とのデータの受け渡しを行う通信インターフェースプログラムを含む。外部装置等には、例えば、図示しないネットワーク上の、PCやサーバ等の他の電子機器、外部記憶装置等が含まれる。
 補助記憶部13は、例えば、EPROM(Erasable Programmable ROM)、ソリッドステートドライブ装置、ハードディスクドライブ(HDD、Hard Disk Drive)装置等である。また、補助記憶部13としては、例えば、CDドライブ装置、DVDドライブ装置、BDドライブ装置等が提示できる。記録媒体としては、例えば、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、BD、USB(Universal Serial Bus)メモリ、メモリカード等がある。
 入力部14は、ユーザ等からの操作指示等を受け付ける。入力部14は、カメラ、入力ボタン、タッチセンサ14a、ポインティングデバイス、マイクロフォン等の入力デバイスである。入力部14には、キーボード、ワイヤレスリモコン等が含まれるとしてもよい。ポインティングデバイスには、例えば、タッチパネル、マウス、トラックボール、ジョイスティック等が含まれる。また、入力部14には、IR近接センサ14b、加速度センサ14c等の各種センサが含まれる。
 なお、タッチセンサ14aから入力された情報は、第1プロセッサ17を介し接続バスB1に出力される。また、IR近接センサ14b、加速度センサ14cから入力された情報は、第2プロセッサを介し接続バスB1に出力される。入力部14の他のデバイスから入力された情報は接続バスB1に出力される。接続バスB1に出力された各種入力情報は、CPU11に通知される。
 出力部15は、CPU11で処理されるデータや記憶部12に記憶されるデータを出力する。出力部15は、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)15a、PDP(Plasma Display Panel)、EL(Electroluminescence)パネル、有機ELパネル等の表示デバイスを含む。また、出力部15には、プリンタ、スピーカ等の出力デバイスが含まれる。
 なお、入力部14のタッチセンサ14aは、例えば、出力部15のLCD15a等の表示デバイスに重畳させて組合せることにより、タッチパネルとして機能する。タッチセンサ14aは、例えば、LCD15a等の表示デバイス面に対する接触位置の座標を検出する。なお、以下では、例えば、タッチパネルの表示デバイスの表示領域とタッチセンサ14aの検出領域とは、ほぼ一致するとして説明する。また、LCD15a等の表示デバイス面を“タッチパネル面”とも称する。
 通信部16は、例えば、電子機器10が接続するネットワーク等とのインターフェースである。ネットワークには、例えば、インターネット等の公衆ネットワーク、通信基地局を含む携帯電話網等の無線ネットワーク、LAN(Local Area Network)等が含まれる。
 第1プロセッサ17および第2プロセッサ18は、低消費電力のマイコンである。低消費電力のマイコンは、例えば、動作に係るエネルギー効率を最大とするように、アクティブ時の動作電流等が相対的に少ないプロセスを用いて設計されている。低消費電力マイコンは、ROM,RAM等の内蔵するメモリを用いて動作する。
 第1プロセッサ17は、電子機器10の備えるタッチパネル面への接触に係る処理を行う。タッチパネル面への接触は、第1プロセッサ17に接続するタッチセンサ14aを介して行われる。第1プロセッサ17は、内蔵メモリに格納されたプログラムに従って、タッチパネル面への接触に係る処理を行う。内蔵メモリは、第1プロセッサ17が読み取り可能な記憶媒体であり、第1プロセッサ17がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体を含む。第1プロセッサ17の内蔵メモリには、例えば、ROM17aやRAM17bが含まれる。
 第2プロセッサ18は、電子機器10に近接する対象物の検知に係る処理を行う。電子機器10に近接する対象物の検知に係る処理は、第2プロセッサ18に接続するIR近接センサ14bを介して行われる。また、第2プロセッサ18は、電子機器10の鉛直下方方向に対する相対角度の検知に係る処理を行う。電子機器10の鉛直下方方向に対する相対角度の検知に係る処理は、加速度センサ14cを介して行われる。第2プロセッサ18は、内蔵メモリに格納されたプログラムに従って、上述の処理を行う。内蔵メモリは、第2プロセッサ18が読み取り可能な記憶媒体であり、第2プロセッサ18がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体を含む。第2プロセッサ18の内蔵メモリには、例えば、ROM18aやRAM18bが含まれる。
 〔処理構成〕
 次に、本実施形態の電子機器10の、タッチパネル等のセンシングを利用したレジューム機能に係る処理について説明する。本実施形態の電子機器10の、タッチパネル等のセンシングを利用したレジューム機能は、接続バスB1に相互に接続されたCPU11、第1プロセッサ17、第2プロセッサ18の処理により提供される。以下、CPU11、第1プロセッサ17、第2プロセッサの処理構成のそれぞれについて説明を行う。
 (CPU処理構成)
 電子機器10のCPU11は、例えば、補助記憶部13に記憶されているOS、各種プログラムや各種データを読み出して実行することで、搭載された各種アプリ機能を提供する。搭載された各種アプリ機能の提供により、電子機器10ではタッチパネル等のセンシングを利用したレジューム機能が提供される。
 例えば、電子機器10のCPU11は、タッチパネルの点灯状態の表示デバイスに表示された操作オブジェクトに対する接触操作を受け付ける。CPU11は、接続バスB1に接続する第1プロセッサ17を介してタッチパネルで検出された接触操作に係る座標を受け付ける。CPU11は、接続バスB1を介して受け付けた接触操作に係る座標に基づいて、操作オブジェクトに関連付けられた処理を実行する。
 例えば、電子機器10のCPU11は、接触操作に基づいて表示デバイスの画面上に表示された複数の操作オブジェクトの中から対象となる操作オブジェクトを特定する。特定された操作オブジェクトには、例えば、文字入力アプリ、ブラウザアプリといったアプリ機能が関連付けられていると想定する。CPU11は、対象となる操作オブジェクトに関連付けられた各種プログラムや各種データを読み出して実行することで、アプリ機能を提供する。
 接触操作に基づいて文字入力アプリが特定された場合を想定する。文字入力アプリを提供する電子機器10のCPU11は、例えば、接触状態でタッチパネル面を移動する接触位置の座標を時系列データとして受け付ける。CPU11は、例えば、受け付けた時系列データから、タッチパネル面に手書き入力された文字の軌跡を特定する。CPU11は、例えば、特定された手書き入力された文字の軌跡をタッチパネルの表示デバイスに出力する。文字入力アプリを提供する電子機器10の表示デバイスには、例えば、手書き入力された軌跡に基づく文字“あ”等が表示される。
 また、接触操作に基づいてブラウザアプリが特定された場合を想定する。ブラウザアプリを提供する電子機器10では、例えば、インターネットを介して接続された各サイトの提供する各種コンテンツがタッチパネルの表示画面に表示される。CPU11は、接触位置の座標の時系列データから、例えば、表示画面上に表示されたコンテンツに対するユーザ等の接触操作を特定する。
 CPU11は、例えば、タッチパネル面に接触させた操作指等を弾くように移動させるフリック操作を検出した場合には、移動方向に応じて表示画面をスクロールさせる。電子機器10のタッチパネルに表示されたコンテンツの表示位置は、フリック操作方向に表示位置が移動する。また、CPU11は、例えば、タッチパネル面に接触させた操作指等を接触位置から離脱させるタップ操作を検出した場合には、接触位置に表示されたコンテンツの操作オブジェクトに関連付けられた操作を行う。例えば、電子機器10では、タップ操作に基づいて、タッチパネルの表示画面上に表示されたコンテンツが提供する情報の表示切替等が行われる。
 電子機器10のCPU11は、例えば、表示画面上に所定の情報が表示された状態で一定期間に亘り、タッチパネル面への接触を検出しない、或いは、入力部14を介して入力操作を受け付けない場合には、点灯状態にある表示デバイスを消灯状態に移行させる。一定期間の間、タッチパネル面への接触を検出しない、或いは、入力部14を介して入力操作を受け付けない場合には、非操作状態にあると判断できるからである。電子機器10は、例えば、非操作状態のタッチパネルの表示デバイスを消灯状態に移行させることにより、非操作状態の電力消費を抑制する。
 なお、一定期間は、例えば、表示情報が表示された状態で、点灯状態にある表示デバイスの消費電力を実験的に測定し、測定した消費電力に基づいて点灯状態から消灯状態への移行期間を定めることができる。また、一定期間は、例えば、電子機器10のユーザの操作入力を介して予め設定された期間としてもよい。
 非操作状態の電子機器10のCPU11は、例えば、LCD15a等の表示デバイスを消灯状態に移行させると共に、タッチセンサ14aに接続する第1プロセッサ17を「接触検出モード」に切り替える。ここで、第1プロセッサ17の「接触検出モード」とは、低消費電力で消灯状態のタッチパネル面に発生した接触の有無を検出するモードである。電子機器10は、「接触検出モード」に移行した第1プロセッサ17により、消灯状態に移行したタッチパネル面に対する接触の有無を検出する。なお、CPU11は、例えば、第1プロセッサ17の「接触検出モード」への移行と共に、CPU11の電源状態を省電力モードの待機状態に移行させるとしてもよい。
 「接触検出モード」に移行した第1プロセッサ17では、例えば、接触状態検出プログラムが実行される。接触状態検出プログラムの実行により、消灯状態となったタッチパネルに対する接触の有無が検出される。「接触検出モード」に移行した第1プロセッサ17は、CPU11に対し、接続バスB1を介して消灯状態の表示デバイスを点灯状態に復帰させるレジューム復帰の通知を行う。
 CPU11は、例えば、第1プロセッサ17のレジューム復帰の通知を割り込み処理の入力として受け付ける。CPU11は、例えば、割り込み処理入力の受け付けを契機として、消灯状態にあるタッチパネルの表示デバイスを点灯状態に復帰させる。なお、CPU11は、例えば、表示デバイスの消灯状態への移行と共に待機状態に移行する場合には、割り込み処理入力の受け付けを契機として運用状態に復帰するとすればよい。運用状態に移行したCPU11は、消灯状態にあるタッチパネルの表示デバイスを点灯状態に復帰させればよい。
 なお、電子機器10のCPU11は、表示デバイスのレジューム復帰と共に第1プロセッサ17を運用状態に復帰させる。「接触検出モード」から運用状態に復帰した第1プロセッサ17では、例えば、タッチセンサ14aの検知信号に基づいて、接触位置に係るタッチパネルの座標が算出される。第1プロセッサ17で算出された接触位置に係る座標は、接続バスB1を介して運用状態のCPU11に引き渡される。運用状態のCPU11では、例えば、接続バスB1を介して受け付けた接触位置に係る座標に基づいて、上述した各種アプリ機能が提供される。
 また、非操作状態の電子機器10のCPU11は、例えば、LCD15a等の表示デバイスを消灯状態に移行させると共に、第2プロセッサ18を起動させる。図1に例示の第2プロセッサ18には、近接状態にある対象物を検知するIR近接センサ14b、及び、加速度センサ14cが接続されている。起動した第2プロセッサ18では、接続されたIR近接センサ14bの検知信号に基づく近接センサ監視プログラムが実行される。また、起動した第2プロセッサ18では、接続された加速度センサ14cの検知信号に基づく加速度センサ監視プログラムが実行される。
 第2プロセッサ18では、近接センサ監視プログラムの実行により、IR近接センサ14bから取得したセンサ信号に基づいて電子機器10に近接する対象物の存在の有無を表す近接状態監視信号が生成される。第2プロセッサ18は、例えば、生成した近接状態監視信号を「接触検出モード」に移行した第1プロセッサ17に通知する。「接触検出モード」に移行した第1プロセッサ17では、第2プロセッサ18から通知された近接状態監視信号に基づいて接触状態検出プログラムの処理が行われる。
 また、第2プロセッサ18では、加速度センサ監視プログラムの実行により、加速度センサ14cから取得したセンサ信号に基づいて、鉛直下方方向に対する電子機器10の相対角度を端末角度として特定する。第2プロセッサ18は、例えば、特定した端末角度を「接触検出モード」に移行した第1プロセッサ17に通知する。「接触検出モード」に移行した第1プロセッサ17では、第2プロセッサ18から通知された、近接状態監視信号、端末角度に基づいて、加速度センサを用いた接触状態検出プログラムの処理が行われる。第1プロセッサ17は、接触状態検出プログラムの実行により、CPU11に対するレジューム復帰を通知する。
 レジューム復帰の通知を受けた電子機器10のCPU11は、例えば、第2プロセッサ18に対し、近接センサ監視プログラムの処理の終了を通知する。また、電子機器10のCPU11は、加速度センサプログラムの処理が実行されている場合には、第2プロセッサ18に対し、加速度センサプログラムの処理の終了を通知する。電子機器10のCPU11は、各種処理プログラムを終了した第2プロセッサ18を待機状態に移行させる。
 (第1プロセッサ処理構成)
 第1プロセッサ17は、例えば、ROM17a、RAM17b等に記憶されている各種プログラムや各種データを読み出して実行することで、タッチパネル面への接触に係る処理を行う。第1プロセッサ17は、例えば、CPU11からの通知に基づいて、“モード1”、“モード2”、“モード3”といった3種類の、タッチパネル面への接触に係る処理形態を提供する。
 “モード1”は、例えば、電子機器10のCPU11が運用状態の際に提供される処理形態である。“モード1”の処理形態では、例えば、第1プロセッサ17は、タッチセンサ14aの検出信号に基づいて、点灯状態にあるタッチパネル面への操作指等の接触位置に係る座標を算出する。算出された接触位置に係る座標は、例えば、接続バスB1を介して運用状態のCPU11に通知される。
 “モード2”は、例えば、電子機器10のCPU11がスリープ状態の際に提供される処理形態である。“モード2”の処理形態では、例えば、第1プロセッサ17は、低消費電力の待機状態となる。“モード2”の処理形態では、タッチパネル面への接触及び接触位置に係る処理は抑制される。
 “モード3”は、例えば、非操作時のタッチパネルの表示デバイスが消灯状態のときに提供される処理形態である。“モード3”は、既に説明した「接触検出モード」の処理形態である。“モード3”の第1プロセッサ17では、接触状態検出プログラムが実行される。接触状態検出プログラムの実行により、本実施形態の電子機器10の備える、タッチパネルのセンシングを利用したレジューム機能が提供される。
 “モード3”の第1プロセッサ17は、消灯状態にある表示デバイス面に対する接触の有無を検出する。また、“モード3”の第1プロセッサ17は、消灯状態にあるタッチパネル面への操作指等の接触位置に係る座標の算出を抑制する。このため、“モード3”の第1プロセッサ17は、“モード1”の処理形態に対して相対的に消費電力を抑制できる。“モード3”の第1プロセッサ17は、低消費電力で消灯状態にある表示デバイス面に対する接触の有無を検出することができる。
 なお、第1プロセッサ17の提供する処理形態が、上述の3種類に限定されるわけではない。電子機器10が提供する性能、該電子機器10に含まれる各種デバイスの消費電力等に応じて複数の処理形態を提供することができる。以下、タッチパネル面への接触に係る処理が抑制される“モード2”を除く、“モード1”、“モード3”の処理形態についての第1プロセッサ17の処理を説明する。
 ・モード1
 図1に例示のように、第1プロセッサ17には、タッチセンサ14aが接続される。タッチセンサ14aは、例えば、表示デバイス面(タッチパネル面)に対する接触により生じた静電容量、電圧、圧力、光、振動等の物理量の変化を検出信号として第1プロセッサ17に出力する。第1プロセッサ17は、例えば、タッチセンサ14aから出力される検出信号を10msといった所定の周期間隔でサンプリングする。サンプリングされたタッチセンサ14aの検出信号は、時系列データとして取得される。
 第1プロセッサ17は、サンプリングされた検出信号に基づいて表示デバイス面に対する操作指等の接触を検出する。また、第1プロセッサ17は、接触状態を示す検出信号の時系列データの変化から、接触された操作指等の離脱を検出する。第1プロセッサ17は、タッチセンサ14aから出力される検出信号に基づいて、表示デバイス面に対する接触および離脱位置の座標を算出する。
 なお、第1プロセッサ17で算出される座標は、例えば、組合せられたLCD15a等の表示デバイスの左上角部を原点とし、表示デバイスの左右方向をX軸、上下方向をY軸とした(X,Y)の2次元座標として表すことができる。第1プロセッサ17は、算出された接触位置の2次元座標を時系列データとして接続バスB1を介し、CPU11に通知する。
 ・モード3(接触検出モード)
 “モード3”の第1プロセッサ17では、接触状態検出プログラムが実行される。接触状態検出プログラムの実行により、タッチセンサ14aから出力される検出信号に基づいて、消灯状態にある表示デバイス面に対する接触の有無が検出される。但し、消灯状態にあるタッチパネル面への操作指等の接触位置に係る座標の算出は抑制される。
 また、図1に例示のように、第1プロセッサ17には、接続バスB1とは独立して第2プロセッサ18が接続される。“モード3”の第1プロセッサ17には、第2プロセッサ18で生成された近接状態監視信号および電子機器10の鉛直下方方向に対する相対角度としての端末角度が通知される。
 第1プロセッサ17は、例えば、消灯状態にある表示デバイス面への接触を検出したときに、近接状態監視信号に基づいて近接状態にある対象物の存在の有無を検知する。第1プロセッサ17は、例えば、消灯状態にある表示デバイス面への接触を検出したときに、近接状態にある対象物の存在が検知されている場合には、レジューム復帰を抑制する。第1プロセッサ17は、例えば、近接状態にある対象物の存在が検知されている場合には、消灯状態にある表示デバイス面への接触を検出しても、CPU11へのレジューム復帰の通知は行わない。
 また、第1プロセッサ17は、例えば、近接状態にある対象物の存在が検知されなくなった後に検出された接触が、近接状態の対象物の存在が検知されている状態から継続されている接触であるか否かを判定する。第1プロセッサ17は、例えば、近接状態にある対象物の存在が検知されなくなった後に検出された接触が、近接状態の対象物の存在が検知されている状態から継続されている接触である場合には、レジューム復帰を抑制する。第1プロセッサ17は、CPU11へのレジューム復帰の通知は行わない。
 一方、第1プロセッサ17は、例えば、近接状態にある対象物の存在が検知されなくなった後に検出された接触が、近接状態にある対象物の存在が検知されている状態から継続されている接触でない場合には、レジューム復帰を行う。つまり、電子機器10は、一旦、近接した対象物が検知されなくなった後、再度、消灯状態の表示デバイス面に対する接触が検出された場合には、消灯状態の表示デバイスを点灯状態に復帰させる。なお、第1プロセッサ17は、例えば、接続バスB1を介してCPU11へのレジューム復帰の通知を実行する。
 第1プロセッサ17のレジューム復帰の通知に基づいて、CPU11は、例えば、消灯状態にあるLCD15a等の表示デバイスを点灯状態に復帰させる。また、第1プロセッサ17からレジューム復帰の通知を受け付けたCPU11は、例えば、第1プロセッサ17に対して処理形態の切り替えを通知する。CPU11は、例えば、第1プロセッサ17に対して実行中の“モード3”の処理形態を“モード1”に移行させる切り替え通知を行う。
 第1プロセッサ17は、CPU11からの“モード1”への切り替え通知に基づいて“モード3”の処理形態を“モード1”の処理形態に移行させる。“モード1”の処理形態に移行した第1プロセッサ17では、上記した、タッチパネル14aの検出信号に基づく接触位置の座標の算出が実行される。
 (第2プロセッサ処理構成)
 第2プロセッサ18は、例えば、ROM18a、RAM18b等に記憶されている各種プログラムや各種データを読み出して実行することで、近接状態にある対象物の検知に係る処理を行う。近接状態にある対象物の検知に係る処理は、例えば、近接センサ監視プログラムの実行により行われる。
 同様にして、第2プロセッサ18は、ROM18a、RAM18b等に記憶されている各種プログラムや各種データを読み出して実行することで、鉛直下方方向に対する相対角度の特定に係る処理を行う。鉛直下方方向に対する相対角度の特定に係る処理は、例えば、加速度センサ監視プログラムの実行により行われる。
 第2プロセッサ18は、例えば、CPU11からの通知に基づいて、“待機状態”、“運用状態”といった2種類の処理形態を提供する。“待機状態”は、例えば、電子機器10のCPU11がスリープ状態の際に提供される処理形態である。“待機状態”の処理形態では、例えば、第2プロセッサ18は、低消費電力の待機状態となる。“待機状態”の処理形態では、近接状態にある対象物の検知に係る処理、鉛直下方方向に対する相対角度の特定に係る処理は抑制される。
 “運用状態”は、例えば、非操作時のタッチパネルの表示デバイスが消灯状態のときに提供される処理形態である。“運用状態”の処理形態では、例えば、第2プロセッサ18は、近接センサ監視プログラムを実行し、近接状態にある対象物の検知に係る処理を行う。同様にして、第2プロセッサ18は、例えば、加速度センサ監視プログラムを実行し、鉛直下方方向に対する相対角度の特定に係る処理を行う。
 なお、第2プロセッサ18の提供する処理形態が、2種類に限定されるわけではない。電子機器10が提供する性能、該電子機器10に含まれる各種デバイスの消費電力等に応じて複数の処理形態を提供することができる。以下、“運用状態”の処理形態について第2プロセッサ18の処理を説明する。
 ・運用状態
 図1に例示のように、第2プロセッサ18には、IR近接センサ14bが接続される。IR近接センサ14bは、赤外線を送出する発光素子と赤外線を受信して電気信号等に変換する受光素子とを組合せた赤外線型の近接センサである。IR近接センサ14bは、例えば、タッチパネル面と同一面に配置され、タッチパネル面に近接する対象物の存在を検知する。
 赤外線型のIR近接センサ14bでは、例えば、赤外線を発光する発光素子、受光素子が一般的に用いられる。発光素子から送出された赤外線は、近接する対象物によって反射され、受光素子で受光される。IR近接センサ14bの受光素子は、例えば、近接する対象物によって反射された赤外線の強度を感知して、該感知強度に応じた電気信号を第2プロセッサ18に出力する。
 なお、第2プロセッサ18に接続する近接センサが赤外線型に限定されるわけではない。例えば、静電気を利用した「静電容量型」、超音波を利用した「超音波型」、電磁波を利用した「電磁波型」の近接センサであってもよい。対象物の近接を電気信号等の変化として検知可能な近接センサであればよい。以下、IR近接センサを例として、第2プロセッサ18の処理を説明する。
 第2プロセッサ18は、IR近接センサ14bから出力された電気信号に基づいて、近接する対象物との間の距離を検知する。近接する対象物との間の距離は、例えば、電気信号のレベルに応じて検知される。第2プロセッサ18は、例えば、検知された対象物との間の距離が、所定値以下であることを判定する。第2プロセッサ18は、例えば、IR近接センサ14bから出力された電気信号のレベルと閾値との比較を行い、対象物との間の距離が、所定値以下であることを判定する。
 ここで、閾値は、例えば、予め対象物を電子機器10に近接させて近接状態とし、対象物との距離を実験的に計測することで求められ、予め電子機器10に保持されるようにすればよい。そして、電子機器10は、所定値に対応する、近接センサから出力される電気信号のレベルを計測し、計測されたレベルを近接状態にある対象物との距離を判定するための閾値と比較すればよい。また、所定値は、例えば、電子機器10のユーザによる操作入力を介して予め設定されるとしてもよい。所定値の一例として、3cm等のセンチメートル単位の距離が例示できる。
 近接センサ監視プログラムを実行する第2プロセッサ18は、例えば、近接状態にある対象物との間の距離の判定の結果を“近接状態監視信号”として、第1プロセッサ17に出力する。“近接状態監視信号”は、例えば、接触状態検出プログラムを実行中の第1プロセッサ17に出力される。第2プロセッサ18の“近接状態監視信号”は、接続バスB1とは独立して第1プロセッサ17に出力される。
 “近接状態監視信号”は、例えば、“1/0”、“H/L”といった2値の状態を表すステータス信号として表すことができる。例えば、近接センサ監視プログラムを実行する第2プロセッサ18は、近接状態にある対象物との間の距離が所定値以下である場合には、状態値“0(L)”のステータス信号を“近接状態監視信号”として出力する。同様にして、第2プロセッサ18は、近接状態にある対象物との間の距離が所定値を超える場合には、状態値“1(H)”のステータス信号を“近接状態監視信号”として出力する。
 「静電容量型」、「超音波型」、「電磁波型」の近接センサであっても同様の処理が可能である。例えば、「静電容量型」の近接センサの場合には、対象物の近接により静電容量の変化が電気信号として出力される。また、例えば、「超音波型」、「電磁波型」の近接センサの場合には、対象物の近接により反射された超音波、電磁波の変化が電気信号として出力される。第2プロセッサ18は、IR近接センサ14bの場合と同様に、距離に対応して出力される電気信号のレベルと所定距離に対応する閾値との比較を行うことにより、“近接状態監視信号”を生成できる。
 なお、第2プロセッサ18に接続するセンサは、近接する対象物の存在を検知可能なセンサであれば、近接センサに限定されない。例えば、電子機器10の周囲の明るさ(入射光量)をフォトダイオード、フォトトランジスタ等の受光素子で検出し、検出した明るさに応じたレベルの電気信号を出力する照度センサが例示できる。
 図2に、照度センサ14dを備える電子機器10のハードウェアの構成例を例示する。電子機器10の備える照度センサ14dは、接続バスB1とは独立して第2プロセッサに接続される。
 近接する対象物を検知するセンサとして照度センサ14dを用いる場合では、第2プロセッサ18は、IR近接センサ14bの場合と同様に、閾値を用いることで“近接状態監視信号”を生成できる。例えば、電子機器10のユーザは、照度センサ14dを備える電子機器10に対して、実験的に対象物を近接させ、対象物との距離と照度センサ14dから出力される電気信号のレベルとを計測する。そして、照度センサ14dを備える電子機器10の第2プロセッサ18は、所定距離に対応する照度センサ14dの電気信号の出力レベルを近接状態を判定するための閾値とすればよい。
 照度センサ14dを備える第2プロセッサ18は、例えば、近接センサ監視プログラムの実行と共に照度センサ14dから出力される電気信号を取得する。第2プロセッサ18では、取得した電気信号のレベルと予め実験により特定された閾値との比較を行うことで、“近接状態監視信号”が生成される。
 また、近接する対象物の存在を検知可能な他のセンサとして、例えば、MR(magnetoresistive)センサが例示できる。MRセンサでは、電子機器10の周囲の磁界の強さを磁気抵抗素子で検出し、検出した磁界の強さに応じたレベルの電気信号が出力される。図3に、MRセンサ14eを用いた場合の電子機器10のハードウェアの構成例を例示する。MRセンサ14eを備える場合でも、第2プロセッサ18は、接続バスB1とは独立してMRセンサ14eに接続する。
 第2プロセッサ18は、MRセンサ14eを用いる場合であっても、閾値を用いることで“近接状態監視信号”を生成できる。但し、MRセンサ14eは、対象物との距離に応じた磁界の強さを検出するため、近接状態の検出対象となる対象物は、例えば、磁石等が配置された物体に限定される。例えば、スマートフォン等の電子機器10を保護するための、磁石等が埋め込まれた専用の保護ケースが例示できる。例えば、電子機器10は、保護ケースに収納された状態で鞄や衣類のポケットに収納されるといった使用形態が想定される。電子機器10は、保護ケースに収納されることにより、落下等の衝撃からタッチパネルの表示デバイスを保護することができる。
 MRセンサ14eを用いる場合にも、IR近接センサ14b、照度センサ14dと同様にして、対象物の近接状態を判定するための閾値を求めることができる。すなわち、電子機器10のユーザは、例えば、MRセンサ14eを備える電子機器10に対して、磁石等が配置された対象物を実験的に近接させ、対象物との距離とMRセンサ14dから出力される電気信号のレベルとを計測する。そして、電子機器10の第2プロセッサ18は、所定距離に対応するMRセンサ14eの電気信号の出力レベルを近接状態を判定するための閾値とすればよい。
 MRセンサ14eを備える第2プロセッサ18は、例えば、近接センサ監視プログラムの実行と共にMRセンサ14eから出力される電気信号を取得する。第2プロセッサ18では、取得した電気信号のレベルと予め実験により特定された閾値との比較を行うことで、“近接状態監視信号”が生成される。
 IR近接センサ14b、照度センサ14d、MRセンサ14eの各センサの検出信号に基づいて生成された“近接状態監視信号”は、接続バスB1とは独立して第2プロセッサ18に接続する第1プロセッサ17に出力される。近接センサ監視プログラムを実行する第2プロセッサ18は、接触状態検出プログラムを実行する第1プロセッサ17に“近接状態監視信号”を出力する。
 次に、第2プロセッサ18で実行される、電子機器10の鉛直下方方向に対する相対角度の特定に係る処理について説明する。図1から図3に例示のように、第2プロセッサ18には、加速度センサ14cが接続される。加速度センサ14cは、鉛直下方方向への重力による加速度を検出する。また、加速度センサ14cは、電子機器10のタッチパネルの左右方向をX軸、上下方向をY軸、タッチパネル面に直交する奥行き、手前方向をZ軸とする3軸方向の加速度を検出する。なお、3軸方向の加速度は、各方向への加速度と鉛直下方方向への重力加速度との合力として検出される。加速度センサ14cにより検出された加速度は、例えば、各軸方向の加速度値として第2プロセッサ18に出力される。
 第2プロセッサ18は、例えば、加速度センサ14cから出力された各軸方向の加速度値に基づいて、電子機器10の鉛直下方方向を基準軸とする相対角度を算出する。電子機器10の鉛直下方方向を基準軸とする相対角度は、例えば、三角関数等を用いて算出される。なお、加速度センサ14cは、例えば、電子機器10の鉛直下方方向を基準軸とする相対角度を第2プロセッサ18に出力するとしてもよい。
 加速度センサ監視プログラムを実行する第2プロセッサ18は、例えば、電子機器10の鉛直下方方向を基準軸とする相対角度を“端末角度”として、第1プロセッサ17に出力する。第2プロセッサ18からの“端末角度”は、接続バスB1とは独立して接続する第1プロセッサ17に出力される。加速度センサ監視プログラムを実行する第2プロセッサ18は、接触状態検出プログラムを実行する第1プロセッサ17に“端末角度”を出力する。
 〔処理フロー〕
 以下、図4、5に例示のフローチャートを参照し、本実施形態のタッチパネルのセンシングを利用した状態検出処理を説明する。図4は、近接状態にある対象物の検知に基づく状態検出処理のフローチャートの例示である。図5は、近接状態にある対象物の検知、及び、電子機器10の鉛直下方方向に対する相対角度に基づく状態検出処理のフローチャートの例示である。
 (対象物の近接検知に基づく状態検出処理)
 図4に例示の状態検出処理では、電子機器10は、例えば、消灯状態にある表示デバイス面への接触を検出した際に、近接状態にある対象物の存在が検知されている場合には、表示デバイスの消灯状態を維持する。また、電子機器10は、例えば、近接状態にある対象物の存在が検知されなくなった後に検出された接触が、近接状態にある対象物の存在を検知したときから継続されている接触である場合には、表示デバイスの消灯状態を維持する。そして、電子機器10は、例えば、対象物の近接状態の検知がなくなった後に検出された接触が対象物の近接状態から継続されている接触ではない場合には、消灯状態の表示デバイスを点灯状態に復帰させる。
 図4に例示のフローチャートにおいて、状態検出処理の開始は、第1プロセッサ17に対する“モード3”への切り替えの通知のときが例示できる。電子機器10は、例えば、非操作時のLCD15a等の表示デバイスを点灯状態から消灯状態に移行する。ここで、非操作時とは、例えば、LCD15a等の表示画面上に表示情報が表示された状態で一定期間に亘り、タッチパネル面への接触を検出しない場合、或いは、入力部14を介して入力操作を受け付けない場合が例示できる。
 なお、一定期間は、例えば、LCD15a等の表示デバイスに表示情報を実験的に表示させて点灯状態にある表示デバイスの消費電力量を計測し、計測した消費電力量に基づいて点灯状態から消灯状態への移行期間を定めることができる。また、一定期間は、例えば、電子機器10のユーザの操作入力を介して予め設定された期間としてもよい。
 電子機器10は、例えば、LCD15a等の表示デバイスを消灯状態に移行させると共に、タッチセンサ14aに接続する第1プロセッサ17を“モード3”に切り替える。“モード3”に移行した第1プロセッサ17では、接触状態検出プログラムが実行される。接触状態検出プログラムが実行される第1プロセッサ17では、消灯状態のLCD15a等の表示デバイス面に発生した接触の有無が検出される。
 電子機器10は、例えば、LCD15a等の表示デバイスを消灯状態に移行させると共に、第2プロセッサ18を起動させる。起動された第2プロセッサ18では、近接センサ監視プログラムが実行される(S1)。近接センサ監視プログラムの実行により、電子機器10に近接する対象物の存在の有無が判定される。第2プロセッサ18は、電子機器10に近接する対象物の存在の有無の判定結果を、“近接状態監視信号”として第1プロセッサ17に出力する。なお、S1の近接センサ監視プログラムの処理は、図6で詳細を説明する。
 電子機器10は、例えば、消灯状態の表示デバイス面の接触状態を変数“D”に格納する(S2)。ここで、変数“D”は、例えば、消灯状態にある表示デバイス面の接触の有無が格納される変数である。例えば、“モード3”に移行した電子機器10の第1プロセッサ17では、消灯状態にあるLCD15a等の表示デバイス面の接触状態がタッチセンサ14aを介して取得される。第1プロセッサ17は、例えば、タッチセンサ14aから出力される検出信号を10msといった所定の周期間隔でサンプリングする。タッチセンサ14aの検出信号は、サンプリング周期間隔の時系列データとして取得される。
 変数“D”には、時系列データとして所定の周期間隔でサンプリングされた、連続する2つの検出信号に対する接触状態が保存される。例えば、変数“D”には、最新のサンプリングで取得された検出信号に対する接触状態、及び、直前のサンプリングで取得された検出信号に対する接触状態が連続して一対となり、保存される。
 例えば、変数“D”に保存される、最新のサンプリングに対する接触状態を“D[0]”、直前のサンプリングに対する接触状態を“D[1]”として表すとする。変数“D”に保持された連続する2つの接触状態は、“D[1:0]”として表すことができる。
 S2の処理では、電子機器10の第1プロセッサ17は、例えば、最新のサンプリングで取得した検出信号に対する接触状態を、変数“D[0]”に保存する。ここで、接触状態は、例えば、“1”、“0”の2値の状態値として表すことができる。
 例えば、電子機器10の第1プロセッサ17は、サンプリングされた検出信号に基づいて消灯状態のLCD15a等の表示デバイス面に対する接触を検出した場合には、変数“D[0]”に“1”との状態値を格納する。同様にして、電子機器10の第1プロセッサ17は、消灯状態のLCD15a等の表示デバイス面に対する接触が検出しない場合には、変数“D[0]”に“0”との状態値を格納する。
 電子機器10の第1プロセッサ17は、例えば、取得した検出信号に対する接触状態をサンプリングの度に、最新の状態値が格納される変数“D[0]”に保存する。なお、最新のサンプリングで検出信号が取得されたときには、変数“D[0]”には、直前のサンプリングで取得された検出信号に対する状態値が格納されている。変数“D[0]”に格納されている直前のサンプリングに対する状態値は、例えば、最新のサンプリングに対する状態値の保存前に、変数“D[1]”にシフトされる。この結果、変数“D”には、最新のサンプリングで取得された検出信号に対する状態値と直前のサンプリングで取得された検出信号に対する状態値が連続して保持される。
 なお、変数“D[1:0]”の初期値は、表示デバイス面に対する接触を検出していない状態を示す、“D[1]=0”、“D[0]=0”である。
 S3の処理では、電子機器10は、例えば、電子機器10に近接する対象物の存在の有無を判定する。電子機器10の第1プロセッサ17は、例えば、S1の処理で起動された第2プロセッサ18から出力される近接状態監視信号を取得する。第1プロセッサ17は、例えば、取得した近接状態監視信号の状態が“H”ステータスであるか“L”ステータスであるかを判定する。
 なお、電子機器10に近接する対象物の存在が検知されている場合には、例えば、近接状態監視信号は“L”ステータスとして出力される。また、電子機器10に近接する対象物の存在が検知されていない場合には、例えば、“近接状態監視信号”は“H”ステータスとして出力される。
 電子機器10は、例えば、取得した近接状態監視信号の状態が“L”ステータスの場合には(S3,L)、S2の処理に移行し、S2-S3の処理を繰り返す。電子機器10では、近接する対象物の存在が検知されている場合には、近接状態の対象物の存在が検知されなくなるまで、S2-S3の処理が繰り返される。一方、電子機器10は、例えば、取得した近接状態監視信号の状態が“H”ステータスの場合には(S3,H)、S4の処理に移行する。電子機器10では、近接する対象物の存在が検知されていない場合には、S4-S11の処理が実行される。
 S4の処理では、電子機器10は、例えば、S2の処理により、変数“D[0]”に保持された状態値が“1”であるか“0”であるかの判定を行う。電子機器10は、例えば、変数“D[0]”に保持された状態値が“0”である場合には(S4,0)、S2の処理に移行し、S2-S4の処理を繰り返す。電子機器10では、最新の状態値が消灯状態にある表示デバイス面への接触を検出していない場合には、S2-S4の処理が繰り返される。
 一方、電子機器10は、例えば、変数“D[0]”に保持された状態値が“1”である場合には(S4,1)、S5の処理に移行する。S5の処理では、直前の状態値に基づいて接触を検出しているか否かが判定される。電子機器10では、最新の状態値が、消灯状態にある表示デバイス面への接触を検出している場合では、直前の状態値が接触を検出しているか否かが判定される。S4-S5の処理により、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触であるか否かが判定される。
 S5の処理では、電子機器10は、例えば、直前の接触状態を格納する変数“D[1]”に保持された状態値が“1”であるか“0”であるかの判定を行う。S5の処理において、変数“D[1]”に保持された状態値が“1”、すなわち、消灯状態にある表示デバイス面への接触を検出している場合には、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触であると判断できる。
 一方、変数“D[1]”に保持された状態値が“0”、すなわち、消灯状態にある表示デバイス面への接触を検出していない場合では、最新のサンプリングで検出された接触は、直前のサンプリングから継続する接触ではないと判断できる。
 電子機器10は、例えば、変数“D[1]”に格納された状態値が“0”である場合には(S5,0)、S6の処理に移行する。すなわち、電子機器10では、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触ではない場合には、S6-S9に示すレジューム復帰の処理が行われる。
 一方、電子機器10は、例えば、変数“D[1]”に格納された状態値が“1”である場合には(S5,1)、S10の処理に移行する。すなわち、電子機器10では、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触である場合には、S10-S11の消灯状態を維持する処理が行われる。
 S6の処理では、電子機器10は、例えば、消灯状態のLCD15a等の表示デバイスを点灯状態に復帰させる。電子機器10の第1プロセッサ17は、例えば、CPU11に対して、消灯状態の表示デバイスを点灯状態に復帰させるジューム復帰の通知を行う。電子機器10のCPU11は、例えば、第1プロセッサ17からの通知に基づいて、消灯状態のLCD15a等の表示デバイスを点灯状態に移行する。
 なお、CPU11の電源状態が省電力モードの待機状態(スリープ状態)に移行している場合では、CPU11は、例えば、第1プロセッサ17からの通知により、待機状態に移行した電源状態を運用状態に復帰させる。そして、運用状態に復帰したCPU11が、消灯状態にあるLCD15a等の表示デバイスを点灯状態に移行させるとしてもよい。
 S7の処理では、電子機器10は、例えば、消灯状態にある表示デバイス面の接触状態を表す状態値が格納される、変数“D[1:0]”に保持された状態値を初期状態に設定する。電子機器10の第1プロセッサ17は、例えば、変数“D[1:0]”に保持された状態値を“D[1]=0”、“D[0]=0”といった初期値に設定する。
 S8の処理では、電子機器10は、例えば、タッチセンサ14aが接続する第1プロセッサ17を“モード1”に遷移させる。電子機器10のCPU11は、例えば、接続バスB1を介し、第1プロセッサ17に対して“モード1”への遷移を通知する。第1プロセッサ17は、CPU11からの通知に基づいて、“モード3”の処理形態を“モード1”の処理形態に移行させる。なお、電子機器10の第1プロセッサ17では、例えば、“モード1”への処理形態の移行と共に、接触状態検出プログラムが終了される。
 “モード1”に移行した第1プロセッサ17では、例えば、タッチセンサ14aの検出信号に基づいて、点灯状態にあるタッチパネル面への操作指等の接触位置に係る座標が算出される。算出された接触位置に係る座標は、例えば、接続バスB1を介して運用状態のCPU11に通知される。
 S9の処理では、電子機器10は、例えば、S1の処理で開始された近接センサ監視プログラムを終了させる。電子機器10のCPU11は、例えば、接続バスB1を介し、第2プロセッサ18に対して近接センサ監視プログラムの終了を通知する。第2プロセッサ18は、CPU11からの通知に基づいて、実行中の近接センサ監視プログラムを終了させる。CPU11は、近接センサ監視プログラムを終了した第2プロセッサ18を待機状態に移行させる。
 S10の処理では、電子機器10は、例えば、変数“D[0]”に保持された状態値が“1”であるか“0”であるかの判定を行う。電子機器10の第1プロセッサ17は、例えば、変数“D[0]”に保持された状態値が“1”である場合には(S10,1)、S11の処理に移行する。
 S11の処理では、電子機器10は、例えば、最新のサンプリングで取得した検出信号に対する接触状態を、変数“D[0]”に保存し、S10の処理に移行する。電子機器10では、S4-S5の処理で判定された、直前のサンプリングから継続する接触が検出されなくなるまでS10-S11の処理が繰り返される。
 すなわち、S10-S11の処理により、電子機器10は、近接状態にある対象物の存在が検知されなくなった後でも、表示デバイス面への接触が継続している場合には、表示デバイスの消灯状態を維持することができる。例えば、電子機器10は、タッチパネルの表示デバイス面に指等を接触させた状態で鞄等から取り出された場合であっても、表示デバイス面への接触が継続している状態では、消灯状態にある表示デバイスの点灯状態へのレジューム復帰を抑制できる。
 一方、S10の処理において、電子機器10の第1プロセッサ17は、例えば、変数“D[0]”に保持された状態値が“0”である場合には(S10,0)、S2の処理に移行する。電子機器10では、S4-S5の処理で判定された、直前のサンプリングから継続する接触が検出されなくなった場合には、最新のサンプリングされた検出信号に基づいてS2-S11の処理が実行される。
 電子機器10では、例えば、表示デバイス面に指等を接触させた状態で鞄等から取り出した後に、接触させた指等を表示デバイス面から離脱させ、新たに消灯状態の表示デバイスに指等を接触させることで、点灯状態へのレジューム復帰が可能となる。電子機器10では、ユーザの意図する接触により、消灯状態の表示デバイスを点灯状態に復帰させることが可能となる。
 ここで、電子機器10で実行されるS2の処理は、表示デバイスに重畳され、物体による接触を検出する第1検出ステップの一例である。また、電子機器10の第1プロセッサ17等は、表示デバイスに重畳され物体による接触を検出する第1検出部の一例としてS2の処理を実行する。
 また、電子機器10で実行されるS1の処理は、表示デバイスに対して近接状態にある物体を検出する第2検出ステップの一例である。また、電子機器10の第2プロセッサ18等は、表示デバイスに対して近接状態にある物体を検出する第2検出部の一例としてS1の処理を実行する。
 また、電子機器10で実行されるS3-S5(1)、S10-S11の処理は、表示デバイスが消灯状態で第1検出部が第1の接触を検出したときに第2検出部が近接状態にある物体を検出している場合には消灯状態を維持すると共に、第2検出部が近接状態にある物体を検出していない場合に第1検出部の検出した第2の接触が第2検出部による近接状態にある物体の検出時点から継続しているものであるか否かを判定し、第2の接触が継続しているものであると判定された場合には、表示デバイスの消灯状態を維持する制御ステップの一例である。また、電子機器10の第1プロセッサ17等は、表示デバイスが消灯状態で第1検出部が第1の接触を検出したときに第2検出部が近接状態にある物体を検出している場合には消灯状態を維持すると共に、第2検出部が近接状態にある物体を検出していない場合に第1検出部の検出した第2の接触が第2検出部による近接状態にある物体の検出時点から継続しているか否かを判定し、第2の接触が継続していると判定された場合には、表示デバイスの消灯状態を維持する制御部の一例としてS3-S5(1)、S10-S11の処理を実行する。
 また、電子機器10で実行されるS3-S5(0)、S6-S9の処理は、第2の接触が継続していないと判定された場合には、表示デバイスの消灯状態から復帰する制御ステップの一例である。また、電子機器10のCPU11、第1プロセッサ17、第2プロセッサ18等は、第2の接触が継続していないと判定された場合には、表示デバイスの消灯状態から復帰する制御部の一例としてS3-S5(0)、S6-S9の処理を実行する。
 以上、説明したように、本実施形態の電子機器10では、例えば、表示デバイスが消灯状態となった電子機器10に近接する対象物の存在の有無を検知することができる。電子機器10は、例えば、消灯状態にある表示デバイス面への接触を検出した際に、近接状態の対象物の存在の有無を判定することができる。
 判定の結果、電子機器10は、例えば、近接状態にある対象物が検知されている場合には、表示デバイスの消灯状態を維持することができる。一方、電子機器10は、近接状態にある対象物が検知されていない場合には、検出した接触について、近接状態の対象物を検知している状態から継続する接触であるか否かをさらに判定できる。
 この結果、本実施形態の電子機器10は、近接状態の対象物を検知しない状態の接触が、近接状態にある対象物を検知している状態から継続する接触である場合には、表示デバイスの消灯状態を維持することができる。また、本実施形態の電子機器10は、近接状態の対象物を検知しない状態の接触が、近接状態にある対象物を検知している状態から継続する接触でない場合には、消灯状態の表示デバイスを点灯状態に復帰させることができる。
 本実施形態の電子機器10は、タッチパネル面に指等を接触させた状態で鞄等の収納先から電子機器10を取り出した場合であっても、消灯状態から点灯状態に誤って復帰してしまうことを防止できる。本実施形態の電子機器10では、消灯状態から復帰した表示デバイスに表示された表示情報が第3者に閲覧される可能性を軽減できる。本実施形態の電子機器10は、タッチパネルのセンシングを用いた表示画面の消灯状態からの、ユーザの意図しない復帰を抑制する技術が提供できる。本実施形態の電子機器10では、タッチパネルのセンシングを利用したレジューム(Resume)機能の操作性が向上できる。
 (対象物の近接検知および端末の相対角度に基づく状態検出処理)
 次に、図5に例示のフローチャート参照し、近接状態にある対象物の検知、及び、電子機器10の鉛直下方方向に対する相対角度に基づく状態検出処理を説明する。なお、図5に例示のフローチャートにおいて、図4に例示のフローチャートと共通する処理には、図4と同一の符番を付与し、説明を省略する。
 図5に例示の状態検出処理では、電子機器10は、例えば、図4に例示の状態検出処理に、鉛直下方方向に対する相対角度が所定の角度範囲内であることを条件として加え、消灯状態にある表示デバイスを点灯状態に復帰させる。
 図5に例示のフローチャートにおいて、S12の処理では、電子機器10は、例えば、加速度センサ監視プログラムを実行する。加速度センサ監視プログラムは、第2プロセッサ18で実行される。加速度センサ監視プログラムの実行により、電子機器10の鉛直下方方向に対する相対角度が算出される。第2プロセッサ18は、算出された電子機器10の鉛直下方方向に対する相対角度を、“端末角度B”として第1プロセッサ17に出力する。なお、S12の加速度センサ監視プログラムの処理は、図7で詳細を説明する。
 なお、電子機器10では、加速度センサ監視プログラムは、消灯状態の表示デバイスを点灯状態に復帰させたCPU11からの通知により終了する(S13)。S13の処理では、電子機器10のCPU11は、例えば、接続バスB1を介し、第2プロセッサ18に対して加速度センサ監視プログラムの終了を通知する。第2プロセッサ18は、CPU11からの通知に基づいて、実行中の加速度センサ監視プログラムを終了させる。CPU11は、加速度センサ監視プログラムを終了した第2プロセッサ18を待機状態に移行させる。
 図5に例示の状態検出処理では、電子機器10は、例えば、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触である場合には、S10-S11,S14-S21の処理を実行する。なお、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触であるか否かの判定は、S4-S5の処理により行われる。また、S10-S11の処理は、S14-S21の処理の実行後に行われる。
 図5に例示のフローチャートの、S5の処理において、電子機器10は、例えば、変数“D[1]”に格納された状態値が“1”である場合には(S5,1)、S14の処理に移行する。電子機器10では、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触である場合には、S14-S21,S10-S11の処理が実行される。
 S14の処理では、電子機器10は、例えば、鉛直下方方向に対する電子機器10の相対角度を判定するためのタイマープログラムを開始する。タイマープログラムにより、電子機器10の第1プロセッサ17では、最新のサンプリングで検出された接触が、直前のサンプリングから継続する接触であると判定されたときからの経過時間Tが計測される。電子機器10では、計測された経過時間Tに基づいて、所定期間内での電子機器10の鉛直下方方向に対する相対角度が判定される。
 ここで、所定期間とは、例えば、鞄等から取り出された電子機器10が使用状態にあると推定されるまでの期間である。所定期間は、例えば、電子機器10を鞄等に収納し、収納された電子機器10を取り出して使用状態となるまでの期間を実験的に計測することで設定することができる。また、所定期間は、例えば、電子機器10のユーザの操作入力により、予め設定されるとしてもよい。図5に例示の状態検出処理では、所定期間の一例として“5000ms”といったms単位の期間を例示する。なお、S14のタイマープログラムの処理は、図8で詳細を説明する。
 S15の処理では、電子機器10は、例えば、鉛直下方方向を基準軸とした電子機器10の相対角度が所定の角度範囲であることを判定する。ここで、所定の角度範囲とは、例えば、タッチパネルを有する電子機器10が使用状態にあると推定される鉛直下方方向に対する相対角度である。所定の角度範囲は、例えば、使用状態の電子機器10の鉛直下方方向に対する相対角度を実験的に計測し、計測した相対角度に基づいて設定することができる。また、所定の角度範囲は、例えば、電子機器10のユーザの操作入力により、予め設定されるとしてもよい。図5に例示の状態検出処理では、所定の角度範囲の一例として“0度<相対角度<+50度”の角度範囲を例示する。
 S15の処理において、電子機器10の第1プロセッサ17は、例えば、S12の処理で加速度センサ監視プログラムが開始された第2プロセッサ18の出力する端末角度Bを取得する。第1プロセッサ17は、取得した端末角度Bが“0度<端末角度B<+50度”の角度範囲であるか否かを判定する。
 電子機器10は、例えば、取得した端末角度Bが“0度<端末角度B<+50度”の角度範囲である場合には(S15,YES)、S16の処理に移行する。S16の処理では、電子機器10の第1プロセッサ17は、S14の処理で開始したタイマープログラムを終了し、経過時間Tの計測を終了する。電子機器10は、S16の処理の終了後、S6の処理に移行する。S6の処理では、電子機器10は、例えば、消灯状態にあるLCD15a等の表示デバイスを点灯状態に復帰させる。
 一方、電子機器10は、例えば、取得した端末角度Bが“0度<端末角度B<+50度”の角度範囲にない場合には(S15,NO)、S17の処理に移行する。S17の処理では、電子機器10は、例えば、変数“D[0]”に保持された状態値が“1”であるか“0”であるかの判定を行う。
 電子機器10の第1プロセッサ17は、例えば、変数“D[0]”に保持された状態値が“0”である場合には(S17,0)、S21の処理に移行する。S21の処理では、電子機器10の第1プロセッサ17は、S14の処理で開始したタイマープログラムを終了し、経過時間Tの計測を終了する。電子機器10は、S21の処理の終了後、S2の処理に移行する。
 電子機器10では、S14の処理で開始されたタイマープログラムによる経過時間Tの計測中に直前のサンプリングから継続する接触が検出されなくなった場合には、最新のサンプリングされた検出信号に基づいてS2-S21の処理が実行される。
 一方、電子機器10の第1プロセッサ17は、例えば、変数“D[0]”に保持された状態値が“1”である場合には(S17,1)、S18の処理に移行する。S18の処理では、電子機器10は、例えば、最新のサンプリングで取得した検出信号に対する接触状態を、変数“D[0]”に保存し、S19の処理に移行する。
 S19の処理では、電子機器10は、例えば、S14の処理で開始したタイマープログラムで計測された経過時間Tが、所定期間である5000ms未満であるか否かを判定する。電子機器10の第1プロセッサ17は、例えば、タイマープログラムで計測された経過時間Tを取得し、取得された経過時間Tが、5000ms未満であるか否かを判定する。
 電子機器10は、例えば、取得した経過時間Tが5000ms未満である場合には(S19,YES)、S15の処理に移行し、S15-S19の処理を繰り返す。一方、電子機器10は、例えば、取得した経過時間Tが5000ms未満でない場合には(S19,NO)、S20の処理に移行し、タイマープログラムを終了する。電子機器10の第1プロセッサ17は、計測された経過時間Tが所定期間以上の場合には、タイマープログラムを終了する。電子機器10では、例えば、所定期間内に、使用状態にあると推定される角度範囲の相対角度が検知されない場合には、S20のタイマープログラムの終了処理後に、S10-S11の処理が実行される。
 ここで、電子機器10で実行されるS12の処理は、表示デバイスの表示面の鉛直下方方向に対する相対角度をさらに特定する第2検出ステップの一例である。また、電子機器10の第2プロセッサ18等は、表示デバイスの表示面の鉛直下方方向に対する相対角度をさらに特定する第2検出部の一例としてS12の処理を実行する。
 また、電子機器10で実行されるS3-S5(1)、S6-S9、S14-S21の処理は、第2の接触が継続していると判定された場合であっても、第2検出部で特定された相対角度が使用状態にあると推定される所定の角度範囲である場合には、表示デバイスの消灯状態から復帰する制御ステップの一例である。また、電子機器10のCPU11、第1プロセッサ17、第2プロセッサ18等は、第2の接触が継続していると判定された場合であっても、第2検出部で特定された相対角度が使用状態にあると推定される所定の角度範囲である場合には、表示デバイスの消灯状態から復帰する制御部の一例として、S3-S5(1)、S6-S9、S14-S21の処理を実行する。
 以上、説明したように、電子機器10の鉛直下方方向に対する相対角度(端末角度)を検知する電子機器10では、図4に例示の状態検出処理に加え、検知された相対角度に基づいてS12-S21の処理を実行する。
 S12-S21の処理では、電子機器10は、加速度センサ監視プログラムの処理により、例えば、電子機器10の鉛直下方方向に対する相対角度を端末角度として検知することができる。また、電子機器10は、タイマープログラムの処理により、近接状態の対象物が検知されている状態で検出された接触が継続している判定されたときからの経過時間を計測することができる。
 S12-S21の処理では、電子機器10は、経過時間が所定期間を過ぎるまでの間に検知された端末角度について、使用状態にあると推定される角度範囲にあるか否かを判定できる。電子機器10は、例えば、検知された端末角度が使用状態にあると推定される角度範囲にある場合には、消灯状態にある表示デバイスを点灯状態に復帰することができる。この結果、電子機器10は、近接状態の対象物が検知されている状態で検出された接触が、近接状態の対象物を検知しない状態において継続している場合であっても、検知された端末角度に基づいてレジューム復帰を行うことが可能となる。本実施形態の電子機器10では、タッチパネルのセンシングを利用したレジューム機能の操作性が向上できる。
 (近接状態監視プログラム)
 次に、図6に例示のフローチャートを参照し、図4、5に例示のS1の、近接状態にある対象物の存在の有無を検知する近接状態監視プログラムの処理を説明する。近接状態監視プログラムは、IR近接センサ14bが接続される第2プロセッサ18で実行される。
 図6に例示のフローチャートにおいて、S31の処理では、第2プロセッサ18は、例えば、IR近接センサ14bから出力される電気信号を取得する。電子機器10に対して近接状態にある対象物は、IR近接センサ14bの電気信号のレベルに基づいて検知される。
 S31の処理では、第2プロセッサ18は、取得した電気信号のレベルが所定の閾値以上であるか否かを判定する。ここで、所定の閾値とは、近接状態にある対象物との相対距離を判定するための閾値である。IR近接センサ14bから取得した電気信号のレベルが閾値以上の場合には、近接状態にある対象物が存在すると判定できる。一方、IR近接センサ14bから取得した電気信号のレベルが閾値未満の場合には、近接状態にある対象物は存在しないと判定できる。
 なお、所定の閾値は、例えば、予め対象物を電子機器10に近接させて近接状態とし、対象物との距離と該距離に対応するIR近接センサ14bから出力される電気信号のレベルとを計測することで実験的に求めることができる。所定の閾値は、近接する対象物を判定するための距離に応じて設定できる。また、所定の閾値は、例えば、電子機器10のユーザの操作入力により、予め設定されるとしてもよい。
 第2プロセッサ18は、例えば、取得した電気信号のレベルが所定の閾値以上の場合には(S31,NERA)、S33の処理に移行する。一方、第2プロセッサ18は、例えば、取得した電気信号のレベルが所定の閾値未満の場合には(S31,FAR)、S32の処理に移行する。S32、S33の処理では、近接状態の対象物に存在を表す近接状態監視信号のステータス値が設定される。なお、近接状態監視信号は、接触状態検出プログラムを実行中の第1プロセッサ17に出力される。
 S32の処理では、第2プロセッサ18は、例えば、近接状態監視信号のステータス値を“H”に設定する。また、S33の処理では、第2プロセッサ18は、例えば、近接状態監視信号のステータス値を“L”に設定する。S32-S33の処理後、第2プロセッサ18は、S34の処理に移行する。
 S34の処理では、第2プロセッサ18は、例えば、近接センサ監視プログラムの終了指示の有無を判定する。近接センサ監視プログラムの終了の指示は、例えば、図4、5等に例示のフローチャートのS9の処理により行われる。
 第2プロセッサ18は、例えば、近接センサ監視プログラムの終了指示が無い場合には(S34,NO)、S31の処理に移行し、S31-S34の処理を繰り返す。第2プロセッサ18では、近接センサ監視プログラムの終了指示が通知されるまで、S31-S34の処理が繰り返される。
 一方、第2プロセッサ18は、例えば、近接センサ監視プログラムの終了指示がある場合には(S34,YES)、S35の処理に移行する。S35の処理では、第2プロセッサ18は、接続するIR近接センサ14bの動作を終了する。第2プロセッサ18は、S35の処理後、実行中の近接センサ監視プログラムを終了する。
 なお、図2に例示のように、近接する対象物を検知するセンサとして照度センサ14dを用いる場合では、第2プロセッサ18は、S31の処理において、照度センサ14dから出力される電気信号のレベルを取得するとすればよい。そして、第2プロセッサ18は、照度センサ14dの出力レベルに対応する距離判定の閾値を用いて、近接状態の対象物の存在を判定するとすればよい。S32-S33の処理では、第2プロセッサ18は、照度センサ14dから出力される電気信号のレベルに基づいて、近接状態監視信号のステータス値を設定できる。
 なお、近接センサ監視プログラムの終了の指示がある場合には、例えば、第2プロセッサ18は、S35の処理で、接続された照度センサ14cの動作を終了するとすればよい。図2に例示の電子機器10では、照度センサ14dの出力信号に基づいて、近接状態監視信号を生成することが可能となる。
 また、図3に例示のように、近接する対象物を検知するセンサとしてMRセンサ14eを用いる場合では、第2プロセッサ18は、S31の処理において、MRセンサ14eから出力される電気信号のレベルを取得するとすればよい。但し、MRセンサ14eは、対象物との距離に応じた磁界の強さを検出するため、近接状態の検出対象となる対象物は、例えば、磁石等が配置された専用の保護ケース等に限定される。
 そして、第2プロセッサ18は、MRセンサ14eの出力レベルに対応する距離判定の閾値を用いて、近接状態の対象物の存在を判定するとすればよい。S32-S33の処理では、第2プロセッサ18は、MRセンサ14eから出力される電気信号のレベルに基づいて、近接状態監視信号のステータス値を設定できる。
 また、第2プロセッサ18は、近接センサ監視プログラムの終了の指示がある場合には、S35の処理で、接続されたMRセンサ14eの動作を終了するとすればよい。図3に例示の電子機器10では、MRセンサ14eの出力信号に基づいて、近接状態監視信号を生成することが可能となる。
 (加速度センサ監視プログラム)
 次に、図7に例示のフローチャートを参照し、図5に例示のS12の、電子機器10の鉛直下方方向に対する相対角度を特定する加速度センサ監視プログラムの処理を説明する。加速度センサ監視プログラムは、加速度センサ14cが接続される第2プロセッサ18で実行される。
 図7に例示のフローチャートにおいて、S41の処理では、第2プロセッサ18は、例えば、加速度センサ14cから出力されるX軸、Y軸、Z軸方向の加速度を取得する。加速度センサ14cは、例えば、電子機器10のタッチパネルの左右方向をX軸、上下方向をY軸、タッチパネル面に直交する奥行き、手前方向をZ軸とする3軸方向の加速度を検出する。3軸方向の加速度は、各方向への加速度と鉛直下方方向への重力加速度との合力として検出される。
 S41の処理では、第2プロセッサ18は、例えば、加速度センサ14cから出力された各軸方向の加速度値に基づいて、電子機器10の鉛直下方方向を基準軸とする相対角度を算出する。電子機器10の鉛直下方方向を基準軸とする相対角度は、例えば、三角関数等を用いて算出される。なお、加速度センサ14cは、例えば、電子機器10の鉛直下方方向を基準軸とする相対角度を第2プロセッサ18に出力するとしてもよい。
 S42の処理では、第2プロセッサ18は、例えば、鉛直下方方向に対する相対角度を端末角度Bに保存する。端末角度Bに保存された相対角度は、図5に例示の接触状態検出プログラムを実行中の第1プロセッサ17に出力される。第1プロセッサ17では、例えば、図5のS15の処理により、第2プロセッサ18から出力された端末角度Bが取得される。第1プロセッサ17では、取得した端末角度Bに基づいて、電子機器10の状態が使用状態にあると推定される角度範囲にあるか否かが判定される。
 S43の処理では、第2プロセッサ18は、例えば、加速度センサ監視プログラムの終了指示の有無を判定する。加速度センサ監視プログラムの終了の指示は、例えば、図5に例示のフローチャートのS13の処理により行われる。第2プロセッサ18は、例えば、加速度センサ監視プログラムの終了指示が無い場合には(S43,NO)、S41の処理に移行する。第2プロセッサ18では、加速度センサ監視プログラムの終了指示が通知されるまで、S41-S43の処理が繰り返される。
 一方、第2プロセッサ18は、例えば、加速度センサ監視プログラムの終了指示がある場合には(S43,YES)、S44の処理に移行する。S44の処理では、第2プロセッサ18は、接続する加速度センサ14cの動作を終了する。第2プロセッサ18は、S44の処理後、実行中の加速度センサ監視プログラムを終了する。
 (タイマープログラム)
 次に、図8に例示のフローチャートを参照し、図5に例示のS14のタイマープログラムの処理を説明する。タイマープログラムは、“モード3”の処理形態の第1プロセッサ17で実行される。タイマープログラムに実行により、近接状態にある対象物の存在が検知されなくなった後の接触が、近接状態の対象物を検知している状態で検出された接触の継続であると判定されたときからの経過時間が計測される。
 図7に例示のフローチャートにおいて、S51の処理では、第1プロセッサ17は、例えば、実行中の接触状態検出プログラムからの、タイマープログラムの開始指示の有無を判定する。図5に例示のフローチャートにおいて、S14の処理が、タイマープログラムの開始指示となる。
 第1プロセッサ17は、例えば、タイマープログラムの開始指示がある場合には(S51,YES)、S52の処理に移行する。一方、第1プロセッサ17は、例えば、タイマープログラムの開始指示がない場合には(S51,NO)、タイマープログラムの開始指示があるまで待機する。なお、第1プロセッサ17では、S51の“YES”判定を契機として経過時間Tの計測が開始される。
 S52の処理では、第1プロセッサ17は、例えば、経過時間Tを計測するための単位時間が経過するまで待機する。なお、経過時間Tを計測するための単位時間の設定は、例えば、電子機器10に含まれる各種デバイスの性能等に応じて設定される。例えば、単位時間として、ms単位、10ms単位等が例示できる。図8の例は、時間計測のための単位時間として“1ms”を設定した場合の一例である。第1プロセッサ17は、単位時間の経過後にS53の処理に移行する。
 S53の処理では、第1プロセッサ17は、単位時間に基づいて経過時間Tをインクリメントする。インクリメント後の経過時間Tは、インクリメント前の経過時間に単位時間を足し合わせた、“T=T+1ms”に更新される。
 S53の処理後、第1プロセッサ17は、S54の処理に移行する。S54の処理では、第1プロセッサ17は、例えば、実行中の接触状態検出プログラムからの、タイマープログラムの終了指示の有無を判定する。図5に例示のフローチャートにおいて、S16、S20、S21の処理が、タイマープログラムの終了指示となる。
 例えば、図5のフローチャートにおいて、S15の判定により、電子機器10の鉛直下方方向に対する相対角度が、使用状態と推定される角度範囲に含まれる場合には、タイマープログラムの終了指示が行われる。また、例えば、同図のS17の判定により、近接状態の対象物を検知している状態において検出された接触の継続であると判定された接触が検出されなくなった場合には、タイマープログラムの終了指示が行われる。また、例えば、同図のS19の判定により、経過時間Tが所定期間を超える場合には、タイマープログラムの終了指示が行われる。
 図8に例示のフローチャートに戻り、S54の処理において、第1プロセッサ17は、例えば、タイマープログラムの終了指示が無い場合には(S54,NO)、S52の処理に移行する。第1プロセッサ17では、タイマープログラムの終了指示が通知されるまで、S52-S54の処理が繰り返される。一方、第1プロセッサ17は、例えば、タイマープログラムの終了指示がある場合には(S54,YES)、タイマープログラムを終了する。
 《コンピュータが読み取り可能な記録媒体》
 コンピュータその他の機械、装置(以下、コンピュータ等)に上記いずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。そして、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
 ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM等がある。
10 電子機器
11 CPU
12 主記憶部
13 補助記憶部
14 入力部
14a タッチセンサ
14b IR近接センサ
14c 加速度センサ
14d 照度センサ
14e MRセンサ
15 出力部
15a LCD
16 通信部
17 第1プロセッサ
18 第2プロセッサ
 

Claims (4)

  1.  表示デバイスと、
     前記表示デバイスに重畳され、物体による接触を検出する第1検出部と、
     前記表示デバイスに対して近接状態にある物体を検出する第2検出部と、
     前記表示デバイスが消灯状態で前記第1検出部が第1の接触を検出したときに前記第2検出部が近接状態にある物体を検出している場合には前記消灯状態を維持すると共に、前記第2検出部が近接状態にある物体を検出していない場合に前記第1検出部の検出した第2の接触が前記第2検出部による前記近接状態にある前記物体の検出時点から継続しているか否かを判定し、前記第2の接触が前記継続していると判定された場合には、前記表示デバイスの消灯状態を維持する制御部と、
     を備える電子機器。
  2.  前記制御部は、前記第2の接触が前記継続していないと判定された場合には、前記表示デバイスの消灯状態から復帰する、請求項1に記載の電子機器。
  3.  前記第2検出部は、前記表示デバイスの表示面の鉛直下方方向に対する相対角度をさらに特定し、
     前記制御部は、前記第2の接触が前記継続していると判定された場合であっても、前記第2検出部で特定された前記相対角度が使用状態にあると推定される所定の角度範囲である場合には、前記表示デバイスの消灯状態から復帰する、請求項1または2に記載の電子機器。
  4.  表示デバイスと、前記表示デバイスに重畳され、物体による接触を検出する第1検出部と、前記表示デバイスに対して近接状態にある物体を検出する第2検出部と、を有するコンピュータに、
     前記表示デバイスが消灯状態で前記前記第1検出部が第1の接触を検出したときに前記第2検出部が近接状態にある物体を検出している場合には前記消灯状態を維持すると共に、前記第2検出部が近接状態にある物体を検出していない場合に前記第1検出部の検出した第2の接触が前記第2検出部による前記近接状態にある前記物体の検出時点から継続しているか否かを判定し、前記第2の接触が前記継続していると判定された場合には、前記表示デバイスの消灯状態を維持する制御ステップと、
     を実行させるための表示制御プログラム。
PCT/JP2015/060371 2015-04-01 2015-04-01 電子機器及び表示制御プログラム WO2016157475A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/060371 WO2016157475A1 (ja) 2015-04-01 2015-04-01 電子機器及び表示制御プログラム
JP2017509091A JP6384593B2 (ja) 2015-04-01 2015-04-01 電子機器及び表示制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/060371 WO2016157475A1 (ja) 2015-04-01 2015-04-01 電子機器及び表示制御プログラム

Publications (1)

Publication Number Publication Date
WO2016157475A1 true WO2016157475A1 (ja) 2016-10-06

Family

ID=57006911

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/060371 WO2016157475A1 (ja) 2015-04-01 2015-04-01 電子機器及び表示制御プログラム

Country Status (2)

Country Link
JP (1) JP6384593B2 (ja)
WO (1) WO2016157475A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107102717A (zh) * 2017-04-26 2017-08-29 广东小天才科技有限公司 屏幕控制方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238078A (ja) * 2009-03-31 2010-10-21 Toshiba Corp 携帯端末
JP2011107784A (ja) * 2009-11-12 2011-06-02 Kyocera Corp 携帯端末及び制御プログラム
JP2012178719A (ja) * 2011-02-25 2012-09-13 Nec Casio Mobile Communications Ltd 携帯端末、制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010238078A (ja) * 2009-03-31 2010-10-21 Toshiba Corp 携帯端末
JP2011107784A (ja) * 2009-11-12 2011-06-02 Kyocera Corp 携帯端末及び制御プログラム
JP2012178719A (ja) * 2011-02-25 2012-09-13 Nec Casio Mobile Communications Ltd 携帯端末、制御方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107102717A (zh) * 2017-04-26 2017-08-29 广东小天才科技有限公司 屏幕控制方法和装置
CN107102717B (zh) * 2017-04-26 2021-11-05 广东小天才科技有限公司 屏幕控制方法和装置

Also Published As

Publication number Publication date
JP6384593B2 (ja) 2018-09-05
JPWO2016157475A1 (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
US9851853B2 (en) Low power scan for device wake up and unlock
TWI593337B (zh) 配件裝置
JP5610644B2 (ja) 入力装置、入力支援方法及びプログラム
JP5189197B1 (ja) 携帯情報端末
US8933905B2 (en) Touch-sensitive button with two levels
US9298297B2 (en) Method and apparatus for controlling flexible display panel
US9218121B2 (en) Apparatus and method recognizing touch gesture
US20100201615A1 (en) Touch and Bump Input Control
JP5887807B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
EP3343341B1 (en) Touch input method through edge screen, and electronic device
JP5555200B2 (ja) タッチ・パネルを備える電子機器をウェイク・アップする方法および電子機器
CN106933425B (zh) 一种防止误触的方法和装置
JP5620331B2 (ja) 携帯電子機器、制御方法および制御プログラム
KR20180083310A (ko) 변환가능한 컴퓨팅 디바이스의 동작 상태를 변경하기 위한 가속도계 입력의 사용
JP2012194883A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP2011503756A (ja) ディスプレイを組み合わせ、近接および接触検知能力を有するタッチパッド
KR20130121050A (ko) 모바일 디바이스 및 제스처 결정 방법
US9250801B2 (en) Unlocking method, portable electronic device and touch-sensitive device
JP2013206058A (ja) 電源管理装置、電源管理方法、及び電源管理プログラム
US20130088427A1 (en) Multiple input areas for pen-based computing
JP2013242916A (ja) 入力装置、入力支援方法及びプログラム
JP2011159082A (ja) 情報処理装置及び画像表示方法
JP6384593B2 (ja) 電子機器及び表示制御プログラム
JP2007080291A (ja) 入力処理方法及びそれを実施する入力処理装置
KR20140114721A (ko) 터치스크린 운영 방법 및 이를 구현하는 전자장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15887622

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017509091

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15887622

Country of ref document: EP

Kind code of ref document: A1