WO2019156063A1 - 携帯端末、携帯端末の制御方法、および携帯端末のプログラム - Google Patents

携帯端末、携帯端末の制御方法、および携帯端末のプログラム Download PDF

Info

Publication number
WO2019156063A1
WO2019156063A1 PCT/JP2019/004040 JP2019004040W WO2019156063A1 WO 2019156063 A1 WO2019156063 A1 WO 2019156063A1 JP 2019004040 W JP2019004040 W JP 2019004040W WO 2019156063 A1 WO2019156063 A1 WO 2019156063A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile terminal
user
image
predetermined time
display means
Prior art date
Application number
PCT/JP2019/004040
Other languages
English (en)
French (fr)
Inventor
英貴 野本
Original Assignee
Necプラットフォームズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necプラットフォームズ株式会社 filed Critical Necプラットフォームズ株式会社
Priority to US16/964,865 priority Critical patent/US20210064130A1/en
Publication of WO2019156063A1 publication Critical patent/WO2019156063A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers

Definitions

  • the present invention relates to a portable terminal, a portable terminal control method, and a portable terminal program.
  • a mobile terminal such as a mobile phone or a smartphone (smart phone) sees and operates the display screen while walking, there is an accident such as a collision with another person or a car or falling from the platform of the station (platform). It is happening and it is a social problem.
  • Patent Document 1 when the movement of the user's eyes is detected while the mobile terminal is moving, and it is determined that the user is moving while looking at the display unit, the function restriction of the mobile terminal is performed.
  • the technology to do is presented.
  • Patent Document 1 if the user is operating the mobile terminal using the movement of the line of sight of the user of the mobile terminal, there is a problem that the determination accuracy is low. .
  • an object of the present invention is to provide a mobile terminal, a mobile terminal control method, and a mobile terminal program that determine with high accuracy whether or not the user of the mobile terminal is operating the mobile terminal. There is.
  • a mobile terminal of the present invention is a mobile terminal including a display unit, which is fixed relative to the display unit and captures an image of the eyeball surface of a user of the mobile terminal. And the time when the image of the eyeball surface matches the image displayed on the display unit within a first predetermined time is equal to or longer than a second predetermined time shorter than the first predetermined time. And a control unit that determines that the user is operating the portable terminal.
  • an image of the eyeball surface of the user of the mobile terminal is displayed on the display unit of the mobile terminal within the first predetermined time. It is determined that the user is operating the portable terminal when the time that matches the existing image is equal to or longer than a second predetermined time shorter than the first predetermined time.
  • the image of the eyeball surface of the user of the mobile terminal is displayed on the display unit of the mobile terminal within the first predetermined time. If the time corresponding to the image is equal to or longer than a second predetermined time shorter than the first predetermined time, the computer is caused to determine that the user is operating the portable terminal.
  • the mobile terminal, the mobile terminal control method, and the mobile terminal program can determine with high accuracy whether or not the user of the mobile terminal is operating the mobile terminal.
  • FIG. 1 shows the configuration of the first embodiment.
  • a mobile terminal 10 is a mobile terminal including a display unit 11, and is an imaging unit 12 and a control unit that are fixed relative to the display unit 11 and capture an image of the eyeball surface of the user of the mobile terminal. 13 is provided. Within a first predetermined time, the control unit 13 has a time that the image of the eyeball surface matches the image displayed on the display unit 11 for a second predetermined time that is shorter than the first predetermined time. If it is, it is determined that the user is operating the portable terminal 10.
  • FIG. 1 shows the configuration of the second embodiment.
  • the mobile terminal 10 includes a display unit 11, a photographing unit 12, and a control unit 13.
  • the mobile terminal 10 of the present embodiment is assumed to be a smartphone that is a wireless mobile terminal, but is not necessarily a wireless mobile terminal, and may be a mobile video (video) playback device or the like that does not have a wireless function. .
  • the display unit 11 is assumed to be a touch panel of a smartphone and serves as both a display means and an input means by touching a fingertip. However, even if the input means is not necessarily provided, the gist of the invention shown in this embodiment is not impaired.
  • the photographing unit 12 is a camera and is a so-called inner camera that is fixed on the same plane as the display unit and can photograph a user's face. In general smartphones, the inner camera is often mounted on the same surface as the touch panel. However, the photographing unit 12 may be a camera that can photograph the face of the user of the mobile terminal 10 and is installed with its position fixed relative to the display unit.
  • the control unit 13 includes a CPU (Central Processing Unit) and controls the hardware of the mobile terminal 10 to perform software processing.
  • a CPU Central Processing Unit
  • the user of the mobile terminal 10 looks at the display unit 11 for a time T2 (second predetermined time) or more within a predetermined time T1 (first predetermined time). The user determines that the mobile terminal 10 is being operated.
  • the portable terminal 10 determines that the user is not operating the portable terminal 10 if the user of the portable terminal 10 views the display unit 11 for a time shorter than the time T2 during the time T1.
  • control unit 13 sets time t1 to zero and sets time t2 to zero (S101).
  • the clock function provided in the control unit 13 is used for measuring the time, but the mobile terminal 10 may have a clock function separately from the control unit 13.
  • the control unit 13 starts measuring time t1 (S102).
  • the control unit 13 operates the imaging unit 12 to capture an image of the eyeball surface of the user of the mobile terminal 10. Then, the control unit 13 extracts an image shown on the eyeball surface (S103).
  • Extracting the image of the eyeball surface is a technique that has been implemented a lot now, so a description thereof will be omitted.
  • step S104 the control unit 13 determines whether t1 is within time T1 (S104).
  • the time T1 is a predetermined time.
  • step S104 If it is determined in step S104 that t1 is within time T1 (Y in S104), the process proceeds to step S105.
  • step S104 If it is determined in step S104 that t1 is not within time T1 (N in S104), the process proceeds to step S111.
  • step S105 the control unit 13 determines whether or not the eyeball surface image matches the image on the display unit 11 (S105).
  • step S ⁇ b> 105 determines whether or not the user of the mobile terminal 10 is looking at the display unit 11.
  • step S105 If it is determined in step S105 that the eyeball surface image matches the image on the display unit 11 (Y in S105), the process proceeds to step S106.
  • step S105 If it is determined in step S105 that the eyeball surface image does not match the image on the display unit 11 (N in S105), the process proceeds to step S110.
  • step S106 the control unit 13 counts t2 (S106).
  • step S106 if the timing of t2 is stopped, the timing of t2 is started from zero, and if the timing of t2 is being measured, the timing of t2 is continued.
  • step S107 the control unit 13 determines whether t2 is equal to or greater than time T2 (S107).
  • the time T2 is a predetermined time and is set shorter than the time T1.
  • step S107 If it is determined in step S107 that t2 is equal to or greater than time T2 (Y in S107), the process proceeds to step S108.
  • step S107 If it is determined in step S107 that t2 is not equal to or greater than time T2 (N in S107), the process returns to step S103.
  • step S108 the control unit 13 determines that the mobile terminal 10 is being operated by the user (S108).
  • step S108 the user of the mobile terminal 10 is staring at the display unit 11 for a time T2 or more within the time T1. This situation is determined that the mobile terminal 10 is being operated by the user.
  • step S109 the control unit 13 waits until a predetermined time elapses (S109).
  • the fixed time in step S109 is determined by how many time intervals the determination as to whether or not the operation is in progress is performed.
  • step S109 the process returns to step S101.
  • step S110 the control unit 13 stops timing t2 (S110).
  • step S110 the process returns to step S103.
  • step S111 the control unit 13 determines that the mobile terminal 10 is not being operated by the user (S111).
  • step S111 the user of the mobile terminal 10 is not staring at the display unit 11 for a time T2 or more within the time T1. That is, within the time T1, the display unit 11 is stared only for a time shorter than T2. In such a situation, it is determined that the mobile terminal 10 is not being operated by the user.
  • step S111 proceed to step S109.
  • step S108 and step S111 the control unit 13 determines whether or not the mobile terminal 10 is being operated by the user, such as information for operation of application software (application software) of the mobile terminal 10 Is available as
  • the mobile terminal 10 according to the present embodiment can determine whether or not the user of the mobile terminal 10 is operating the mobile terminal 10 with higher accuracy than when only the movement of the line of sight is performed. It becomes.
  • a third embodiment will be described with reference to FIGS.
  • the configuration of this embodiment is the same as the configuration of the first and second embodiments shown in FIG. 1, and the operation of the control unit 13 is different from that of the first and second embodiments.
  • the mobile terminal 10 according to the present embodiment determines that the user is operating the mobile terminal 10 when the user of the mobile terminal 10 looks at the display unit N times within a predetermined time T. .
  • the mobile terminal 10 determines that the user is not operating the mobile terminal 10.
  • control unit 13 sets the clock t to zero and sets the counter n to zero (S201).
  • the clock function provided in the control unit 13 is used for measuring the time, but the mobile terminal 10 may have a clock function separately from the control unit 13.
  • the mobile terminal 10 may include a counter separately from the control unit 13.
  • the control unit 13 starts measuring time t (S202).
  • Step S203 is the same as step S103 of FIG. 2 described in the second embodiment (S203).
  • step S204 the control unit 13 determines whether t is within time T (S204).
  • the time T is the predetermined time described above.
  • step S204 If it is determined in step S204 that t is within time T (Y in S204), the process proceeds to step S205.
  • step S204 If it is determined in step S204 that t is not within time T (N in S204), the process proceeds to step S210.
  • step S205 the control unit 13 determines whether or not the eyeball surface image matches the image on the display unit 11 (S205).
  • step S205 determines whether the user of the mobile terminal 10 is looking at the display unit 11 or not.
  • step S205 If it is determined in step S205 that the eyeball surface image matches the image on the display unit 11 (Y in S205), the process proceeds to step S206.
  • step S205 If it is determined in step S205 that the eyeball surface image does not match the image on the display unit 11 (N in S205), the process returns to step S203.
  • step S206 the control unit 13 adds one counter n (S206).
  • step S207 the control unit 13 determines whether or not the counter n is the number of times N (S207).
  • the number of times N is a predetermined number of times.
  • step S207 If it is determined in step S207 that n is N (Y in S207), the process proceeds to step S208.
  • step S207 If it is determined in step S207 that n is not N times (N in S207), the process proceeds to step S209.
  • step S208 the control unit 13 determines that the mobile terminal 10 is being operated by the user (S208).
  • step S208 the user of the mobile terminal 10 is staring at the display unit 11 N times within the time T. This situation is determined that the mobile terminal 10 is being operated by the user.
  • step S208 the process returns to step S201.
  • step S209 the control unit 13 waits for a predetermined time (S209).
  • the setting of the standby time is determined at the time of designing the mobile terminal 10 as a criterion for determining whether or not the user of the mobile terminal 10 is operating the mobile terminal 10 together with the setting of the time T and the number of times N.
  • step S209 the process returns to step S203.
  • step S210 the control unit 13 determines that the mobile terminal 10 is not being operated by the user (S210).
  • step S210 the user of the mobile terminal 10 is staring at the display unit 11 less than N times within the time T. In such a situation, it is determined that the mobile terminal 10 is not being operated by the user.
  • step S210 the process returns to step S201.
  • step S208 and step S210 the control unit 13 determines whether or not the mobile terminal 10 is being operated by the user, such as information for the operation of application software (application software) of the mobile terminal 10. Is available as
  • FIG. 4 shows the configuration of the fourth embodiment.
  • the mobile terminal 20 includes a display unit 21, a photographing unit 22, an angle detection unit 23, and a control unit 24.
  • the portable terminal 20 of the present embodiment is assumed to be a smartphone that is a wireless portable terminal, but is not necessarily a wireless portable terminal, and may be a portable video (video) playback device or the like without a wireless function. .
  • the display unit 21, the imaging unit 22, and the control unit 24 are the same as the display unit 11, the imaging unit 12, and the control unit 13 of the second and third embodiments.
  • the angle detector 23 may be a gyroscope.
  • the gyroscope is a means for detecting an absolute inclination angle of the mobile terminal 20 with respect to the vertical direction. Many smartphones are equipped with a gyroscope. [Description of operation] Next, the operation of the mobile terminal 20 of this embodiment will be described with reference to FIG.
  • steps S301 to S305 are added to FIG. 2 for explaining the operation of the second embodiment.
  • steps S306 to S316 are the same as steps S101 to S111 in FIG. 2 for explaining the operation of the second embodiment.
  • control unit 24 operates the photographing unit 22 to photograph a face image of the user of the mobile terminal 20 (S301).
  • the control unit 24 operates the angle detection unit 23 to detect an absolute inclination angle with respect to the vertical direction of the mobile terminal 20 (S302).
  • control unit 24 analyzes the face image of the user photographed in step S301, and calculates the relative angle of the face with respect to the surface of the display unit 21 (S303).
  • Calculating the relative angle of the face with respect to the surface of the display unit 21 from the face image can be performed as detection of the face orientation using the face image processing technique.
  • the control unit 24 calculates the absolute angle of the face from the absolute tilt angle of the mobile terminal 20 detected in step S302 and the relative angle of the face with respect to the display unit 21 calculated in step S303 (S304).
  • control unit 24 determines from the absolute angle of the face calculated in step S304 whether the face is below a predetermined angle (S305).
  • the face of the user of the mobile terminal 20 facing downward from a predetermined angle means that the face of the user is depressed and the front is not being watched. Further, not being downward than a predetermined angle, that is, upward is a state in which the user's face is facing forward without being depressed.
  • step S305 If it is determined in step S305 that the face is downward from a predetermined angle (Y in S305), the process proceeds to step S306.
  • step S305 If it is determined in step S305 that the face is not downward than a predetermined angle (N in S305), the process proceeds to step S316.
  • Steps S306 to S316 are the same as Steps S101 to S111 in FIG. 2 for explaining the operation of the second embodiment, description thereof is omitted.
  • adding the operations of step S301 to step S305 has the following effects.
  • whether or not the user of the mobile terminal is staring at the display unit is determined based only on the eyeball surface image.
  • the eyeball surface image uses only a small part of the face image, the image extraction process is complicated and slow compared to determining the state of facial depression using the entire face image.
  • the extraction process of the eyeball surface image is omitted, and the state of face depression is determined, so that the state of the user's forward gaze is determined at high speed. Then, when the face is depressed, it is determined whether the user is looking at the mobile terminal using the eyeball surface image.
  • the mobile terminal 20 since the mobile terminal 20 according to the present embodiment determines that the user is operating the mobile terminal using both the face depression state and the eyeball surface image, the mobile terminal 20 determines that the user is operating. This can be performed with higher accuracy than the portable terminal 10 of the second embodiment.
  • the mobile terminal 20 of the present embodiment determines whether the user of the mobile terminal is operating at a higher speed and with higher accuracy than the mobile terminal 10 of the second embodiment. can do.
  • a fifth embodiment will be described with reference to FIGS.
  • the configuration of this embodiment is the same as the configuration of the fourth embodiment shown in FIG. 4, and the operation of the control unit 24 is different from that of the fourth embodiment.
  • the operation of the mobile terminal 20 of this embodiment will be described with reference to FIG.
  • Steps S401 to S405 are the same as steps S301 to S305 in FIG. 5 for explaining the operation of the fourth embodiment.
  • Step S406 to Step S415 are the same as Step S201 to Step S210 of FIG. 3 for explaining the operation of the third embodiment.
  • Step S401 to Step S405 are added. Therefore, similarly to the portable terminal 20 of the fourth embodiment, the determination that the user is operating the portable terminal is performed using both the face-depressed state and the eyeball surface image.
  • FIG. 7 shows the configuration of the sixth embodiment.
  • the portable terminal 30 includes a display unit 31, a photographing unit 32, an angle detection unit 33, a movement detection unit 34, and a control unit 35.
  • the portable terminal 30 of the present embodiment is assumed to be a smartphone that is a wireless portable terminal, but is not necessarily a wireless portable terminal, and may be a portable video (video) playback device without a wireless function. .
  • the display unit 31, the imaging unit 32, the angle detection unit 33, and the control unit 35 are the same as the display unit 21, the imaging unit 22, the angle detection unit 23, and the control unit 24 of the fourth and fifth embodiments.
  • the movement detection unit 34 measures the current location of the mobile terminal 30 using GPS (Global Positioning System), and detects that the mobile terminal 30 is moving when the current location changes with time. Good. Many smartphones have a GPS function. [Description of operation] Next, the operation of the mobile terminal 30 of this embodiment will be described with reference to FIG.
  • GPS Global Positioning System
  • FIG. 8 includes steps S501 and S502 added to FIG. 5 for explaining the operation of the fourth embodiment.
  • Steps S503 to S514 and S517 are the same as steps S301 to S312 and S315 in FIG. 5 for explaining the operation of the fourth embodiment.
  • step S313 in FIG. 5 is deleted and replaced with step S515 and step S516 in FIG.
  • step S316 in FIG. 5 is deleted, and the process returns to step S501 in FIG.
  • control unit 35 determines whether the touch panel as the display unit 31 is being operated by the user of the mobile terminal 30 (S501).
  • whether or not the operation is in progress may be determined by detecting whether or not the user is in contact with the touch panel and detecting the contact within a certain time.
  • the mobile terminal 30 may be provided with an input unit using a button separately from the display unit 31, and may detect whether the button is being operated by detecting the operation of the button.
  • step S501 If it is determined in step S501 that the operation is in progress (Y in S501), the process proceeds to step S502.
  • step S501 If it is determined in step S501 that the operation is not being performed (N in S501), the process returns to step S501.
  • step S502 the control unit 35 operates the movement detection unit 34 to determine whether or not the mobile terminal 30 is moving (S502).
  • step S502 If it is determined in step S502 that it is moving (Y in S502), the process proceeds to step S503.
  • step S502 If it is determined in step S502 that it is not moving (N in S502), the process returns to step S501.
  • Step S503 to Step S514 and Step S517 are the same as Step S301 to Step S312 and Step S315 of FIG. 5 for explaining the operation of the fourth embodiment.
  • step S515 the control unit 35 stops accepting input operations on the touch panel of the display unit 31 (S515).
  • step S516 the stop of the input operation on the touch panel of the display unit 31 is canceled after a predetermined time has elapsed (S516).
  • the user of the mobile terminal 30 inevitably stops the input operation of the mobile terminal 30 and moves while watching the front. And the user of the portable terminal 30 can avoid danger.
  • the mobile terminal 30 performs an input operation while the user is moving, such as walking, by determining whether or not the user of the mobile terminal is operating the mobile terminal with high accuracy. The risk of performing can be avoided.
  • a seventh embodiment will be described with reference to FIGS.
  • the configuration of this embodiment is the same as the configuration of the sixth embodiment shown in FIG. 7, and the operation of the control unit 35 is different from that of the sixth embodiment.
  • the operation of the mobile terminal 30 of this embodiment will be described with reference to FIG.
  • FIG. 9 includes steps S601 and S602 added to FIG. 6 for explaining the operation of the fifth embodiment.
  • Step S603 to step S614 and step S617 are the same as step S401 to step S412 and step S414 in FIG. 5 for explaining the operation of the fifth embodiment.
  • step S413 in FIG. 6 is deleted, and in FIG. 9, steps S615 and S616 are replaced.
  • step S415 in FIG. 6 is deleted, and the process returns to step S601 in FIG.
  • Step S601 and step S602 are the same as step S501 and step S502 of the operation of the sixth embodiment shown in FIG.
  • Step S603 to step S614 and step S617 are the same as step S401 to step S412 and step S414 in FIG. 6 for explaining the operation of the fifth embodiment.
  • Step S615 and Step S616 are the same as Step S515 and Step S516 of FIG. 8 showing the operation of the sixth embodiment.
  • the mobile terminal 30 is moving and the user of the mobile terminal 30 is using the mobile terminal 30 without gazing at the front.
  • the acceptance of the input operation on the touch panel of the display unit 31 is stopped.
  • the user of the mobile terminal 30 inevitably stops the input operation of the mobile terminal 30 and moves while watching the front. And the user of the portable terminal 30 can avoid danger.
  • the mobile terminal 30 performs an input operation while the user is moving, such as walking, by determining whether or not the user of the mobile terminal is operating the mobile terminal with high accuracy. The risk of performing can be avoided.
  • the present invention can also be applied to a case where an information processing program that realizes the functions of the embodiment is supplied directly or remotely to a system or apparatus.
  • a portable terminal comprising a display unit, An imaging unit that captures an image of the surface of the eyeball of the user of the mobile terminal that is fixed relative to the display unit; When the time when the image of the eyeball surface matches the image displayed on the display unit within a first predetermined time is equal to or longer than a second predetermined time shorter than the first predetermined time, the use And a control unit that determines that a person is operating the portable terminal.
  • a portable terminal comprising a display unit, An imaging unit that captures an image of the surface of the eyeball of the user of the mobile terminal that is fixed relative to the display unit; Control that determines that the user is operating the mobile terminal when the number of times that the image on the eyeball surface matches the image displayed on the display unit reaches a predetermined number of times within a predetermined time And a portable terminal.
  • a portable terminal comprising a display unit, A photographing unit that is fixed relative to the display unit and photographs an image of a user's face and eyeball surface of the mobile terminal; An angle detection unit for detecting an absolute angle with respect to a vertical direction of the display unit; From the face image and the absolute angle, it is determined that the face is below a predetermined angle, and the image of the eyeball surface is displayed on the display unit within a first predetermined time.
  • a control unit that determines that the user is operating the portable terminal when a time corresponding to the displayed image is equal to or longer than a second predetermined time shorter than a first predetermined time.
  • a portable terminal comprising a display unit, A photographing unit that is fixed relative to the display unit and photographs an image of a user's face and eyeball surface of the mobile terminal; A movement detector for detecting movement of the position of the mobile terminal; An angle detection unit for detecting an absolute angle with respect to a vertical direction of the display unit; It is determined that the mobile terminal is moving, and the face is determined to be below a predetermined angle from the face image and the absolute angle. And a control unit that determines that the user is operating the mobile terminal when the number of times that the image matches the image displayed on the display unit reaches a predetermined number. Terminal.
  • the control unit stops receiving the operation of the mobile terminal by the user when the user determines that the user is operating the mobile terminal. Mobile devices.
  • the supplementary note 5 is characterized in that the control unit further returns to accept the operation of the mobile terminal after a predetermined time has elapsed after stopping the reception of the operation of the mobile terminal by the user.
  • a second predetermined time in which an image of the eyeball surface of the user of the mobile terminal matches the image displayed on the display unit of the mobile terminal is shorter than the first predetermined time.
  • Appendix 12 The control of the mobile terminal according to appendix 11, wherein the mobile terminal returns to accept the operation of the mobile terminal when a predetermined time elapses after the user stops accepting the operation of the mobile terminal.
  • a second predetermined time in which an image of the eyeball surface of the user of the mobile terminal matches the image displayed on the display unit of the mobile terminal is shorter than the first predetermined time.
  • appendix 18 The mobile terminal according to appendix 17, which causes the computer to return to accept the operation of the mobile terminal when a predetermined time has elapsed after stopping the reception of the operation of the mobile terminal by the user. program.

Abstract

携帯端末を使用者が操作中か否かの判断を高い精度で行うことを可能にする携帯端末を実現するために、本発明の携帯端末は、表示部を備える携帯端末であって、前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備える。

Description

携帯端末、携帯端末の制御方法、および携帯端末のプログラム
 本発明は、携帯端末、携帯端末の制御方法、および携帯端末のプログラムに関するものである。
 携帯電話、スマートフォン(smart phone)等の携帯端末の使用者が、歩きながら表示画面を見たり操作することで、他人や車と衝突したり、駅のホーム(platform)から転落するなどの事故が起こっていて、社会問題となっている。
 そこで、特許文献1では、携帯端末が移動中に、使用者の目の視線の動きを検知して、使用者が表示部を見ながら移動していると判断されると、携帯端末の機能制限を行う技術を提示している。
特開2015-099493号公報
 特許文献1による技術では、携帯端末の使用者の視線の動きによって、使用者が携帯端末を操作中か否かを判断している。
 しかし、タブレット端末(tablet terminal)の様に、大きい画面の携帯端末の場合には、画面の表示範囲内を見ている場合でも、視線の動きは大きくなる。また、携帯端末の表示画面と使用者の目との距離が近い場合は、遠い場合と比べて視線の動きは大きくなる。
 そのため、特許文献1に提示される様に、携帯端末の使用者の視線の動きを利用して、使用者が携帯端末を操作中か否かの判断を行うと、判定精度が低い問題がある。
 本発明の目的は、上述した課題を鑑み、携帯端末を携帯端末の使用者が操作中か否かの判断を高い精度で行う携帯端末、携帯端末の制御方法、および携帯端末のプログラムを提供することにある。
 上記の目的を達成するために、本発明の携帯端末は、表示部を備える携帯端末であって、前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備える。
 上記の目的を達成するために、本発明の携帯端末の制御方法は、第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する。
 上記の目的を達成するために、本発明の携帯端末のプログラムは、第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる。
 本発明によれば、携帯端末、携帯端末の制御方法、および携帯端末のプログラムは、携帯端末を携帯端末の使用者が操作中か否かの判断を高い精度で行うことが可能となる。
第1および第2の実施形態の構成例を示す図である。 第2の実施形態の動作を説明する図である。 第3の実施形態の動作を説明する図である。 第4および第5の実施形態の構成例を示す図である。 第4の実施形態の動作を説明する図である。 第5の実施形態の動作を説明する図である。 第6および第7の実施形態の構成例を示す図である。 第6の実施形態の動作を説明する図である。 第7の実施形態の動作を説明する図である。
 次に、本発明の実施の形態について図1を参照して詳細に説明する。
 図1に第1の実施形態の構成を示す。
 本実施形態の携帯端末10は、表示部11を備える携帯端末であって、前記表示部11と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部12と制御部13を備える。制御部13は、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部11に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末10を操作中であると判断する。
 この様にすることで、携帯端末の使用者が携帯端末を操作中か否かの判断を、視線の動きのみで行うより高精度で行うことが可能となる。
[第2の実施形態]
 次に、第2の実施形態について図1と図2を参照して説明する。
[構成の説明]
 図1に第2の実施形態の構成を示す。
 本実施形態の構成は第1の実施形態の構成と同じである。
 携帯端末10は、表示部11、撮影部12、および制御部13を備える。
 本実施形態の携帯端末10は、無線携帯端末であるスマートフォンを想定しているが、必ずしも無線携帯端末である必要はなく、無線機能の無い、携帯ビデオ(video)再生装置等であっても良い。
 表示部11は、スマートフォンのタッチパネル(touch panel)を想定しており、表示手段と、指先が触れることによる入力手段とを兼ねている。しかし、必ずしも入力手段を備えていなくても、本実施形態に示す発明の主旨を損なわない。
 撮影部12は、カメラ(camera)であって、表示部と同一面に固定されて使用者の顔を撮影できる、いわゆる内側カメラ(inner camera)である。尚、一般的なスマートフォンでは、内側カメラはタッチパネルと同一面に取付けられていることが多い。しかし、撮影部12は、携帯端末10の使用者の顔を撮影することが出来て、表示部と相対的に位置が固定されて設置されているカメラであっても良い。
 制御部13は、CPU(Central Processing Unit;中央処理装置)を含み、携帯端末10のハードウェアを制御し、ソフトウェア処理を行う。
[動作の説明]
 本実施形態の携帯端末10は、予め決められた時間T1(第1の所定時間)以内に、携帯端末10の利用者が表示部11を時間T2(第2の所定時間)以上見つめていると、利用者は携帯端末10を操作中であると判断する。
 また、携帯端末10は、時間T1の間に、携帯端末10の利用者が表示部11を時間T2より短い時間しか見ていなければ、利用者は携帯端末10を操作中でないと判断する。
 この様な携帯端末10を実現する、携帯端末10の動作について、図2を参照して説明する。
 携帯端末10が動作を開始すると、制御部13は時間t1をゼロに設定し、時間t2をゼロに設定する(S101)。
 時間の計時は、ここでは制御部13が備える時計機能を用いることを想定しているが、携帯端末10は、制御部13とは別に時計機能を備えることでもよい。
 制御部13は、時間t1の計時を開始する(S102)。
 制御部13は、撮影部12を動作して携帯端末10の使用者の眼球表面の画像を撮影する。そして、制御部13は、眼球表面に映っている画像を抽出する(S103)。
 眼球表面の画像を抽出することは、現在、多く実現されている技術であるので説明を省略する。
 ステップS104で、制御部13は、t1が時間T1以内であるかどうかを判断する(S104)。
 ここで、時間T1は、予め決められた時間である。
 ステップS104でt1が時間T1以内であると判断されると(S104でY)、ステップS105にすすむ。
 ステップS104でt1が時間T1以内でないと判断されると(S104でN)、ステップS111にすすむ。
 ステップS105で、制御部13は、眼球表面画像と表示部11の画像とが一致するかどうかを判断する(S105)。
 携帯端末10の使用者が表示部11を見つめていると、眼球表面画像と表示部11の画像が一致する。ステップS105の判断は、携帯端末10の使用者が表示部11を見つめているか否かを判断している。
 ステップS105で、眼球表面画像と表示部11の画像とが一致すると判断されると(S105でY)、ステップS106にすすむ。
 ステップS105で、眼球表面画像と表示部11の画像とが一致しないと判断されると(S105でN)、ステップS110にすすむ。
 ステップS106で、制御部13は、t2の計時を行う(S106)。
 ここで、ステップS106の直前で、t2の計時が停止していた場合はt2の計時をゼロから開始し、t2が計時中の場合はt2の計時を継続する。
 ステップS107で、制御部13は、t2が時間T2以上であるかどうかを判断する(S107)。
 ここで、時間T2は、予め決められた時間であり、時間T1より短く設定されている。
 ステップS107でt2が時間T2以上であると判断されると(S107でY)、ステップS108にすすむ。
 ステップS107でt2が時間T2以上でないと判断されると(S107でN)、ステップS103にもどる。
 ステップS108で、制御部13は、携帯端末10が使用者による操作中であると判断する(S108)。
 ステップS108では、携帯端末10の使用者が、時間T1以内に時間T2以上、表示部11を見つめている状況である。この状況を携帯端末10が使用者による操作中であると判断している。
 ステップS109では、制御部13は、一定時間が経過するまで待つ(S109)。
 ステップS109の一定時間は、操作中か否かの判断をどの位の時間間隔で行うかによって決められる。
 ステップS109のあと、ステップS101にもどる。
 ステップS110では、制御部13は、t2の計時を停止する(S110)。
 ステップS110の後、ステップS103に戻る。
 ステップS111では、制御部13は、携帯端末10が使用者による操作中ではないと判断する(S111)。
 ステップS111では、携帯端末10の使用者が、時間T1以内に時間T2以上、表示部11を見つめていない状況である。即ち、時間T1以内に、T2より短い時間しか表示部11を見つめていない。この様な状況では、携帯端末10が使用者による操作中ではないと判断している。
 ステップS111のあと、ステップS109にすすむ。
 ステップS108、およびステップS111で、制御部13が行った、携帯端末10が使用者によって操作中であるか否かの判断は、携帯端末10のアプリケーションソフトウェア(application software)の動作のための情報などとして利用可能である。
 この様にすることで、本実施形態の携帯端末10は、携帯端末10の使用者が携帯端末10を操作中か否かの判断を、視線の動きのみで行うより高精度で行うことが可能となる。
[第3の実施形態]
 次に、第3の実施形態について図1と図3を参照して説明する。
[構成の説明]
 本実施形態の構成は、図1に示される第1および第2の実施形態の構成と同じであり、制御部13の動作が、第1および第2の実施形態と異なる。
[動作の説明]
 本実施形態の携帯端末10は、予め決められた時間T以内に、携帯端末10の利用者が表示部11をN回見つめていると、利用者は携帯端末10を操作中であると判断する。
 また、携帯端末10は、時間T以内に、携帯端末10の利用者が表示部11をN回より少ない回数しか見ていなければ、利用者は携帯端末10を操作中でないと判断する。
 この様な携帯端末10を実現する、携帯端末10の動作について、図3を参照して説明する。
 携帯端末10が動作を開始すると、制御部13は時計tをゼロに設定し、カウンタ(counter)nをゼロに設定する(S201)。
 時間の計時は、ここでは制御部13が備える時計機能を用いることを想定しているが、携帯端末10は、制御部13とは別に時計機能を備えることでもよい。
 また、回数を計数するカウンタは、制御部13が備える計数機能を用いることを想定しているが、携帯端末10は、制御部13とは別にカウンタを備えることでもよい。
 制御部13は、時間tの計時を開始する(S202)。
 ステップS203は、第2の実施形態で説明した図2のステップS103と同じである(S203)。
  ステップS204で、制御部13は、tが時間T以内であるかどうかを判断する(S204)。
 ここで、時間Tは、前述した予め決められた時間である。
 ステップS204でtが時間T以内であると判断されると(S204でY)、ステップS205にすすむ。
 ステップS204でtが時間T以内でないと判断されると(S204でN)、ステップS210にすすむ。
 ステップS205で、制御部13は、眼球表面画像と表示部11の画像とが一致するかどうかを判断する(S205)。
 携帯端末10の使用者が表示部11を見つめていると、眼球表面画像と表示部11の画像が一致する。ステップS205の判断は、携帯端末10の使用者が表示部11を見つめているか否かを判断している。
 ステップS205で、眼球表面画像と表示部11の画像とが一致すると判断されると(S205でY)、ステップS206にすすむ。
 ステップS205で、眼球表面画像と表示部11の画像とが一致しないと判断されると(S205でN)、ステップS203にもどる。
 ステップS206で、制御部13は、カウンタnを1つ加算する(S206)。
 ステップS207で、制御部13は、カウンタnが回数Nであるかどうかを判断する(S207)。
 ここで、回数Nは、予め決められた回数である。
 ステップS207でnが回数Nであると判断されると(S207でY)、ステップS208にすすむ。
 ステップS207でnが回数Nでないと判断されると(S207でN)、ステップS209にすすむ。
 ステップS208で、制御部13は、携帯端末10が使用者によって操作中であると判断する(S208)。
 ステップS208では、携帯端末10の使用者が、時間T以内にN回、表示部11を見つめている状況である。この状況を携帯端末10が使用者による操作中であると判断している。
 ステップS208のあと、ステップS201にもどる。
 ステップS209では、制御部13は、一定時間待機する(S209)。
 この待機時間の設定は、時間Tと回数Nの設定と共に、携帯端末10の使用者が携帯端末10を操作中であるか否かの判断基準として、携帯端末10の設計時に決定される。
 ステップS209の後、ステップS203に戻る。
 ステップS210では、制御部13は、携帯端末10が使用者によって操作中ではないと判断する(S210)。
 ステップS210では、携帯端末10の使用者が、時間T以内に、N回より少ない回数だけ表示部11を見つめている状況である。この様な状況では、携帯端末10が使用者による操作中ではないと判断している。
 ステップS210のあと、ステップS201にもどる。
 ステップS208、およびステップS210で、制御部13が行った、携帯端末10が使用者によって操作中であるか否かの判断は、携帯端末10のアプリケーションソフトウェア(application software)の動作のための情報などとして利用可能である。
 この様にすることで、本実施形態の携帯端末10は、携帯端末10の使用者が携帯端末10を操作中か否かの判断を、視線の動きのみで行うより高精度で行うことが可能となる。
[第4の実施形態]
 次に、第4の実施形態について図4と図5を参照して説明する。
[構成の説明]
 図4に第4の実施形態の構成を示す。
 携帯端末20は、表示部21、撮影部22、角度検知部23、および制御部24を備える。
 本実施形態の携帯端末20は、無線携帯端末であるスマートフォンを想定しているが、必ずしも無線携帯端末である必要はなく、無線機能の無い、携帯ビデオ(video)再生装置等であっても良い。
 表示部21、撮影部22、および制御部24は、第2および第3の実施形態の表示部11、撮影部12、および制御部13と同様である。
 角度検知部23は、ジャイロスコープ(gyroscope)であってもよい。ジャイロスコープは、携帯端末20の鉛直方向に対する絶対的な傾きの角度を検出する手段である。スマートフォンでは、ジャイロスコープを備える機種も多い。
[動作の説明]
 次に、本実施形態の携帯端末20の動作について図5を参照して説明する。
 図5は、第2の実施形態の動作を説明する図2に対して、ステップS301からステップS305が追加されている。ステップS306からステップS316は、第2の実施形態の動作を説明する図2のステップS101からステップS111と同じである。
 はじめに、制御部24は、撮影部22を動作させて携帯端末20の使用者の顔画像を撮影する(S301)。
 制御部24は、角度検知部23を動作させて、携帯端末20の鉛直方向に対する絶対的な傾きの角度を検知する(S302)。
 そして、制御部24は、ステップS301で撮影した使用者の顔画像を解析して、表示部21の表面に対する顔の相対角度を計算する(S303)。
 顔の画像から表示部21の表面に対する顔の相対角度を計算することは、顔画像処理技術を用いた顔の向きの検出として行うことが出来る。
 ステップS302で検知した、携帯端末20の絶対的な傾き角度と、ステップS303で計算した表示部21に対する顔の相対角度とから、制御部24は、顔の絶対角度を計算する(S304)。
 次に、制御部24は、ステップS304で計算した顔の絶対角度から、顔が所定の角度より下向きかどうかを判断する(S305)。
 ここで、携帯端末20の使用者の顔が、所定の角度より下向きとは、使用者の顔がうつむいていて、前方を注視していない状態である。また、所定の角度より下向きでない、即ち上向きとは、使用者の顔はうつむかずに前方を向いている状態である。
 ステップS305で、顔が所定の角度より下向きであると判断されると(S305でY)、ステップS306にすすむ。
 ステップS305で、顔が所定の角度より下向きでないと判断されると(S305でN)、ステップS316にすすむ。
 ステップS306からステップS316は、第2の実施形態の動作を説明する図2のステップS101からステップS111と同じであるので、説明を省略する。
 この様に、第2の実施形態の動作に加えて、ステップS301からステップS305の動作を加えることで、次の様な効果がある。
 第2の実施形態では、眼球表面画像だけで、携帯端末の使用者が表示部を見つめているかどうかを判断していた。しかし、眼球表面画像は顔画像のごく一部分を使用したものであるため、顔全体の画像を使用して顔のうつむき状態を判断することと比べて、画像抽出処理が複雑で低速になる。
 一方、本実施形態では、まず、眼球表面画像の抽出処理を省略して、顔のうつむき状態を判断することで、使用者の前方注視の状態を高速で判断する。そして、顔がうつむいている場合に、眼球表面画像を用いて、使用者が携帯端末を見つめているかどうかを判断する。
 また、本実施形態の携帯端末20は、使用者が携帯端末を操作中であるとの判断を、顔のうつむき状態と眼球表面画像の両方を用いて行うため、操作中であるとの判断を、第2の実施形態の携帯端末10より高精度に行うことができる。
 この様にすることで、本実施形態の携帯端末20は、第2の実施形態の携帯端末10と比べて、より高速でかつ高精度に携帯端末の使用者が操作中であるかどうかを判断することができる。
[第5の実施形態]
 次に、第5の実施形態について図4と図6を参照して説明する。
[構成の説明]
 本実施形態の構成は、図4に示される第4の実施形態の構成と同じであり、制御部24の動作が、第4の実施形態と異なる。
[動作の説明]
 次に、本実施形態の携帯端末20の動作について図6を参照して説明する。
 ステップS401からステップS405は、第4の実施形態の動作を説明する図5のステップS301からステップS305と同じである。
 また、ステップS406からステップS415は、第3の実施形態の動作を説明する図3のステップS201からステップS210と同じである。
 この様に、第3の実施形態の動作に加えて、ステップS401からステップS405の動作を加えている。そのため、第4の実施形態の携帯端末20と同様に、使用者が携帯端末を操作中であるとの判断を、顔のうつむき状態と眼球表面画像の両方を用いて行っている。
 この様にすることで、本実施形態の携帯端末20は、第3の実施形態の携帯端末10と比べて、より高速でかつ高精度に携帯端末の使用者が操作中であるかどうかを判断することができる。
[第6の実施形態]
 次に、第6の実施形態について図7と図8を参照して説明する。
[構成の説明]
 図7に第6の実施形態の構成を示す。
 携帯端末30は、表示部31、撮影部32、角度検知部33、移動検知部34、および制御部35を備える。
 本実施形態の携帯端末30は、無線携帯端末であるスマートフォンを想定しているが、必ずしも無線携帯端末である必要はなく、無線機能の無い、携帯ビデオ(video)再生装置等であっても良い。
 表示部31、撮影部32、角度検知部33、および制御部35は、第4および第5の実施形態の表示部21、撮影部22、角度検知部23および制御部24と同様である。
 移動検知部34は、GPS(Global Positioning System)を利用して、携帯端末30の現在地を測定し、現在地が時間とともに変化している場合に、携帯端末30が移動していると検知するなどでもよい。スマートフォンでは、GPS機能を備える機種も多い。
[動作の説明]
 次に、本実施形態の携帯端末30の動作について図8を参照して説明する。
 図8は、第4の実施形態の動作を説明する図5に対して、ステップS501とステップS502が追加されている。ステップS503からステップS514、およびステップS517は、第4の実施形態の動作を説明する図5のステップS301からステップS312、およびステップS315と同じである。
 また、図5のステップS313は削除されて、図8ではステップS515とステップS516に置きかえられている。
 更に、図5のステップS316は削除されて、図8ではステップS501にもどる。
 はじめに、制御部35は、表示部31であるタッチパネルが、携帯端末30の使用者によって、操作中であるかを判断する(S501)。
 ここで、操作中であるかどうかの判断は、タッチパネルに使用者が接触しているかどうかを検知し、一定時間内に接触を検知すれば操作中と判断する様にしても良い。
 尚、携帯端末30が、表示部31とは別にボタンによる入力手段を備えていて、ボタンの操作を検知して、操作中かどうかを判断しても良い。
 ステップS501で、操作中と判断されると(S501でY)、ステップS502にすすむ。
 ステップS501で、操作中でないと判断されると(S501でN)、ステップS501にもどる。
 ステップS502では、制御部35は、移動検知部34を動作して、携帯端末30が移動中であるかどうかを判断する(S502)。
 ステップS502で、移動中と判断されると(S502でY)、ステップS503にすすむ。
 ステップS502で、移動中でないと判断されると(S502でN)、ステップS501にもどる。
 ステップS503からステップS514、およびステップS517は、第4の実施形態の動作を説明する図5のステップS301からステップS312、およびステップS315と同じである。
 ステップS515では、制御部35は、表示部31のタッチパネルの入力操作の受け付けを停止する(S515)。
 ステップS516では、予め定められた一定の時間を経過後に、表示部31のタッチパネルの入力操作の停止を解除する(S516)。
 この様にすることで、携帯端末30が移動中で、かつ携帯端末30の使用者が携帯端末30を、前方を注視せずに使用中であると判断されると、表示部31のタッチパネルの入力操作の受け付けが停止される。
 その結果、携帯端末30の使用者は、止むを得ず携帯端末30の入力操作をやめて、前方を注視して移動する様になる。そして、携帯端末30の使用者は、危険を回避することができる。
 以上説明した様に、本実施形態の携帯端末30は、携帯端末の使用者が携帯端末を操作中か否かの判断を高い精度で行うことで、使用者が歩行などの移動中に入力操作を行なう危険を回避することが出来る。
[第7の実施形態]
 次に、第7の実施形態について図7と図9を参照して説明する。
[構成の説明]
 本実施形態の構成は、図7に示される第6の実施形態の構成と同じであり、制御部35の動作が、第6の実施形態と異なる。
[動作の説明]
 次に、本実施形態の携帯端末30の動作について図9を参照して説明する。
 図9は、第5の実施形態の動作を説明する図6に対して、ステップS601とステップS602が追加されている。ステップS603からステップS614、およびステップS617は、第5の実施形態の動作を説明する図5のステップS401からステップS412、およびステップS414と同じである。
 また、図6のステップS413は削除されて、図9ではステップS615とステップS616に置きかえられている。
 更に、図6のステップS415は削除されて、図9ではステップS601にもどる。
 ステップS601とステップS602は、図8に示した第6の実施形態の動作のステップS501とステップS502と同じである。
 ステップS603からステップS614、およびステップS617は、第5の実施形態の動作を説明する図6のステップS401からステップS412、およびステップS414と同じである。
 また、ステップS615とステップS616は、第6の実施形態の動作を示す図8のステップS515とステップS516と同じである。
 この様にすることで、第6の実施形態の携帯端末30と同様に、携帯端末30が移動中で、かつ携帯端末30の使用者が携帯端末30を、前方を注視せずに使用中であると判断されると、表示部31のタッチパネルの入力操作の受け付けが停止される。
 その結果、携帯端末30の使用者は、止むを得ず携帯端末30の入力操作をやめて、前方を注視して移動する様になる。そして、携帯端末30の使用者は、危険を回避することができる。
 以上説明した様に、本実施形態の携帯端末30は、携帯端末の使用者が携帯端末を操作中か否かの判断を高い精度で行うことで、使用者が歩行などの移動中に入力操作を行なう危険を回避することが出来る。
 尚、本発明は、実施形態の機能を実現する情報処理プログラムが、システム或いは装置に直接或いは遠隔から供給される場合にも適用可能である。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
  (付記1)
 表示部を備える携帯端末であって、
 前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、
 第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  (付記2)
 表示部を備える携帯端末であって、
 前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、
 所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  (付記3)
 表示部を備える携帯端末であって、
 前記表示部と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影部と、
 前記表示部の鉛直方向に対する絶対角度を検知する角度検知部を備え、
 前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  (付記4)
 表示部を備える携帯端末であって、
 前記表示部と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影部と、
 前記携帯端末の位置の移動を検知する移動検知部と、
 前記表示部の鉛直方向に対する絶対角度を検知する角度検知部を備え、
 前記携帯端末が移動中と検知され、かつ前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  (付記5)
 前記制御部は前記使用者が前記携帯端末を操作中であると判断すると、前記使用者による前記携帯端末の操作の受け付けを停止とすることを特徴とする付記1乃至付記4のいずれかに記載の携帯端末。
  (付記6)
 前記制御部はさらに、前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することを特徴とする付記5に記載の携帯端末。
  (付記7)
 第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  (付記8)
 所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  (付記9)
 携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  (付記10)
 携帯端末が移動中と検知され、かつ前記携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  (付記11)
 前記使用者が前記携帯端末を操作中であると判断されると、前記使用者による前記携帯端末の操作の受け付けを停止とすることを特徴とする付記7乃至付記10のいずれかに記載の携帯端末の制御方法。
  (付記12)
 前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することを特徴とする付記11に記載の携帯端末の制御方法。
  (付記13)
 第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
  (付記14)
 所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
  (付記15)
 携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
  (付記16)
 携帯端末が移動中と検知され、かつ前記携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
  (付記17)
 前記使用者が前記携帯端末を操作中であると判断されると、前記使用者による前記携帯端末の操作の受け付けを停止とすることをコンピュータに実行させる付記13乃至付記16のいずれかに記載の携帯端末のプログラム。
  (付記18)
 前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することをコンピュータに実行させる付記17に記載の携帯端末のプログラム。
 以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
 この出願は、2018年2月8日に出願された日本出願特願2018-020711を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 携帯端末
11 表示部
12 撮影部
13 制御部
20 携帯端末
21 表示部
22 撮影部
23 角度検知部
24 制御部
30 携帯端末
31 表示部
32 撮影部
33 角度検知部
34 移動検知部
35 制御部

Claims (18)

  1.  表示手段を備える携帯端末であって、
     前記表示手段と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影手段と、
     第1の所定の時間以内に、前記眼球表面の画像が、前記表示手段に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御手段とを備えることを特徴とする携帯端末。
  2.  表示手段を備える携帯端末であって、
     前記表示手段と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影手段と、
     所定の時間以内に、前記眼球表面の画像が、前記表示手段に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御手段とを備えることを特徴とする携帯端末。
  3.  表示手段を備える携帯端末であって、
     前記表示手段と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影手段と、
     前記表示手段の鉛直方向に対する絶対角度を検知する角度検知手段を備え、
     前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記眼球表面の画像が、前記表示手段に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御手段とを備えることを特徴とする携帯端末。
  4.  表示手段を備える携帯端末であって、
     前記表示手段と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影手段と、
     前記携帯端末の位置の移動を検知する移動検知手段と、
     前記表示手段の鉛直方向に対する絶対角度を検知する角度検知手段を備え、
     前記携帯端末が移動中と検知され、かつ前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記眼球表面の画像が、前記表示手段に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御手段とを備えることを特徴とする携帯端末。
  5.  前記制御手段は前記使用者が前記携帯端末を操作中であると判断すると、前記使用者による前記携帯端末の操作の受け付けを停止とすることを特徴とする請求項1乃至請求項4のいずれかに記載の携帯端末。
  6.  前記制御手段はさらに、前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することを特徴とする請求項5に記載の携帯端末。
  7.  第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示手段に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  8.  所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示手段に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  9.  携帯端末の使用者の顔の画像と前記携帯端末の表示手段の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示手段に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  10.  携帯端末が移動中と検知され、かつ前記携帯端末の使用者の顔の画像と前記携帯端末の表示手段の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記使用者の眼球表面の画像が、前記表示手段に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  11.  前記使用者が前記携帯端末を操作中であると判断されると、前記使用者による前記携帯端末の操作の受け付けを停止とすることを特徴とする請求項7乃至請求項10のいずれかに記載の携帯端末の制御方法。
  12.  前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することを特徴とする請求項11に記載の携帯端末の制御方法。
  13.  第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示手段に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラムを記録した記録媒体。
  14.  所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示手段に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラムを記録した記録媒体。
  15.  携帯端末の使用者の顔の画像と前記携帯端末の表示手段の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示手段に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラムを記録した記録媒体。
  16.  携帯端末が移動中と検知され、かつ前記携帯端末の使用者の顔の画像と前記携帯端末の表示手段の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記使用者の眼球表面の画像が、前記表示手段に表示されている画像と一致する回数が所定の回数以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラムを記録した記録媒体。
  17.  前記使用者が前記携帯端末を操作中であると判断されると、前記使用者による前記携帯端末の操作の受け付けを停止とするプログラムを記録する請求項13乃至請求項16のいずれかに記載の記録媒体。
  18.  前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰するプログラムを記録する請求項17に記載の記録媒体。
PCT/JP2019/004040 2018-02-08 2019-02-05 携帯端末、携帯端末の制御方法、および携帯端末のプログラム WO2019156063A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/964,865 US20210064130A1 (en) 2018-02-08 2019-02-05 Mobile terminal, control method for mobile terminal, and storage medium storing program for mobile terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-020711 2018-02-08
JP2018020711A JP7048339B2 (ja) 2018-02-08 2018-02-08 携帯端末、携帯端末の制御方法、および携帯端末のプログラム

Publications (1)

Publication Number Publication Date
WO2019156063A1 true WO2019156063A1 (ja) 2019-08-15

Family

ID=67549374

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/004040 WO2019156063A1 (ja) 2018-02-08 2019-02-05 携帯端末、携帯端末の制御方法、および携帯端末のプログラム

Country Status (3)

Country Link
US (1) US20210064130A1 (ja)
JP (1) JP7048339B2 (ja)
WO (1) WO2019156063A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014232411A (ja) * 2013-05-29 2014-12-11 富士通テン株式会社 携帯端末、及び、危険報知システム
US20160166140A1 (en) * 2014-12-10 2016-06-16 Telefonaktiebolaget L M Ericsson (Publ) Device for and method of corneal imaging
JP2016119631A (ja) * 2014-12-22 2016-06-30 富士通株式会社 電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014232411A (ja) * 2013-05-29 2014-12-11 富士通テン株式会社 携帯端末、及び、危険報知システム
US20160166140A1 (en) * 2014-12-10 2016-06-16 Telefonaktiebolaget L M Ericsson (Publ) Device for and method of corneal imaging
JP2016119631A (ja) * 2014-12-22 2016-06-30 富士通株式会社 電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
2016CVIM-202, 5 May 2016 (2016-05-05), pages 1 - 8 *

Also Published As

Publication number Publication date
JP2019139411A (ja) 2019-08-22
JP7048339B2 (ja) 2022-04-05
US20210064130A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
EP3179711B1 (en) Method and apparatus for preventing photograph from being shielded
EP3163404B1 (en) Method and device for preventing accidental touch of terminal with touch screen
EP3038345B1 (en) Auto-focusing method and auto-focusing device
US9007321B2 (en) Method and apparatus for enlarging a display area
WO2017088266A1 (zh) 图片处理方法及装置
US20160028741A1 (en) Methods and devices for verification using verification code
EP3046016A1 (en) Method and apparatus for switching display mode
EP3163884A1 (en) Image acquiring method and apparatus, computer program and recording medium
WO2015115173A1 (ja) 電子機器
JP2009031368A (ja) 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
US20150331491A1 (en) System and method for gesture based touchscreen control of displays
EP3232301B1 (en) Mobile terminal and virtual key processing method
KR20110006243A (ko) 휴대용 단말기에서 매뉴얼 포커싱 방법 및 장치
CN105069426A (zh) 相似图片判断方法以及装置
US11159703B2 (en) Shooting interface switching method and apparatus, and device and storage medium thereof
US20150277548A1 (en) Mobile electronic apparatus, control method therefor and program
CN110007832B (zh) 信息终端装置、信息处理系统以及存储有显示控制程序的计算机可读非暂时性的存储介质
KR102024330B1 (ko) 전자 장치, 사진 촬영 방법, 및 사진 촬영 장치
US9897439B2 (en) Method and terminal for measuring angle
US9148537B1 (en) Facial cues as commands
KR20190135794A (ko) 이동 단말기
CN112799582A (zh) 终端、终端的握持姿态识别方法及装置、存储介质
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
WO2019156063A1 (ja) 携帯端末、携帯端末の制御方法、および携帯端末のプログラム
US20160195992A1 (en) Mobile terminal and method for processing signals generated from touching virtual keys

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19751071

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19751071

Country of ref document: EP

Kind code of ref document: A1