WO2017057965A1 - 이동단말 제어장치 및 방법 - Google Patents

이동단말 제어장치 및 방법 Download PDF

Info

Publication number
WO2017057965A1
WO2017057965A1 PCT/KR2016/011003 KR2016011003W WO2017057965A1 WO 2017057965 A1 WO2017057965 A1 WO 2017057965A1 KR 2016011003 W KR2016011003 W KR 2016011003W WO 2017057965 A1 WO2017057965 A1 WO 2017057965A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
mobile terminal
display unit
length
distance
Prior art date
Application number
PCT/KR2016/011003
Other languages
English (en)
French (fr)
Inventor
장헌영
Original Assignee
장헌영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장헌영 filed Critical 장헌영
Priority to CN201680057730.2A priority Critical patent/CN108141491A/zh
Priority to US15/764,183 priority patent/US20180278741A1/en
Publication of WO2017057965A1 publication Critical patent/WO2017057965A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0267Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components
    • H04W52/027Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components by controlling a display operation or backlight unit
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B3/00Measuring instruments characterised by the use of mechanical techniques
    • G01B3/10Measuring tapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the present invention relates to a mobile terminal control apparatus and method.
  • a mobile terminal is a portable device that is portable and has one or more functions such as voice and video calling, information input / output, and data storage.
  • the user sees the mobile terminal closer to the eyes, thereby increasing the eye fatigue and adversely affecting vision.
  • the technical problem to be solved by the present invention is to turn off the display unit when the mobile terminal is closer than the reference length, which is a reference distance, and to display when the user does not watch in a correct posture or when the viewing time of the display exceeds a preset timeout range.
  • the present invention provides a mobile terminal control apparatus and method which prevents a user from using a mobile terminal for a long time in an incorrect posture at a close distance.
  • the mobile terminal control method (a) the user to recognize the feature point from the face image photographed at a predetermined distance, the distance between the recognized feature point reference length Setting to; (b) when the application is driven, generating a face image by capturing a face of the user, and obtaining a measurement length which is a distance between feature points from the face image of the user; And (c) comparing the acquired measurement length with the set reference length, and if the obtained measurement length is larger than the set reference length, turning off the display unit.
  • the step (a) includes receiving and setting a limit angle range of the mobile terminal for the viewing posture from the user, and the method comprises: setting the angle of the mobile terminal through a tilt sensor; Obtaining a measured measurement angle; And turning off the display unit when the acquired measurement angle exceeds the set limit angle range.
  • the step (a) includes receiving and setting a limit angle range of the mobile terminal for the viewing posture from the user, and the method comprises: setting the angle of the mobile terminal through a tilt sensor; Obtaining a measured measurement angle; And turning off the display unit when the acquired measurement angle exceeds the set limit angle range.
  • the display unit instead of turning off the display unit, it may be to darken the display unit to a predetermined brightness or less.
  • the display unit may output a predetermined message, output a predetermined sound, or drive an actuator of the mobile terminal.
  • step (a) comprises: receiving a face image of a user photographed at a distance preset by the user; Recognizing a feature point of the face from the face image of the user and setting a distance between the recognized feature points as a reference length; Receiving user information corresponding to the reference length; And corresponding to the user information, storing the reference length.
  • the distance between the feature points may be any one of the length between the pupil, the length of both eyes.
  • the mobile terminal control apparatus of an embodiment of the present invention disposed in the front of the mobile terminal, the camera unit for taking a face image of the user; A display unit; A tilt sensor for measuring an angle formed by the display unit with the ground to obtain a measurement angle; And a control unit which switches the display unit to an off state when the measurement angle of the mobile terminal is within a limit angle range and the measurement length extracted from the face image of the user is within a reference length.
  • the controller may switch off the display unit when the user's viewing time exceeds a preset time limit.
  • the present invention has the effect of allowing the user to check the mobile terminal at an appropriate distance for a set time in a correct posture, thereby protecting the user's vision.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a method of setting user information and a reference length for controlling a mobile terminal according to an embodiment of the present invention.
  • FIG. 3 is an exemplary view illustrating that the method of FIG. 2 is applied to a mobile terminal.
  • FIG. 4 is a flowchart illustrating a mobile terminal control method according to an embodiment of the present invention.
  • the mobile terminal described herein may include various devices capable of acquiring an image of a user by providing a camera on a front surface thereof, such as a mobile phone, a smart phone, a pad computer, and the like.
  • FIG. 1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
  • the mobile terminal 1 includes a communication unit 10, a camera unit 20, a user input unit 30, a sensing unit 40, an output unit 50, and a storage unit. 60 and the controller 70 may be included. Since the components of the mobile terminal 1 shown in FIG. 1 are not essential, a mobile terminal having more or fewer components may be implemented.
  • the communication unit 10 may include one or more modules that enable wireless communication between the mobile terminal 1 and the wireless communication system, or between the mobile terminal 1 and the network in which the mobile terminal 1 is located.
  • the communication unit 10 may include a mobile communication module, a wireless internet module, a short range communication module, a location information module, and the like.
  • the mobile communication module may transmit / receive a radio signal with at least one of a base station, an external terminal, and a server in a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text / multimedia message.
  • the wireless internet module refers to a module for wireless internet access and may be embedded or external to the mobile terminal 1.
  • Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
  • the short-range communication module is for short-range communication, and includes short-range communication technology such as Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, and the like. This can be used.
  • RFID Radio Frequency Identification
  • IrDA infrared data association
  • UWB ultra wideband
  • ZigBee ZigBee
  • the location information module is for obtaining the location of the mobile terminal 1 and may include a GPS (Global Position System) module.
  • GPS Global Position System
  • the camera unit 20 includes a front camera unit 21 provided on the front of the mobile terminal 1 on which the display unit 51 is disposed and a rear camera unit 22 provided on the rear of the mobile terminal 1. can do.
  • the front and rear camera units 21 and 22 process image frames such as still images or moving images obtained by an image sensor (not shown), and the image frames processed by the front or rear camera units 21 and 22. May be displayed on the display unit 51.
  • the user input unit 30 generates input data for the user to control the operation of the mobile terminal 1, and includes a keypad, a dome switch, a touch pad (static pressure / capacitance), a jog wheel, and a jog. Switch and the like.
  • a user may input various setting information and environment information for an application implementing the control method of the mobile terminal 1 according to the present invention through the user input unit 30, and also input user information for distinguishing each user. You may. Since the mobile terminal control apparatus according to the present invention may be used by several users, user information may be received to distinguish each user. Such user information may include at least one of name, gender, age, address, and date of birth.
  • the sensing unit 40 includes a mobile terminal 1 such as an open / closed state of the mobile terminal 1, a position of the mobile terminal 1, a user's contact status, a bearing of the mobile terminal 1, an acceleration / deceleration of the mobile terminal 1, and the like.
  • a sensing signal for controlling the operation of the mobile terminal 1 may be generated by sensing the current state of the.
  • the sensing unit 40 may include a touch sensor 41 and a tilt sensor 42.
  • this is limited to the description of one embodiment of the present invention, it will be apparent that other sensors may be included.
  • the output unit 50 is for generating output related to vision and hearing, and may include a display unit 51 and a sound output unit 52.
  • the display unit 51 may display information processed by the mobile terminal 1. For example, when the mobile terminal 1 is in a call mode, a UI (User Interface) or GUI (Graphic User Interface) related to a call may be displayed, and when the mobile terminal 1 is in a shooting mode, a still image photographed Or it may display a video.
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 51 is a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT-LCD), an organic light-emitting diode (OLED), a flexible display ( It may include at least one of a flexible display, a 3D display.
  • LCD liquid crystal display
  • TFT-LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display It may include at least one of a flexible display, a 3D display.
  • Two or more display units 51 may exist according to the implementation form of the mobile terminal 1.
  • a plurality of display units may be spaced apart or integrally disposed on one surface of the mobile terminal 1, or may be disposed on different surfaces.
  • the display unit 51 and a sensor (touch sensor 41) for detecting a touch operation form a mutual layer structure (hereinafter, referred to as a touch screen)
  • the display unit 51 may include a user input unit (in addition to an output device). It can also be used as an input device such as 30).
  • the touch sensor 41 may be implemented, for example, in the form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor 41 may be configured to convert a change in pressure applied to a specific portion of the display unit 51 or capacitance generated at a specific portion of the display unit 51 into an electrical input signal.
  • the touch sensor 41 may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • a signal corresponding thereto is transmitted to a touch controller (not shown).
  • the touch controller may process the corresponding signal and transmit corresponding data to the controller 70.
  • the control unit 70 may know which area of the display unit 51 has been touched. Detailed operations in this regard are obvious to those of ordinary skill in the art, and thus detailed descriptions thereof will be omitted.
  • the sound output unit 52 may output audio data received from the communication unit 10 or stored in the storage unit 60 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 52 may output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the mobile terminal 1.
  • the sound output unit 52 may include a receiver, a speaker, a buzzer, and the like.
  • the storage unit 60 may store a program for the operation of the control unit 70 or temporarily store input / output data. In addition, in one embodiment of the present invention, the storage unit 60 may store an application for controlling the mobile terminal 1 of the present invention.
  • the storage unit 60 stores not only various setting information and environment information of an application for controlling the mobile terminal 1 of the present invention, but also user information for distinguishing each user, and a face image of each user, each user. A feature point recognized according to the face image of the user, and a reference length corresponding to user information of each user may be stored.
  • the storage unit 60 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, It may include a storage medium of at least one type of magnetic disk, optical disk.
  • the mobile terminal 1 may operate in connection with a web storage that performs a storage function of the storage unit 60 on a network.
  • the controller 70 may control the overall operation of the mobile terminal 1. Perform related control and processing for voice calls, data communications, video calls, etc.
  • controller 70 may analyze a face image photographed through a camera to recognize a feature, obtain a measurement length for comparison from the face image, and compare and determine the acquired measurement length with a preset reference length.
  • control unit 70 the control unit 70
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
  • the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. The described embodiments may be implemented by the controller 70 itself.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each software module may perform one or more functions and operations described herein.
  • Software code may be implemented in software applications written in a suitable programming language. The software code may be stored in the storage unit 60 and executed by the control unit 70.
  • FIG. 2 is a flowchart illustrating a method of setting user information and a reference length for controlling a mobile terminal according to an embodiment of the present invention.
  • the distance set by the user is a distance between the eyes of the user and the display unit 51 of the mobile terminal.
  • the distance is measured by using a tape measure, etc., and then the camera is positioned at the corresponding distance, or the parent is taken.
  • the mobile terminal may be set in such a manner as to photograph a face image after placing the mobile terminal in the child's hand while the child's arm is extended to watch the child.
  • the controller 70 recognizes features and features of the face, eyes, and eyebrows from the face image received from the front or rear camera units 21 and 22 of the mobile terminal separated by a distance set by the user (S23).
  • Information on the size of the face may be determined from the recognized facial features (S24).
  • the information on the size of the face may be the distance between the pupils or the length between the eyebrows (the length of the hair).
  • this is merely exemplary, and various information about the size of the face may be determined in one embodiment of the present invention.
  • the controller 70 may determine information on the corresponding face size obtained from the face image photographed from the mobile terminal separated by a distance set by the user as a reference length (S25), request information about the corresponding user, and receive the information. It may be (S26). Thereafter, the controller 70 may store the reference length in the storage 60 in response to the user information.
  • the controller 70 may receive information on the size of the face of the user at a distance set by the user and set the reference length as the reference length, which may be used for controlling the mobile terminal.
  • the user may input and set a limit angle range of the mobile terminal for the user's viewing posture and a time range for limiting the user's total viewing time. .
  • FIG. 3 is an exemplary view illustrating that the method of FIG. 2 is applied to a mobile terminal.
  • the holder of the mobile terminal 1 is called user 1
  • the user who uses the mobile terminal 1 with the permission of the user 1 is called user 2.
  • User 1 may be a mother and User 2 may be a child.
  • user 2 may be a child.
  • an icon corresponding to an application for a method of an embodiment of the present invention is selected from among icons corresponding to a plurality of applications.
  • (3A) can be selected (' ⁇ ' indicates selected).
  • the control unit 70 may display a message (3B) requesting the setting.
  • this is only an example, and after the user 1 enters the application, the user 1 may enter the setting by selecting the setting icon.
  • the controller 70 may drive the rear camera unit 22 to display the preview image as shown in (c).
  • the mother of user 1 photographs user 2, who is his child, and determines whether the user 1 wants to see the screen presented on the display unit 51 of the mobile terminal 1 at how far away the user 2 is.
  • the front camera unit 21 may be driven to directly photograph the face image of the user 1.
  • the shooting icon 3C displayed on the display unit 51 may be touched.
  • the controller 70 may receive the still face image, recognize the feature of the face in the face image, determine information on the face size, and set it as a reference length.
  • the distance between the eyes has been described as an example of determining information on the face size, but the present invention is not limited thereto.
  • the controller 70 may then request the user 1 to receive the information of the user 2 to which the application of the present invention is to be applied, and receive the information.
  • the information of the user 2 may include a setting time and a name corresponding to the above time limit. And age.
  • the controller 70 may store the reference length in the storage 60 in response to the information of the user 2.
  • FIG. 4 is a flowchart illustrating a mobile terminal control method according to an embodiment of the present invention.
  • control unit 70 executes the application of an embodiment of the present invention.
  • operation S41 a user who uses the application is determined.
  • the controller 70 may allow the user to select which user is to be applied, and may receive a selection from the user 1 that the user 2 will use it.
  • control unit 70 to shoot the face image of the user who wants to use the application by running the camera immediately when the application is executed, and the user photographed by comparing and searching the photographed face image and the face image stored in the storage unit 60 May be identified and determined.
  • the controller 70 may collect both face images of the user 1 and the user 2 to identify and determine the user 1 and the user 2, and collect only the face image of the user 2 to watch the image output from the display unit 51. User 2 may be determined.
  • the control unit 70 determines the angle of the display unit 51 of the mobile terminal 1 to the ground from the tilt sensor 42 of the mobile terminal 1.
  • Phosphorus measurement angle may be obtained and it may be checked whether the measurement angle of the acquired mobile terminal 1 is within a preset limit angle range (S42).
  • the measurement angle means an angle formed by the straight line passing through the center point of the display unit 51 with the ground perpendicular to the display unit 51, and the user watching the display unit 51 in a correct posture. If present, the measurement angle is within the specified limit angle range.
  • control unit 70 may preset and store a limit angle range which is a range for determining whether the mobile terminal 1 is a correct posture at any angle.
  • a limit angle range which is a range for determining whether the mobile terminal 1 is a correct posture at any angle.
  • the user 1 may preset the setting in FIG. 2.
  • control unit 70 switches the display unit 51 to the off state (S46).
  • the controller 70 receives the face image of the user 2 from the front camera unit 21 when the measurement angle of the mobile terminal 1 is within a predetermined limit angle range, and the distance between the feature points from the received face image. Phosphorus measurement length is extracted and obtained, and the measured measurement length and the reference length may be compared to determine whether the measurement length is equal to or smaller than the reference length (S43).
  • the measurement length means the distance between the feature points in the image, and does not mean the actual length of the subject but the length measured through the image. Therefore, when the face of the same person is photographed with only the distance from the mobile terminal, the longer the distance, the smaller the measurement length.
  • the measurement length is determined as the distance between the pupils
  • the distance between the pupils is measured in the face image of the user 2 received from the front camera unit 21, and the measurement length, which is the distance between the measured pupils, is the reference length. If it is larger, it can be seen that the mobile terminal 1 is located at a distance closer than the distance set by the user 1.
  • control unit 70 maintains the on state of the display unit 51 only when the measurement length acquired from the face image of the user 2 received from the front camera unit 21 is equal to or smaller than the reference length. If the measured length acquired from the face image of the user 2 is larger than the reference length, the display unit 51 may be turned off (S46).
  • control unit 70 may check and determine whether the viewing time when the user 2 watches the mobile terminal 1 is within a time limit (S43). That is, the controller 70 checks the time after the user 1 selects the icon corresponding to the application, or checks the time when the display 51 is switched on in S45, and then the display 51 ), You can check whether the viewing time exceeded the time limit range.
  • the controller 70 switches the display unit 51 to the off state when the viewing time exceeds the time limit (S46).
  • the control unit 70 keeps the display unit 51 on and returns to step S42.
  • the control unit 70 may switch the display unit 51 from the off state to the on state.
  • the control unit 70, the measurement angle of the mobile terminal 1 is within the specified limit angle range, the distance between the mobile terminal 1 and the user 2 is equal to or farther than the preset distance (obtained from the face image)
  • the measured length is less than the reference length)
  • the display unit 51 is kept on only when the viewing time of the mobile terminal 1 is within the set time limit, so that the user 2 moves away from the proper distance in a correct posture. Only when the mobile terminal 1 is positioned and viewed within the time limit, the user may view the display unit 51 of the mobile terminal 1 to protect the user's vision.
  • FIG. 4 shows that the display unit 51 remains on only when the measurement angle related to the viewing posture, the measurement length related to the viewing distance and the viewing time are within a preset range, the display unit remains on. It can be determined by combining the conditions of the measurement angle, the measurement length, and the viewing time. For example, the display unit 51 may be set to remain on if the measurement length is equal to or smaller than the reference length, or may be set to remain on if the viewing posture is correct. The combination of various methods may be used to determine the conditions under which the display unit 51 remains on.
  • control unit 70 may warn the user of the fact instead of switching off the display unit in the step S46 (S47). That is, if the distance between the mobile terminal 1 and the user 2 is close, the posture of the user 2 is not a correct posture, or if the viewing time of the user 2 exceeds the set time, the control unit 70 displays the display unit 51. You can call attention to User 1 or User 2 by turning off the system or warning it.
  • control unit 70 continuously maintains the distance between the mobile terminal 1 and the user 2 to be a predetermined distance or more, and keeps the user's viewing position in the correct state, the user 2 timeout Viewing beyond the range can be prevented.
  • the display unit 51 is not turned off immediately, but is darkened in the form of a fade out, or the darkness is changed according to the viewing distance, viewing position, or viewing time. In this manner, the user 1 or the user 2 can be reminded of the fact that the viewing distance, the viewing posture, and the viewing time are broken.
  • the display unit 51 may be turned off or darkened, or separately, or a warning message may be output to the display unit 510, or the audio output unit 52 may output a predetermined alarm audibly or move.
  • An actuator (not shown) inside the terminal 1 may be driven so that the user 2 may feel visual, auditory, and tactile.
  • the present invention by allowing the user 2 to watch the mobile terminal at a proper distance for a set time in a correct posture, it is possible to protect the user 2's vision.
  • the method of the present invention can also be embodied as computer readable code on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

이동단말 제어장치 및 방법이 개시된다. 본 발명은, 기준 거리인 레퍼런스 길이보다 이동단말이 가까워지는 경우 디스플레이부를 오프하고, 사용자가 바른 자세로 시청하지 않거나 디스플레이의 시청 시간이 미리 설정된 제한시간 범위를 초과하는 경우 디스플레이부를 오프함으로써, 사용자가 가까운 거리에서 바르지 않은 자세로 장시간 동안 이동단말을 사용하는 것을 방지하는, 이동단말 제어장치 및 방법을 제공하는 것이다.

Description

이동단말 제어장치 및 방법
본 발명은 이동단말 제어장치 및 방법에 대한 것이다.
일반적으로, 이동단말은 휴대가 가능하면서 음성 및 영상통화 기능, 정보를 입/출력하는 기능 및 데이터를 저장할 수 있는 기능 등을 하나 이상 갖춘 휴대용 기기이다.
최근 스마트폰 등 스마트기기의 보급화에 의해, 이와 같은 이동단말의 기능이 다양화됨에 따라, 예를 들어 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복잡한 기능들을 갖추고 있으며, 종합적인 멀티미디어 기기(Multimedia player) 형태로 진화하고 있다.
이러한 이동단말의 디스플레이부는 그 크기가 제한적이므로, 사용자는 이동단말을 점점 눈에 근접하여 보게 되며, 이에 의해 눈의 피로도가 높아지고 시력에 악영향을 끼치게 되는 문제점이 있다.
한편, 유아 또는 어린이의 이동단말 이용은 그 시간이 점차 늘고 있으며, 이동단말이 미치는 악영향은 이미 사회적인 문제로 대두되고 있다.
본 발명이 해결하고자 하는 기술적 과제는, 기준 거리인 레퍼런스 길이보다 이동단말이 가까워지는 경우 디스플레이부를 오프하고, 사용자가 바른 자세로 시청하지 않거나 디스플레이의 시청 시간이 미리 설정된 제한시간 범위를 초과하는 경우 디스플레이부를 오프함으로써, 사용자가 가까운 거리에서 바르지 않은 자세로 장시간 동안 이동단말을 사용하는 것을 방지하는, 이동단말 제어장치 및 방법을 제공하는 것이다.
상기와 같은 기술적 과제를 해결하기 위해, 본 발명의 일실시예의 이동단말 제어방법은, (a) 사용자가 미리 설정한 거리에서 촬영한 얼굴영상으로부터 특징점을 인식하고, 인식된 특징점 간의 거리를 레퍼런스 길이로 설정하는 단계; (b) 애플리케이션이 구동되면, 사용자의 얼굴을 촬영하여 얼굴영상을 생성하고, 사용자의 얼굴영상으로부터 특징점 간의 거리인 계측 길이를 획득하는 단계; 및 (c) 획득된 계측 길이와 설정된 레퍼런스 길이를 비교하되, 획득된 계측 길이가 설정된 레퍼런스 길이보다 큰 경우에는 디스플레이부를 오프로 전환하는 단계를 포함할 수 있다.
본 발명의 일실시예에서, 상기 (a) 단계는, 사용자로부터 시청 자세를 위한 이동단말의 제한각도 범위를 입력받아 설정하는 단계를 포함하고, 상기 방법은, 기울기센서를 통해 이동단말의 각도를 계측한 계측 각도를 획득하는 단계; 및 획득된 계측 각도가 설정된 제한각도 범위를 초과하는 경우 디스플레이부를 오프로 전환하는 단계를 더 포함할 수 있다.
본 발명의 일실시예에서, 상기 (a) 단계는, 사용자로부터 시청 자세를 위한 이동단말의 제한각도 범위를 입력받아 설정하는 단계를 포함하고, 상기 방법은, 기울기센서를 통해 이동단말의 각도를 계측한 계측 각도를 획득하는 단계; 및 획득된 계측 각도가 설정된 제한각도 범위를 초과하는 경우 디스플레이부를 오프로 전환하는 단계를 더 포함할 수 있다.
본 발명의 일실시예에서, 상기 디스플레이부를 오프로 전환하는 대신에, 상기 디스플레이부를 소정 밝기 이하로 어둡게 하는 것일 수 있다.
본 발명의 일실시예에서, 상기 디스플레이부를 오프로 전환하는 대신에, 상기 디스플레이부에 소정 메시지를 출력하거나, 소정 음향을 출력하거나, 이동단말의 액추에이터를 구동하는 것일 수 있다.
본 발명의 일실시예에서, 상기 (a) 단계는, 사용자가 미리 설정한 거리에서 촬영한 사용자의 얼굴영상을 수신하는 단계; 사용자의 얼굴영상으로부터 얼굴의 특징점을 인식하고, 인식된 특징점 간의 거리를 레퍼런스 길이로 설정하는 단계; 상기 레퍼런스 길이에 대응하는 사용자 정보를 수신하는 단계; 및 상기 사용자 정보에 대응하여, 상기 레퍼런스 길이를 저장하는 단계를 포함할 수 있다.
본 발명의 일실시예에서, 상기 특징점 간의 거리는, 눈동자 사이의 길이, 양 미간의 길이 중 어느 하나일 수 있다.
또한, 상기와 같은 기술적 과제를 해결하기 위해, 본 발명의 일실시예의 이동단말 제어장치는, 이동단말의 전면에 배치되어, 사용자의 얼굴영상을 촬영하는 카메라부; 디스플레이부; 상기 디스플레이부가 지면과 이루는 각도를 계측하여 계측 각도를 획득하는 기울기센서; 및 상기 이동단말의 계측 각도가 제한각도 범위 이내이고, 사용자의 얼굴영상으로부터 추출된 계측 길이가 레퍼런스 길이 내인 경우, 상기 디스플레이부를 오프 상태로 전환하는 제어부를 포함하는 것을 특징으로 한다.
본 발명의 일실시예서, 상기 제어부는, 사용자의 시청 시간이 미리 설정된 제한시간 범위를 초과하는 경우, 상기 디스플레이부를 오프 상태로 전환할 수 있다.
상기와 같은 본 발명은, 사용자가 바른 자세로, 설정된 시간 동안, 적절한 거리에서 이동단말을 확인하게 하여, 사용자의 시력을 보호하게 하는 효과가 있다.
도 1은 본 발명의 일실시예와 관련된 이동단말의 구성도이다.
도 2는 본 발명의 일실시예의 이동단말의 제어를 위하여 사용자정보 및 레퍼런스 길이를 설정하는 방법을 설명하기 위한 흐름도이다.
도 3은 도 2의 방법이 이동단말에 적용되는 것을 나타낸 일예시도이다.
도 4는 본 발명의 일실시예의 이동단말 제어방법을 설명하기 위한 일실시예 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 명세서에서 설명되는 이동단말에는 휴대폰, 스마트폰(smart phone), 패드형 컴퓨터(pad computer) 등, 전면에 카메라가 제공되어 사용자의 영상을 획득할 수 있는 다양한 기기가 포함될 수 있다.
그러나, 본 명세서에 기재된 실시예에 따른 구성은 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정단말에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다. 즉, 디지털 TV의 전면에 카메라가 제공되는 경우, 사용자의 영상을 획득할 수 있으므로, 본 발명이 적용될 수 있을 것이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.
도 1은 본 발명의 일실시예와 관련된 이동단말의 구성도이다.
도면에 도시된 바와 같이, 본 발명과 관련되는 이동단말(1)은, 통신부(10), 카메라부(20), 사용자 입력부(30), 센싱부(40), 출력부(50), 저장부(60) 및 제어부(70)를 포함할 수 있다. 도 1에 도시된 이동단말(1)의 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 가지는 이동단말이 구현될 수 있다.
이하, 위 구성요소들에 대해 차례로 살펴본다.
통신부(10)는, 이동단말(1)과 무선통신 시스템 사이, 또는 이동단말(1)과 이동단말(1)이 위치한 네트워크 사이의 무선통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부(10)는, 이동통신모듈, 무선인터넷 모듈, 근거리통신 모듈, 위치정보 모듈 등을 포함할 수 있다.
이동통신 모듈은, 이동통신망에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선신호를 송수신할 수 있다. 이때, 무선신호는, 음성 호신호, 화상통화 호신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선인터넷 모듈은 무선인터넷 접속을 위한 모듈을 가리키는 것으로서, 이동단말(1)에 내장되거나 외장될 수 있다. 무선인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리통신 모듈은, 근거리 통신을 위한 것으로서, 근거리통신(short range communication) 기술에 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
위치정보 모듈은 이동단말(1)의 위치를 획득하기 위한 것으로서, GPS(Global Position System) 모듈을 포함할 수 있다.
카메라부(20)는, 디스플레이부(51)가 배치되는 이동단말(1)의 전면에 제공되는 전면 카메라부(21) 및 이동단말(1)의 후면에 제공되는 후면 카메라부(22)를 포함할 수 있다. 전면 및 후면 카메라부(21, 22)는 이미지 센서(도시되지 않음)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리하는 것으로서, 전면 또는 후면 카메라부(21, 22)에 의해 처리된 화상 프레임은 디스플레이부(51)에 디스플레이될 수 있다.
사용자 입력부(30)는 사용자가 이동단말(1)의 동작제어를 위한 입력 데이터를 발생시키는 것으로서, 키패드(key pad), 돔스위치(dome switch), 터치패드(정압/정전), 조그휠, 조그스위치 등으로 구성될 수 있다.
사용자는 사용자 입력부(30)를 통해 본 발명에 따른 이동단말(1)의 제어방법을 구현하는 어플리케이션에 대한 각종 설정정보와 환경정보를 입력할 수 있으며, 또한 각 사용자를 구분하기 위한 사용자정보를 입력할 수도 있다. 본 발명에 따른 이동단말 제어장치는 여러 사용자가 함께 사용할 수도 있으므로, 각 사용자를 구분하기 위해 사용자정보를 입렵받을 수 있다. 이러한 사용자정보는 성명, 성별, 나이, 주소, 생년월일 중의 적어도 하나를 포함할 수 있다.
센싱부(40)는 이동단말(1)의 개폐상태, 이동단말(1)의 위치, 사용자 접촉유무, 이동단말(1)의 방위, 이동단말(1)의 가속/감속 등과 같이 이동단말(1)의 현재의 상태를 감지하여, 이동단말(1)의 동작을 제어하기 위한 센싱신호를 발생할 수 있다. 이때, 센싱부(40)는 터치센서(41) 및 기울기센서(42)를 포함할 수 있다. 다만, 이는 본 발명의 일실시예의 설명을 위해 한정한 것으로서, 그 외 다른 센서를 포함할 수도 있음은 자명하다 할 것이다.
출력부(50)는 시각 및 청각과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(51) 및 음향출력부(52)를 포함할 수 있다.
디스플레이부(51)는 이동단말(1)에서 처리되는 정보를 디스플레이할 수 있다. 예를 들어, 이동단말(1)이 통화모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있고, 이동단말(1)이 촬영모드인 경우, 촬영되는 정지영상 또는 동영상을 디스플레이할 수 있을 것이다.
디스플레이부(51)는 액정 디스플레이(liquid crystal display; LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display; TFT-LCD), 유기 발광 다이오드(organic light-emitting diode; OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이동단말(1)의 구현 형태에 따라 디스플레이부(51)가 2개 이상 존재할 수 있다. 예를 들어, 이동단말(1)에는 복수의 디스플레이부가 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(51)와 터치동작을 감지하는 센서(터치센서(41))가 상호 레이어 구조를 이루는 경우(이하, '터치스크린'이라 함)에, 디스플레이부(51)는 출력장치 이외에 사용자 입력부(30)와 같은 입력장치로도 사용될 수 있다. 터치센서(41)는, 예를 들어, 터치필름, 터치시트, 터치패드 등의 형태로 구현될 수 있다.
터치센서(41)는 디스플레이부(51)의 특정 부위에 가해진 압력 또는 디스플레이부(51)의 특정 부위에 발생하는 정전용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치센서(41)는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치센서(41)에 대한 터치입력이 있는 경우, 그에 대응하는 신호는 터치제어부(도시되지 않음)로 전송된다. 터치제어부는 해당 신호를 처리하여, 대응하는 데이터를 제어부(70)로 전송할 수 있다. 이로써, 제어부(70)는 디스플레이부(51)의 어느 영역이 터치되었는지 등을 알 수 있게 된다. 이와 관련한 상세한 동작은, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에게 자명한 사항이므로, 그 상세한 설명은 생략하기로 한다.
음향출력부(52)는 호신호 수신, 통화모드 또는 녹음모드, 음성인식모드, 방송수신모드 등에서 통신부(10)로부터 수신되거나 저장부(60)에 저장된 오디오 데이터를 출력할 수 있다. 음향출력부(52)는 이동단말(1)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향신호를 출력할 수도 있다. 이러한 음향출력부(52)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
저장부(60)는 제어부(70)의 동작을 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터를 임시 저장할 수도 있다. 또한, 본 발명의 일실시예에서, 저장부(60)는 본 발명의 이동단말(1)의 제어를 위한 어플리케이션을 저장할 수도 있을 것이다.
또한, 저장부(60)는 본 발명의 이동단말(1)의 제어를 위한 어플리케이션의 각종 설정정보와 환경정보뿐만 아니라 각 사용자를 구분하기 위한 사용자정보도 저장하며, 각 사용자의 얼굴영상, 각 사용자의 얼굴영상에 따라 인식된 특징점, 및 각 사용자의 사용자정보에 대응하는 레퍼런스 길이를 저장할 수 있다.
저장부(60)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동단말(1)은 네트워크상에서 저장부(60)의 저장기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
제어부(70)는 통상적으로 이동단말(1)의 전반적인 동작을 제어할 수 있다. 예를 들어 음성통화, 데이터 통신, 화상통화 등을 위한 관련된 제어 및 처리를 수행한다.
또한, 제어부(70)는 카메라를 통해 촬영된 얼굴영상을 분석하여 특징을 인식하고, 얼굴영상으로부터 비교를 위한 계측 길이를 획득하고, 획득된 계측 길이와 미리 설정된 레퍼런스 길이를 비교 판단할 수 있다.
이하에서, 도면을 참조로 제어부(70)의 상세한 동작에 대해 상세하게 설명하기로 한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(70) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 소프트웨어 코드는 저장부(60)에 저장되고, 제어부(70)에 의해 실행될 수 있다.
이하, 도면을 참조하여, 본 발명의 일실시예에 따른 이동단말의 제어방법의 일실시예를 상세하게 설명하기로 한다.
도 2는 본 발명의 일실시예의 이동 단말의 제어를 위하여 사용자정보 및 레퍼런스 길이를 설정하는 방법을 설명하기 위한 흐름도이다.
도면에 도시된 바와 같이, 사용자가 본 발명을 위한 어플리케이션을 구동하면(S21), 제어부(70)는 설정이 필요하다고 판단하는 경우, 전면 또는 후면 카메라부(21, 22)를 구동하여 사용자가 설정한 거리에서 얼굴영상을 수신할 수 있다(S22).
여기서, 사용자가 설정한 거리라 함은 사용자의 눈과 이동단말의 디스플레이부(51)까지의 이격 거리로서, 직접 줄자 등을 이용하여 거리를 계측한 후 해당 거리에 카메라를 위치시켜 촬영하거나, 부모가 아이의 시청을 위해 아이의 팔이 쪽 펴진 상태에서 아이의 손에 이동단말을 위치시킨 후 얼굴영상을 촬영하는 방식으로 설정될 수 있다.
제어부(70)는 사용자가 설정한 거리만큼 떨어진 이동단말의 전면 또는 후면 카메라부(21, 22)로부터 수신한 얼굴영상으로부터 얼굴의 윤곽, 눈 및 눈썹 등의 특징 및 특징점들을 인식하고(S23), 인식된 얼굴의 특징으로부터 얼굴의 크기에 대한 정보를 결정할 수 있다(S24). 얼굴의 크기에 대한 정보는, 눈동자 사이의 거리일 수도 있고, 눈썹간의 길이(미간의 길이)일 수도 있다. 다만, 이는 예시적인 것으로서, 얼굴의 크기에 대한 다양한 정보가 본 발명의 일실시예에서 결정될 수 있을 것이다.
제어부(70)는, 사용자가 설정한 거리만큼 떨어진 이동단말로부터 촬영된 얼굴영상으로부터 획득된 해당 얼굴 크기에 대한 정보를 레퍼런스 길이로 결정하고(S25), 해당 사용자에 대한 정보를 요청하여 이를 수신할 수 있다(S26). 이후, 제어부(70)는, 사용자정보에 대응하여 레퍼런스 길이를 저장부(60)에 저장할 수 있을 것이다.
이와 같이, 제어부(70)는, 사용자가 설정한 거리에서 사용자의 얼굴 크기에 대한 정보를 수신하여, 이를 레퍼런스 길이로 설정할 수 있으며, 이 레퍼런스 길이는 추후 이동단말의 제어를 위해 사용될 수 있을 것이다.
한편, 도 2에 도시되지는 않았지만, 사용자는 레퍼런스 길이를 설정하는 것 외에도 사용자의 시청 자세를 위한 이동단말의 제한각도 범위, 사용자의 총 시청 시간을 제한하기 위한 제한시간 범위를 입력하여 설정할 수도 있다.
도 3은 도 2의 방법이 이동단말에 적용되는 것을 나타낸 일예시도이다. 본 발명의 설명을 위해, 이동단말(1)의 소지자를 사용자1이라 하고, 사용자1의 허락을 얻어 이동단말(1)을 사용하는 자를 사용자2라고 한다. 예를 들어 사용자1은 엄마이고, 사용자2는 아이일 수 있다. 설명의 편의를 위하여 사용자2까지 설명하겠지만, 복수의 아이나 사용자가 존재하여 사용자가 그 이상 증가할 수 있음은 당연하다.
도 3의 (a)에 도시된 바와 같이, 이동단말(1)의 디스플레이부(51)에서, 사용자1이 복수의 어플리케이션에 대응하는 아이콘 중에서 본 발명의 일실시예의 방법을 위한 어플리케이션에 대응하는 아이콘(3A)을 선택할 수 있다('√'는 선택되었음을 나타냄). 이때 (b)와 같이, 사용자2에 대한 설정이 되지 않는 경우, 제어부(70)는 설정을 요구하는 메시지(3B)를 디스플레이할 수 있을 것이다. 다만, 이는 예시적인 것으로서, 사용자1이 어플리케이션에 진입한 후, 설정 아이콘을 선택하여 설정에 진입할 수도 있을 것이다.
이후, 제어부(70)는 후면 카메라부(22)를 구동하여, 프리뷰 영상을 (c)와 같이 디스플레이할 수 있다. 이 예는 사용자1인 엄마가 자신의 아이인 사용자2를 촬영한 것으로서, 사용자1이 사용자2가 어느 정도 떨어진 위치에서 이동단말(1)의 디스플레이부(51)에 제시되는 화면을 보기 원하는지를 결정하여, 해당 위치에서 사용자2의 영상을 촬영하는 것을 예를 들어 나타내었다. 다만, 이는 예시적인 것으로서, 전면 카메라부(21)를 구동하여, 사용자1 자신의 얼굴영상을 직접 촬영할 수도 있을 것이다. 프리뷰 영상에서 정지영상을 얻기 위해서는, 디스플레이부(51)에 디스플레이되는 촬영 아이콘(3C)을 터치할 수 있을 것이다.
이후, 제어부(70)는, 정지된 얼굴영상을 수신하여, 해당 얼굴영상에서 얼굴의 특징을 인식하고, 얼굴 크기에 대한 정보를 결정하여 이를 레퍼런스 길이로 설정할 수 있을 것이다. 본 발명의 일실시예에서는, 눈동자 사이의 거리를 얼굴 크기에 대한 정보로 결정하는 것을 예를 들어 설명하였지만, 본 발명이 이에 한정되는 것은 아님은 이미 설명한 바와 같다.
제어부(70)는, 이후, 사용자1에게, 본 발명의 어플리케이션이 적용될 사용자2의 정보를 요구하여, 이를 수신할 수 있으며, 사용자2의 정보는, 전술한 제한시간 범위에 해당하는 설정시간, 이름 및 나이를 포함할 수 있을 것이다.
제어부(70)는, 해당 레퍼런스 길이를 사용자2의 정보에 대응하여 저장부(60)에 저장할 수 있을 것이다.
도 4는 본 발명의 일실시예의 이동단말 제어방법을 설명하기 위한 일실시예 흐름도이다.
도면에 도시된 바와 같이, 본 발명의 일실시예에 의하면, 제어부(70)는, 사용자1이 본 발명의 일실시예의 어플리케이션에 대응하는 아이콘을 선택하면, 본 발명의 일실시예의 어플리케이션을 실행하고, 어플리케이션을 사용하는 사용자를 결정한다(S41).
제어부(70)는 어떠한 사용자에게 적용될 것인지 선택하게 할 수 있으며, 사용자1로부터 사용자2가 사용할 것임에 대한 선택을 수신할 수도 있다.
한편, 제어부(70)는 어플리케이션 실행 시 바로 카메라를 구동하여 어플리케이션을 사용하고자 하는 사용자의 얼굴영상을 촬영하도록 하고, 촬영된 얼굴영상과 저장부(60)에 저장된 얼굴영상을 비교 검색함으로써 촬영된 사용자를 식별 및 결정할 수도 있다. 한편, 제어부(70)는 사용자1과 사용자2의 얼굴영상을 모두 수집하여 사용자1 및 사용자2를 식별 및 결정할 수도 있으며, 사용자2의 얼굴영상만을 수집하여 디스플레이부(51)에서 출력되는 영상을 시청하는 사용자2를 결정할 수도 있다.
이후, 사용자2가 이동단말(1)을 들고 시청하면, 제어부(70)는, 이동단말(1)의 기울기센서(42)로부터 이동단말(1)의 디스플레이부(51)가 지면과 이루는 각도를 인 계측 각도를 획득하고, 획득된 이동단말(1)의 계측 각도가 미리 설정된 제한각도 범위 내인지를 확인할 수 있을 것이다(S42). 여기서, 계측 각도는 디스플레이부(51)와 수직이되 디스플레이부(51)의 중심점을 통과하는 직선이 지면과 이루는 각도를 의미하며, 사용자가 바르게 정자세로 앉은 자세에서 디스플레이부(51)를 시청하고 있는 경우에는 특정 제한각도 범위 내에 계측 각도가 존재한다.
이를 위해, 제어부(70)는, 이동단말(1)이 어떠한 각도인 경우 바른 자세인지를 결정하는 범위인 제한각도 범위를 미리 설정 및 저장하여 놓을 수 있을 것이다. 다만, 이는 예시적인 것으로서, 도 2의 설정에서 사용자1이 이를 미리 설정하게 할 수도 있을 것이다.
제어부(70)는, 이동단말(1)의 계측 각도가 미리 정해진 제한각도 범위를 벗어나는 경우, 디스플레이부(51)를 오프 상태로 전환한다(S46).
또한, 제어부(70)는, 이동단말(1)의 계측 각도가 정해진 제한각도 범위 이내인 경우에는, 전면 카메라부(21)로부터 사용자2의 얼굴영상을 수신하고, 수신한 얼굴영상으로부터 특징점 간의 거리인 계측 길이를 추출 및 획득하고, 획득된 계측 길이와 레퍼런스 길이를 비교하여 계측 길이가 레퍼런스 길이보다 같거나 작은지 확인할 수 있다(S43).
여기서, 계측 길이란 영상에서의 특징점 사이의 거리를 의미하는 것으로서, 피사체의 실제 길이를 의미하는 것이 아니라 영상을 통해 계측된 길이를 의미한다. 따라서, 동일인의 얼굴을 이동단말로부터의 거리만 달리하여 촬영할 때, 거리가 멀어질수록 계측 길이는 그 길이가 작아진다.
예를 들어, 계측 길이를 눈동자 사이의 거리로 결정한 경우, 전면 카메라부(21)로부터 수신한 사용자2의 얼굴영상에서 눈동자 사이의 거리를 계측하고, 계측된 눈동자 사이의 거리인 계측 길이가 레퍼런스 길이보다 큰 경우에는 사용자1이 설정한 거리보다 더 가까운 거리에 이동단말(1)이 위치하는 것을 알 수 있다.
따라서, 제어부(70)는, 전면 카메라부(21)로부터 수신한 사용자2의 얼굴영상으로부터 획득된 계측 길이가 레퍼런스 길이보다 같거나 작은 경우에 한하여, 디스플레이부(51)의 온 상태를 유지하고, 사용자2의 얼굴영상으로부터 획득된 계측 길이가 레퍼런스 길이보다 큰 경우에는 디스플레이부(51)를 오프 상태로 전환할 수 있다(S46).
이후, 제어부(70)는, 사용자2가 이동단말(1)을 시청한 시청 시간이 제한시간 범위 내인지 확인하여 판단할 수 있다(S43). 즉, 제어부(70)는, 사용자1이 어플리케이션에 대응하는 아이콘을 선택한 이후부터의 시간을 확인하거나, 또는 S45에서 디스플레이부(51)가 온으로 전환된 시간을 확인하여, 이후로부터 디스플레이부(51)를 시청한 시청 시간이 제한시간 범위를 초과하였는지 확인할 수 있다.
제어부(70)는 시청 시간이 제한시간 범위를 초과한 경우 디스플레이부(51)를 오프 상태로 전환한다(S46).
한편, 제어부(70)는 시청 시간이 제한시간 범위 내인 경우 디스플레이부(51)를 온 상태로 유지하고 S42 단계로 되돌아간다. 물론, S46 단계에서 디스플레이부(51)가 오프로 전환된 이후에, S42 내지 S44 단계를 거쳐 이동단말의 계측 각도가 정해진 제한각도 범위 내이고, 얼굴영상에서 획득된 계측 길이가 레퍼런스 길이보다 같거나 작으며, 시청 시간이 제한시간 범위 내인 경우, 제어부(70)는 디스플레이부(51)를 오프 상태에서 온 상태로 전환시킬 수도 있을 것이다.
이와 같이, 제어부(70)는, 이동단말(1)의 계측 각도가 정해진 제한각도 범위 내이고, 이동단말(1)과 사용자2의 거리가 미리 설정한 거리보다 같거나 더 멀고 (얼굴영상에서 획득된 계측 길이가 레퍼런스 길이보다 작고), 이동단말(1)의 시청시간이 설정된 제한시간 범위 이내인 경우에 한하여 디스플레이부(51)를 온 상태를 유지시킴으로써, 사용자2가 바른 자세로 적절한 거리보다 멀게 이동단말(1)을 위치시키는 동시에 제한시간 범위 내에서 시청하는 경우에만 이동단말(1)의 디스플레이부(51)를 열람하게 하여, 사용자2의 시력을 보호할 수 있을 것이다.
한편, 도 4에서는 시청 자세와 관련된 계측 각도, 시청 거리와 관련된 계측 길이, 시청 시간이 미리 설정된 범위 내에 있어야만 디스플레이부(51)가 온 상태를 유지하는 것으로 도시되었지만, 디스플레이부가 온 상태를 유지하는 것은 계측 각도, 계측 길이, 및 시청 시간의 조건들을 조합함으로써 결정될 수 있다. 예를 들어, 계측 길이가 레퍼런스 길이보다 같거나 작기만 하면 디스플레이부(51)가 온 상태를 유지하는 것으로 설정될 수도 있거나, 시청 자세가 바르기만 하면 디스플레이부가 온 상태를 유지하는 것으로 설정될 수 있는 등 다양한 방식의 조합으로 디스플레이부(51)가 온 상태를 유지하는 조건이 결정될 수 있다.
한편, 도면에 도시되지는 않았지만, 제어부(70)는 S46 단계에서 디스플레이부를 오프 상태로 전환하는 대신에 해당 사실을 사용자에게 경고할 수 있다(S47). 즉, 이동단말(1)과 사용자2 사이의 거리가 가까워지거나, 사용자2의 자세가 바른 자세가 아니거나, 사용자2의 시청시간이 설정시간을 초과하면, 제어부(70)는 디스플레이부(51)를 오프하거나 해당 사실을 경고함으로써 사용자1이나 사용자2의 주의를 환기시킬 수 있을 것이다.
이와 같이 하여, 제어부(70)는 지속적으로 이동단말(1)과 사용자2 사이의 거리가 일정 거리 이상이 되도록 유지하도록 하고, 사용자2의 시청 자세가 바른 상태로 유지하도록 하며, 사용자2가 제한시간 범위를 초과하여 시청하는 것을 방지할 수 있다.
다만, 이는 예시적인 것으로서, 디스플레이부(51)를 바로 오프로 하지 않고, 페이드 아웃(fade out)의 형식으로 어두워지게 하거나, 또는 시청 거리, 시청 자세, 시청 시간에 따라 어둡기를 변경하는 등, 다양한 방식으로 사용자1이나 사용자2에게 시청 거리, 시청 자세 및 시청 시간을 어긴 사실을 환기시킬 수 있다.
또는, 디스플레이부(51)를 오프 또는 어두워지게 하는 동시에, 또는 별개로, 디스플레이부(510)에 경고 문구를 출력하거나, 음향출력부(52)에서 소정 알람을 청각적으로 출력하게 하거나, 또는 이동단말(1) 내부의 액추에이터(도시되지 않음)를 구동하여, 사용자2가 시각, 청각, 촉각으로 느끼도록 구성할 수도 있을 것이다.
결국, 본 발명에 따르면, 사용자2가 바른 자세로, 설정시간 동안, 적절한 거리에서 이동단말을 시청하게 함으로써, 사용자2의 시각을 보호하게 할 수 있을 것이다.
본 발명의 예시에서는, 사용자1과 사용자2가 각각 별개인 경우를 예를 들어 설명하였으나, 동일 사용자인 경우에도 본 발명이 동일하게 적용될 수 있을 것이다.
본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명에 따른 실시예들이 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 특허청구범위에 의해서 정해져야 할 것이다.

Claims (9)

  1. (a) 사용자가 미리 설정한 거리에서 촬영한 얼굴영상으로부터 특징점을 인식하고, 인식된 특징점 간의 거리를 레퍼런스 길이로 설정하는 단계;
    (b) 애플리케이션이 구동되면, 사용자의 얼굴을 촬영하여 얼굴영상을 생성하고, 사용자의 얼굴영상으로부터 특징점 간의 거리인 계측 길이를 획득하는 단계; 및
    (c) 획득된 계측 길이와 설정된 레퍼런스 길이를 비교하되, 획득된 계측 길이가 설정된 레퍼런스 길이보다 큰 경우에는 디스플레이부를 오프로 전환하는 단계를 포함하는, 이동단말 제어방법.
  2. 제1항에 있어서,
    상기 (a) 단계는, 사용자로부터 시청 자세를 위한 이동단말의 제한각도 범위를 입력받아 설정하는 단계를 포함하고,
    상기 방법은,
    기울기센서를 통해 이동단말의 각도를 계측한 계측 각도를 획득하는 단계; 및
    획득된 계측 각도가 설정된 제한각도 범위를 초과하는 경우 디스플레이부를 오프로 전환하는 단계를 더 포함하는, 이동단말 제어방법.
  3. 제1항에 있어서,
    상기 (a) 단계는, 사용자로부터 제한시간 범위를 입력받아 설정하는 단계를 포함하고,
    상기 방법은,
    디스플레이부가 온된 후 사용자가 시청한 시간인 시청 시간을 획득하는 단계; 및
    획득된 시청 시간이 설정된 제한시간 범위를 초과하는 경우 디스플레이부를 오프로 전환하는 단계를 더 포함하는, 이동단말 제어방법.
  4. 제1항 내지 제3항 중의 어느 한 항에 있어서,
    상기 디스플레이부를 오프로 전환하는 대신에, 상기 디스플레이부를 소정 밝기 이하로 어둡게 하는 것을 특징으로 하는 이동단말 제어방법.
  5. 제1항 내지 제3항 중의 어느 한 항에 있어서,
    상기 디스플레이부를 오프로 전환하는 대신에, 상기 디스플레이부에 소정 메시지를 출력하거나, 소정 음향을 출력하거나, 이동단말의 액추에이터를 구동하는 것을 특징으로 하는 이동단말 제어방법.
  6. 제1항에 있어서, 상기 (a) 단계는,
    사용자가 미리 설정한 거리에서 촬영한 사용자의 얼굴영상을 수신하는 단계;
    사용자의 얼굴영상으로부터 얼굴의 특징점을 인식하고, 인식된 특징점 간의 거리를 레퍼런스 길이로 설정하는 단계;
    상기 레퍼런스 길이에 대응하는 사용자 정보를 수신하는 단계; 및
    상기 사용자 정보에 대응하여, 상기 레퍼런스 길이를 저장하는 단계를 포함하는 이동단말 제어방법.
  7. 제1항에 있어서, 상기 특징점 간의 거리는,
    눈동자 사이의 길이, 양 미간의 길이 중 어느 하나인 것을 특징으로 하는, 이동단말 제어방법.
  8. 이동단말의 전면에 배치되어, 사용자의 얼굴영상을 촬영하는 카메라부;
    디스플레이부;
    상기 디스플레이부가 지면과 이루는 각도를 계측하여 계측 각도를 획득하는 기울기센서; 및
    상기 이동단말의 계측 각도가 제한각도 범위 이내이고, 사용자의 얼굴영상으로부터 획득된 계측 길이가 레퍼런스 길이 내인 경우, 상기 디스플레이부를 오프 상태로 전환하는 제어부를 포함하는 것을 특징으로 하는 이동단말 제어장치.
  9. 제8항에 있어서,
    상기 제어부는, 사용자의 시청 시간이 미리 설정된 제한시간 범위를 초과하는 경우, 상기 디스플레이부를 오프 상태로 전환하는 것을 특징으로 하는 이동단말 제어장치.
PCT/KR2016/011003 2015-10-01 2016-09-30 이동단말 제어장치 및 방법 WO2017057965A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201680057730.2A CN108141491A (zh) 2015-10-01 2016-09-30 移动终端控制装置及控制方法
US15/764,183 US20180278741A1 (en) 2015-10-01 2016-09-30 Device and method for controlling mobile terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150138732A KR101782086B1 (ko) 2015-10-01 2015-10-01 이동단말 제어장치 및 방법
KR10-2015-0138732 2015-10-01

Publications (1)

Publication Number Publication Date
WO2017057965A1 true WO2017057965A1 (ko) 2017-04-06

Family

ID=58424179

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011003 WO2017057965A1 (ko) 2015-10-01 2016-09-30 이동단말 제어장치 및 방법

Country Status (4)

Country Link
US (1) US20180278741A1 (ko)
KR (1) KR101782086B1 (ko)
CN (1) CN108141491A (ko)
WO (1) WO2017057965A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020168488A1 (zh) * 2019-02-20 2020-08-27 东莞市讯天宏智能科技有限公司 终端屏幕控制方法及终端
WO2020168486A1 (zh) * 2019-02-20 2020-08-27 东莞市讯天宏智能科技有限公司 智能控制终端屏幕的方法及终端
KR102078131B1 (ko) * 2019-08-30 2020-04-07 심성호 휴대용 단말기 및 서버를 포함하는 전자장치 시스템
CN113511020A (zh) * 2021-05-29 2021-10-19 深圳华一精品科技有限公司 一种用于矫正握笔方式与坐姿的正姿笔
US11792506B2 (en) * 2022-02-09 2023-10-17 Motorola Mobility Llc Electronic devices and corresponding methods for defining an image orientation of captured images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130072820A1 (en) * 2011-09-20 2013-03-21 Ho-sub Lee Apparatus and method for assisting user to maintain correct posture
KR20130113687A (ko) * 2012-04-06 2013-10-16 주식회사 네오위즈인터넷 휴대용 단말의 자세교정 기능 제공 방법 및 장치
KR20140076666A (ko) * 2012-12-12 2014-06-23 엘지전자 주식회사 영상 출력 장치 및 그 구동 방법
KR20140120158A (ko) * 2013-04-02 2014-10-13 이재근 시력 보호 기능을 가진 휴대가 용이한 단말장치 및 시력 보호 방법
US20140355830A1 (en) * 2013-05-31 2014-12-04 Samsung Electronics Co., Ltd. Method and apparatus for protecting eyesight

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090135295A1 (en) * 2007-11-20 2009-05-28 Keiji Kunishige Imaging device and control method for imaging device
US10278579B2 (en) * 2008-11-17 2019-05-07 Eyes4Lives, Inc. Vision protection method and system thereof
US8620239B2 (en) * 2011-01-14 2013-12-31 Qualcomm Incorporated Dynamic DC-offset determination for proximity sensing
KR101899978B1 (ko) * 2012-07-11 2018-09-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR101985507B1 (ko) * 2012-08-30 2019-06-03 엘지전자 주식회사 단말기 및 그 제어 방법
US20140111449A1 (en) * 2012-10-19 2014-04-24 Apacer Technology Inc. Device and method for eyes-free operation of touch surface
CN103905630A (zh) * 2012-12-29 2014-07-02 深圳富泰宏精密工业有限公司 人眼保护方法及系统
CN104424771B (zh) * 2013-09-10 2018-07-06 南京中兴软件有限责任公司 一种告警方法及装置
CN103793052B (zh) * 2013-11-21 2017-01-11 广州视源电子科技股份有限公司 一种移动终端的视力保护控制方法
KR101569268B1 (ko) * 2014-01-02 2015-11-13 아이리텍 잉크 얼굴 구성요소 거리를 이용한 홍채인식용 이미지 획득 장치 및 방법
CN106133643B (zh) * 2014-04-07 2020-10-20 惠普发展公司,有限责任合伙企业 基于用户距离调节显示器亮度
CN104052871A (zh) * 2014-05-27 2014-09-17 上海电力学院 移动终端护眼装置及方法
KR20160027847A (ko) * 2014-09-02 2016-03-10 삼성전자주식회사 전자 장치 및 전자 장치의 충전 제어 방법
CN205039915U (zh) * 2015-10-16 2016-02-17 廖娜 一种防近距离观看电视的监视装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130072820A1 (en) * 2011-09-20 2013-03-21 Ho-sub Lee Apparatus and method for assisting user to maintain correct posture
KR20130113687A (ko) * 2012-04-06 2013-10-16 주식회사 네오위즈인터넷 휴대용 단말의 자세교정 기능 제공 방법 및 장치
KR20140076666A (ko) * 2012-12-12 2014-06-23 엘지전자 주식회사 영상 출력 장치 및 그 구동 방법
KR20140120158A (ko) * 2013-04-02 2014-10-13 이재근 시력 보호 기능을 가진 휴대가 용이한 단말장치 및 시력 보호 방법
US20140355830A1 (en) * 2013-05-31 2014-12-04 Samsung Electronics Co., Ltd. Method and apparatus for protecting eyesight

Also Published As

Publication number Publication date
CN108141491A (zh) 2018-06-08
KR101782086B1 (ko) 2017-09-26
US20180278741A1 (en) 2018-09-27
KR20170039506A (ko) 2017-04-11

Similar Documents

Publication Publication Date Title
WO2017057965A1 (ko) 이동단말 제어장치 및 방법
WO2017209560A1 (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
WO2019088793A1 (ko) 전자 장치 및 이를 이용한 화면 공유 방법
WO2016163739A1 (en) Apparatus and method for setting camera
WO2014157806A1 (en) Display device and control method thereof
WO2015030301A1 (en) Smartwatch and control method thereof
WO2016072714A1 (en) Electronic device and method for providing filter in electronic device
WO2015046686A1 (en) Wearable display device and method for controlling layer in the same
US8400519B2 (en) Mobile terminal and method of controlling the operation of the mobile terminal
KR20180136776A (ko) 이동 단말기 및 그 제어방법
WO2015122616A1 (en) Photographing method of an electronic device and the electronic device thereof
WO2017135788A1 (en) Portable image device with external dispaly
WO2018101621A1 (ko) 화면의 크기를 조절하기 위한 방법 및 그 전자 장치
WO2017082554A1 (ko) 액세서리 장치를 감지하는 전자장치 및 그의 동작 방법
WO2019156437A1 (ko) 터치입력장치의 블랙화면모드에서 압력으로 인한 지문 센싱 방법 및 터치입력장치
WO2014204022A1 (en) Mobile terminal
WO2015023040A1 (ko) 이동 단말기와 그 구동방법
WO2018021726A1 (ko) 카메라 모듈의 활성화를 제어하기 위한 전자 장치 및 방법
WO2017082589A1 (ko) 전자장치 및 그의 동작 방법
WO2018131928A1 (ko) 적응적인 사용자 인터페이스를 제공하기 위한 장치 및 방법
WO2012081787A1 (en) Image processing apparatus of mobile terminal and method thereof
WO2016104873A1 (en) Digital device and method of controlling therefor
WO2019066323A1 (ko) 전자 장치 및 그의 시선 정보를 이용한 컨텐트 실행 방법
WO2015034161A1 (ko) 가상입력수단을 이용하는 일회용 패스워드 생성 장치 및 생성 방법
WO2015093754A1 (ko) 전자 장치에서 연결 정보를 공유하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16852111

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15764183

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16852111

Country of ref document: EP

Kind code of ref document: A1