KR102078131B1 - Electronic device system including portable terminal and server - Google Patents

Electronic device system including portable terminal and server Download PDF

Info

Publication number
KR102078131B1
KR102078131B1 KR1020190106951A KR20190106951A KR102078131B1 KR 102078131 B1 KR102078131 B1 KR 102078131B1 KR 1020190106951 A KR1020190106951 A KR 1020190106951A KR 20190106951 A KR20190106951 A KR 20190106951A KR 102078131 B1 KR102078131 B1 KR 102078131B1
Authority
KR
South Korea
Prior art keywords
portable terminal
user
control unit
unit
state
Prior art date
Application number
KR1020190106951A
Other languages
Korean (ko)
Inventor
심성호
이승재
김가연
Original Assignee
심성호
이승재
김가연
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 심성호, 이승재, 김가연 filed Critical 심성호
Priority to KR1020190106951A priority Critical patent/KR102078131B1/en
Application granted granted Critical
Publication of KR102078131B1 publication Critical patent/KR102078131B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device
    • H04M1/72577
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • H04M1/72569
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/12Counting circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/06Details of telephonic subscriber devices including a wireless LAN interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Telephone Function (AREA)

Abstract

The present invention relates to an electronic device system including a portable terminal and a server. An object of the present invention is to solve problems related to children′s vision loss by adopting a technique for recognizing a user′s overall facial size so that the distance between a smartphone and an infant or a toddler can be more accurately measured and promote a more positive portable terminal use habit for a user by determining, for example, the distance between the user and the terminal, an angle, and a light amount. In the electronic device system including a portable terminal and a server of the present invention, the portable terminal includes: a camera unit generating an image by imaging a user ahead; a sensor unit configured to generate sensing information by measuring various states of the portable terminal; a first communication unit; a display unit configured to perform screen display on the portable terminal; and a first control unit transmitting, to an external server, a setup image and setup sensing information obtained by imaging and sensing for a predetermined time in a setup mode, setting a reference state based on the reference value received from the external server, and generating the user′s current state by analyzing current sensing information and a current image obtained by periodic imaging and sensing in a daily mode. The first control unit controls the display unit to block the screen display operation when it is determined that the user′s state is a correction-required state as a result of comparison between the current state and the reference state. The server includes: a second communication unit; and a second control unit deriving the reference value by analyzing the set sensing information and the setup image received through the second communication unit from the portable terminal and controlling the second communication unit to transmit the reference value to the portable terminal.

Description

휴대용 단말기 및 서버를 포함하는 전자장치 시스템{ELECTRONIC DEVICE SYSTEM INCLUDING PORTABLE TERMINAL AND SERVER}ELECTRONIC DEVICE SYSTEM INCLUDING PORTABLE TERMINAL AND SERVER}

본 발명은 영유아들의 시력저하를 방지하고 올바른 휴대용 단말기 사용습관을 교육시키기 위한 전자장치 시스템에 관한 것으로서, 구체적으로 영유아들과 휴대용 단말기 사이의 거리, 각도, 휴대용 단말기에 입사하는 광량 및 사용자의 눈 깜빡임 정도에 따라 화면출력을 자동으로 제어하고 디스플레이에 경고 메시지를 띄우거나 상기 디스플레이를 차단시킬 수 있는 휴대용 단말기 및 서버를 포함하는 전자장치 시스템에 관한 것이다.The present invention relates to an electronic device system for preventing visual acuity of infants and toddlers and teaching correct portable terminal usage habits. Specifically, the distance between an infant and a toddler, the angle, the amount of light incident on the portable terminal, and the user's eyes flicker The present invention relates to an electronic device system including a portable terminal and a server capable of automatically controlling a screen output according to a degree and displaying a warning message on a display or blocking the display.

식당에서 식사를 하거나 승용차를 타고 이동하는 경우, 부모가 영유아에게 스마트폰을 이용하여 각종 영상을 보여주는 모습을 손쉽게 발견할 수 있다. 육아정책 연구소의 조사 결과에 따르면, 우리나라 영유아의 스마트폰 최초 사용 연령이 평균 2.27세로 조사되었고, 영유아의 스마트폰 과의존 위험군 수치가 19.1로 조사되는 등 영유아의 스마트폰 의존율이 상당히 높은 것으로 조사된 바 있다.When dining in a restaurant or moving in a passenger car, it is easy to find a parent showing various videos to a toddler using a smartphone. According to the results of the research conducted by the Child Care Policy Research Institute, the initial age of smartphone use in Korean infants was 2.27 years on average, and the dependence of smartphones on infants was 19.1. have.

이와 같이 영유아 시기의 스마트폰의 잦은 사용은 초기 시력이 발달하고 있는 영유아들에게 치명적인 악 영향을 끼치게 되고, 실제로 스마트폰을 통한 잦은 영상 시청으로 인해 시력 저하 관련 질병의 발병도가 점점 높아지고 있는 추세이다. 이러한 영유아들의 시력 저하는 부모들에게도 큰 걱정거리로 남아 있으나, 아이들을 용이하게 관리하기 위하여 어쩔 수 없이 계속 스마트폰을 이용하고 있는 실정이다.As described above, the frequent use of smartphones in the early childhood period has a fatal evil effect on infants and toddlers with early vision development, and in fact, the incidence of diseases related to vision loss is gradually increasing due to frequent video viewing through a smartphone. These infants and toddlers' eyesight remains a big concern for parents, but they are inevitably using smartphones to manage their children easily.

위와 같은 문제점을 조금이나마 해소하기 위해, 현재 시장에서는 영유아들의 시력을 보호하기 위한 스마트폰 관련 어플리케이션, 제품 등이 다수 출시되고 있다. 예를 들어, 영유아들의 시력 보호를 위한 제품으로 많이 알려진 제품은 블루라이트 필터가 있다. 그러나, 상기 블루라이트 필터 만으로는 아이들의 휴대폰 사용 습관에 큰 도움을 주기가 어렵고, 완벽한 시력 보호 기술이 아님에 따라 기술 상의 분명한 한계가 존재하는 문제점이 있었다. 또한 시력 보호 기술로 많이 알려진 어플리케이션으로는 전면 카메라를 통해 영유아와 스마트폰 간의 거리를 측정한 뒤 설정 거리 안으로 얼굴이 인식되면 화면을 차단하는 제어 기술이 있다. In order to solve the above problems a little, a number of smart phone-related applications, products, and the like have been released in the current market to protect the eyesight of infants and toddlers. For example, a product known as a product for protecting eyesight of infants and toddlers is a blue light filter. However, the blue light filter alone has a problem in that it is difficult to provide a great help to children's mobile phone usage habits, and there is a clear limitation in technology as it is not a perfect vision protection technology. In addition, an application widely known as an eye protection technology includes a control technology that measures a distance between an infant and a smartphone through a front camera and blocks a screen when a face is recognized within a set distance.

일 예로, 등록특허공보 10-1580918호(특허문헌 1)에는 사용자의 시력보호를 위한 어플리케이션 프로그램의 출력화면 제어방법에 관한 기술이 개시되어 있다. 본 종래 기술은, 스마트폰의 디스플레이와 사용자가 너무 가깝게 접근하여 설정 밝기 이상의 이미지가 감지되면, 상기 디스플레이를 차단시키는 어플리케이션과 관련된 기술이다. 그러나, 해당 종래 기술에 따르면, 카메라를 계속 사용하여야 하므로 스마트폰의 발열 문제 및 배터리 소모량 과다 문제가 발생하고, 사용자와의 거리 측정 시 사용되는 조도 센서는 사용 환경에 따라 오차가 너무 심하다는 점에서 정확도가 현저히 떨어지는 문제점이 있었다.For example, Patent Publication No. 10-1580918 (Patent Document 1) discloses a technique for controlling an output screen of an application program for protecting eyesight of a user. This prior art is a technology related to an application that blocks the display when an image of a set brightness or more is detected due to a user's display being too close to the user's display. However, according to the related art, since the camera needs to be continuously used, a problem of heat generation of the smartphone and excessive battery consumption occurs, and the illuminance sensor used when measuring the distance from the user has too much error depending on the usage environment. There was a problem that the accuracy was significantly reduced.

또한, 상기 어플리케이션은 휴대폰의 각도나 아이들의 상태, 스마트폰에서 발생되는 광량 등에 대한 정보를 전혀 고려하지 않아 정확도가 크게 떨어지고 사용에 있어서도 여러 제한이 존재하는 문제점이 있었다. 그리고, 아이들이 카메라의 렌즈를 피해 스마트폰을 사용하게 되면 거리 측정 자체가 이루어지기가 어려운 근본적인 문제점이 존재하였다.In addition, the application does not take into account any information on the angle of the mobile phone, the state of the children, the amount of light generated by the smartphone, etc., so the accuracy is greatly reduced and there are problems in that there are various limitations in use. And, when children use a smartphone avoiding the lens of the camera, there is a fundamental problem that it is difficult to measure the distance itself.

특허문헌 1: 등록특허공보 제 10-1952533 호 (2019.02.20. 공개)Patent Literature 1: Registered Patent Publication No. 10-1952533 (published on February 20, 2019)

본 발명의 목적은, 스마트폰과 영유아 사이의 거리를 더욱 정확히 측정할 수 있도록 사용자의 얼굴 전체 크기를 인식하는 기술을 도입함으로써 아이들의 시각 저하와 관련된 문제를 해결할 수 있고, 사용자와 단말기와의 거리, 각도, 광량 등을 판단하여 사용자의 휴대용 단말기 사용습관을 긍정적으로 유도할 수 있는 휴대용 단말기 및 서버를 포함하는 전자장치 시스템을 제공하는 것이다.The object of the present invention is to introduce a technology for recognizing the entire size of a user's face so that the distance between a smartphone and an infant can be more accurately measured, the problem related to children's vision can be solved, and the distance between the user and the terminal. It is to provide an electronic device system including a portable terminal and a server capable of positively inducing a user's portable terminal usage habit by determining an angle, an amount of light, and the like.

본 발명의 일 실시 예에 따른 전자장치 시스템은, 휴대용 단말기와 서버를 포함하는 전자장치 시스템에 있어서, 상기 휴대용 단말기는, 전면의 사용자를 촬영하여 영상을 생성하는 카메라부, 상기 휴대용 단말기의 다양한 상태를 측정하여 센싱정보를 생성하도록 구성되는 센서부, 제1 통신부, 상기 휴대용 단말기 상에 화면을 표시하도록 구성되는 디스플레이부 및 설정모드에서 소정시간 촬영하고 센싱한 설정영상과 설정센싱정보를 외부서버로 전송하고, 상기 외부서버로부터 수신되는 상기 기준 값에 기초하여 기준상태를 설정하며 일상모드에서 주기적으로 촬영하고 센싱한 현재영상 및 현재센싱정보를 분석하여 상기 사용자의 현재상태를 생성하고 상기 현재상태와 상기 기준상태와 비교하여 상기 사용자의 상태가 교정필요상태가 되었다고 판단되면 화면 표시 동작을 차단하도록 상기 디스플레이부를 제어하는 제1 제어부를 포함하고, 상기 서버는, 제2 통신부 및 상기 휴대용 단말기로부터 상기 제2 통신부를 통해 수신되는 상기 설정영상과 상기 설정센싱정보를 분석하여 상기 기준 값을 도출하고 상기 기준 값을 상기 휴대용 단말기로 전송하도록 상기 제2 통신부를 제어하는 제2 제어부를 포함한다.An electronic device system according to an embodiment of the present invention includes an electronic device system including a portable terminal and a server, wherein the portable terminal includes a camera unit that captures a front user to generate an image, and various states of the portable terminal. A sensor unit configured to measure and generate sensing information, a first communication unit, a display unit configured to display a screen on the portable terminal, and a set image and set sensing information taken and sensed for a predetermined time in a setting mode to an external server Transmits, sets the reference state based on the reference value received from the external server, analyzes the current image and current sensing information periodically photographed and sensed in the daily mode to generate the current state of the user and generates the current state and Compared to the reference state, it is determined that the user's state has become a calibration required state. And a first control unit controlling the display unit to block a screen display operation when the screen display operation is blocked, and the server analyzes the setting image and the setting sensing information received from the second communication unit and the second communication unit from the second communication unit and the portable terminal. And a second control unit controlling the second communication unit to derive the reference value and transmit the reference value to the portable terminal.

본 실시 예에 따르면, 상기 설정모드에서 상기 제1 제어부는 다양한 각도로 상기 휴대용 단말기를 기울이도록 가이드정보를 상기 디스플레이부를 통해 제공하며, 상기 사용자가 상기 휴대용 단말기를 상기 가이드정보에 따라 정해진 각도로 기울일 때마다 상기 사용자를 촬영하여 복수의 각도에서 설정영상을 생성하고, 상기 복수의 각도마다 생성된 영상을 상기 서버로 전송하도록 상기 제1 통신부를 제어하며, 상기 제2 제어부는 상기 제2 통신부를 통해 수신되는 상기 복수의 각도마다 생성된 설정영상을 더 고려하여 다양한 각도에서의 상기 기준상태를 설정하도록 구성된다.According to the present embodiment, in the setting mode, the first control unit provides guide information through the display unit to incline the portable terminal at various angles, and the user can tilt the portable terminal at a predetermined angle according to the guide information. Each time the user is photographed to generate a set image from a plurality of angles, and the first communication unit is controlled to transmit the image generated for each of the plurality of angles to the server, and the second control unit is through the second communication unit. It is configured to set the reference states at various angles by further considering a set image generated for each of the plurality of angles received.

본 실시 예에 따르면, 상기 일상모드에서 상기 제1 제어부는 상기 현재영상과 상기 현재센싱정보에 기초하여 사용자와 휴대용 단말기 사이의 거리, 자세 및 눈 깜빡임 정도를 산출하도록 구성된다.According to the present embodiment, in the everyday mode, the first control unit is configured to calculate a distance, posture, and degree of blinking between the user and the portable terminal based on the current image and the current sensing information.

본 실시 예에 따르면, 상기 센서부는 휴대용 단말기의 기울기를 측정하도록 구성되는 자이로 센서 및 상기 휴대용 단말기로 입사하는 광량을 측정하도록 구성되는 조도 센서 중 적어도 하나를 포함한다.According to this embodiment, the sensor unit includes at least one of a gyro sensor configured to measure the inclination of the portable terminal and an illuminance sensor configured to measure the amount of light incident on the portable terminal.

본 실시 예에 따르면, 상기 제1 제어부는 상기 휴대용 단말기로 입사되는 광량을 더 고려하여 상기 현재상태를 결정한다.According to the present embodiment, the first control unit determines the current state by further considering the amount of light incident on the portable terminal.

본 실시 예에 따르면, 상기 제1 제어부는 상기 휴대용 단말기의 기울기 정보를 더 고려하여 상기 사용자의 현재자세를 결정하고, 상기 결정된 현재자세가 교정이 필요한 자세라고 판단되면 상기 화면 표시 동작을 차단하도록 상기 디스플레이부를 제어한다.According to the present embodiment, the first control unit determines the current posture of the user by further considering the tilt information of the portable terminal, and if it is determined that the determined posture is a posture requiring correction, the screen display operation is blocked. Control the display.

본 실시 예에 따르면, 상기 제1 제어부는 상기 현재상태가 교정필요상태라고 판단되면 경고 메시지를 표시하도록 상기 디스플레이부를 제어하고, 상기 교정필요상태가 소정 시간 이상 지속된다고 판단되면 상기 화면 표시 동작을 차단하도록 상기 디스플레이부를 제어한다.According to the present embodiment, the first control unit controls the display unit to display a warning message when it is determined that the current state is a calibration required state, and blocks the screen display operation when it is determined that the calibration required state lasts for a predetermined time or longer. The display unit is controlled to do so.

제안되는 본 발명에 따르면, 스마트폰과 아이 사이의 이상적이라고 판단되는 거리에서 아이의 얼굴 크기 전체를 측정하여 정확한 거리 산출이 이루어질 수 있으므로 디스플레이의 경고, 차단 등의 알림에 대한 신뢰도가 크게 향상될 수 있는 장점이 있다.According to the proposed invention, since accurate distance calculation can be performed by measuring the entire size of the child's face at a distance determined to be ideal between the smartphone and the child, the reliability of notifications such as warning and blocking of the display can be greatly improved. There is an advantage.

또한, 스마트폰에 내장된 카메라, 조도 센서, 자이로 센서 등을 통해 상기 스마트폰과 아이와의 거리, 아이의 시청 각도, 주변 빛과 관련된 광량 등을 감지할 수 있으므로 사용의 편의성이 향상되는 장점이 있다.In addition, it is possible to detect the distance between the smart phone and the child, the viewing angle of the child, and the amount of light related to ambient light through a camera, an illuminance sensor, a gyro sensor, etc. built in the smart phone, thereby improving the convenience of use. .

또한, 스마트폰과의 거리가 너무 가깝거나, 주변이 너무 어둡거나, 목에 무리가 생기는 등의 불량한 자세로 휴대용 단말기를 시청 시, 디스플레이를 통해 사용자에게 경고 메시지를 출력하고, 경고 메시지를 무시하고 지속적으로 휴대용 단말기를 보게 될 시에 화면을 차단시킴으로써, 영유아들의 올바른 휴대용 단말기 습관을 길들일 수 있고, 이를 통해 시력 저하를 방지할 수 있고 올바른 자세 교정이 이루어질 수 있게 하는 효과가 있다.In addition, when viewing a portable terminal with a poor posture such as too close a distance to the smartphone, too dark surroundings, or a neck strain, a warning message is output to the user through the display, and the warning message is ignored. By continuously blocking the screen when viewing the portable terminal, it is possible to tame correct portable terminal habits of infants and toddlers, thereby preventing vision loss and correct posture correction.

도 1은 본 발명의 일 실시 예에 따른 사용자와 휴대용 단말기 사이의 거리, 사용자의 시청 각도, 사용자의 눈 깜빡임, 휴대용 단말기로 입사하는 광량에 따라 화면 출력을 제어하는 시스템을 도시한 구성도이다.
도 2는 휴대용 단말기가 놓여져 있는 각도에 따라 사용자의 얼굴을 인식하는 방법을 도시한 개략도이다.
도 3은 사용자의 현재 상태가 정상 범위 내에 들어오는지 여부를 판단하는 기준점이 되는 기준 상태를 설정하는 과정을 설명하는 흐름도이다.
도 4는 도 1에 도시된 시스템에 따라 휴대용 단말기의 화면 출력에 대한 제어방법을 도시한 흐름도이다.
도 5는 어플리케이션 종료에 따라 사용자에게 피드백을 제공할 것인지에 대한 과정을 설명하는 흐름도이다.
1 is a block diagram showing a system for controlling a screen output according to a distance between a user and a portable terminal, a user's viewing angle, a user's blinking, and an amount of light incident on the portable terminal according to an embodiment of the present invention.
2 is a schematic diagram illustrating a method of recognizing a user's face according to an angle at which the portable terminal is placed.
3 is a flowchart illustrating a process of setting a reference state that is a reference point for determining whether a user's current state is within a normal range.
4 is a flowchart illustrating a control method for screen output of a portable terminal according to the system shown in FIG. 1.
5 is a flowchart illustrating a process of providing feedback to a user according to application termination.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. The present invention can be applied to various changes and can have various forms, and the embodiments are described in detail in the text. However, this is not intended to limit the present invention to a specific disclosure form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals are used for similar components. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms are used only for the purpose of distinguishing one component from other components. The terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this application, terms such as “comprises” or “consisting of” are intended to indicate the presence of features, numbers, steps, operations, components, parts or combinations thereof described in the specification, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시에 따른 사용자와 휴대용 단말기 사이의 거리, 사용자의 시청 각도, 사용자의 눈 깜빡임, 휴대용 단말기로 입사하는 광량에 따라 화면 출력을 제어하는 시스템을 도시한 구성도이고, 도 2는 휴대용 단말기가 놓여져 있는 각도에 따라 사용자의 얼굴을 인식하는 방법을 도시한 개략도이다.1 is a configuration diagram showing a system for controlling a screen output according to a distance between a user and a portable terminal according to an embodiment of the present invention, a user's viewing angle, a user's eye blinking, and an amount of light incident on the portable terminal, FIG. 2 is a schematic diagram showing a method of recognizing a user's face according to an angle at which the portable terminal is placed.

도 1 및 도 2를 참조하면, 본 발명에 따른 단말기 장치(50)는 상기 단말기 장치(50)에서 감지하는 데이터를 수신하고 해당 데이터를 분석한 후 다시 상기 단말기 장치(50)로 분석된 데이터를 송신하는 서버(10)와 서로 통신 가능하도록 구성된다. 상기 단말기 장치(50)는 대표적으로 스마트폰일 수도 있고, 그 외에 개인용 PDA, 모니터 등과 같은 다양한 전자기기일 수 있다. 상기 단말기 장치(50)와 상기 서버(10)는 블루투스, 와이파이 등의 여러 통신 방식을 사용하고 서로 소통할 수 있다.1 and 2, the terminal device 50 according to the present invention receives data sensed by the terminal device 50, analyzes the data, and then analyzes the data analyzed by the terminal device 50 again. It is configured to be able to communicate with the transmitting server 10 with each other. The terminal device 50 may be representatively a smart phone, or may be various electronic devices such as a personal PDA and a monitor. The terminal device 50 and the server 10 may use various communication methods such as Bluetooth and Wi-Fi and communicate with each other.

상기 단말기 장치(50)에서 감지하는 데이터는 사용자가 특히 영유아일 경우, 사용자의 장치 이용 시간, 이용 자세, 광량 등에 관한 정보일 수 있다. 이러한 데이터를 모으기 위해, 상기 단말기 장치(50)는 다양한 감지부재가 장착될 수 있다. 구체적으로, 상기 단말기 장치(50)는 휴대용 단말기와 사용자 사이의 종합적인 환경을 측정하기 위한 카메라(1), 상기 단말기 장치(50)로 유입되는 빛의 광량을 인식하는 조도 센서(2) 및 상기 단말기 장치(50)의 기울어짐 정도를 측정하는 자이로 센서(3)를 포함한다.The data sensed by the terminal device 50 may be information regarding a user's device usage time, posture, and light quantity, especially when the user is an infant or toddler. In order to collect this data, the terminal device 50 may be equipped with various sensing members. Specifically, the terminal device 50 includes a camera 1 for measuring a comprehensive environment between a portable terminal and a user, an illuminance sensor 2 for recognizing the amount of light entering the terminal device 50, and the It includes a gyro sensor (3) for measuring the degree of inclination of the terminal device (50).

상기 카메라(1), 조도 센서(2) 및 자이로 센서(3)는 평상시에 사용자의 단말기 장치(50) 사용 습관을 수시로 체크하는 구성이다. 만약, 영유아에게 스마트폰을 통해 영상을 보여주는 상황이 발생 시, 사용자는 상기 단말기 장치(50)에서 어플리케이션(100)을 실행한다.The camera 1, the illuminance sensor 2, and the gyro sensor 3 are configured to check the user's habit of using the terminal device 50 at any time. If a situation in which an image is displayed through a smartphone to an infant or toddler occurs, the user executes the application 100 on the terminal device 50.

상기 어플리케이션(100)은 상기 단말기 장치(50)에서 측정한 데이터에 관한 정보를 전송받는다. 즉, 상기 어플리케이션(100)은, 상기 카메라(1)로부터 촬영된 종합적인 주변 환경에 대한 정보를 수신하는 카메라부(101) 및 상기 조도 센서(2)로부터 측정된 스마트폰으로 유입되는 광량과 상기 자이로 센서(3)에서 측정된 스마트폰의 기울어짐 정도에 관한 정보를 수신하는 센서부(102)를 포함하도록 구성된다.The application 100 receives information on data measured by the terminal device 50. That is, the application 100 includes the amount of light flowing into the smartphone measured from the camera unit 101 and the illuminance sensor 2 that receives information about the overall surrounding environment photographed from the camera 1 and the It is configured to include a sensor unit 102 for receiving information about the degree of inclination of the smartphone measured by the gyro sensor (3).

또한, 상기 카메라부(101)와 상기 센서부(102)에서 측정된 정보는 제1 제어부(105)에서 분석이 이루어진다. 구체적으로, 상기 제1 제어부(105)는 사용자와 스마트폰 사이의 거리, 사용자의 시청 각도, 스마트폰에 유입되는 광량에 관한 정보를 분석한다. 그리고, 상기 제1 제어부(105)에서 분석된 결과는 제1 통신부(104)를 통해 서버(10)로 전송된다.In addition, the information measured by the camera unit 101 and the sensor unit 102 is analyzed by the first control unit 105. Specifically, the first control unit 105 analyzes information about the distance between the user and the smartphone, the user's viewing angle, and the amount of light entering the smartphone. Then, the result analyzed by the first control unit 105 is transmitted to the server 10 through the first communication unit 104.

상기 서버(10)는 상기 제1 통신부(104)와 소통하는 제2 통신부(11) 및 상기 제1 제어부(105)에서 분석된 결과를 기초로 현재 사용자의 상태가 교정이 필요한지 여부를 판단하는 제2 제어부(12)를 포함한다. 상기 제2 제어부(12)에서 도출된 결과는 다시 상기 제2 통신부(11)로부터 상기 제1 통신부(104)로 전송되고, 상기 제1 제어부(105)에서는 도출 결과를 기초로 사용자에게 알람 신호를 전송한다.The server 10 may be configured to determine whether the current user's state needs to be corrected based on the results analyzed by the second communication unit 11 and the first control unit 105 communicating with the first communication unit 104. 2 includes a control unit 12. The result derived from the second control unit 12 is transmitted from the second communication unit 11 to the first communication unit 104 again, and the first control unit 105 sends an alarm signal to the user based on the derivation result. send.

즉, 상기 제1 제어부(105)에서 분석된 결과는 디스플레이부(103)를 통해 외부로 알림될 수 있다. 상기 디스플레이부(103)는 일 예로 스마트폰의 화면일 수도 있다. 즉, 현재 사용자의 상태를 기준 상태와 비교하여 상기 사용자의 상태가 교정필요상태가 되었다고 판단되면, 상기 제1 제어부(105)는 화면 표시 동작을 차단하도록 상기 디스플레이부(103)를 제어하는 것이다.That is, the result analyzed by the first control unit 105 may be notified to the outside through the display unit 103. The display unit 103 may be, for example, a screen of a smartphone. That is, when it is determined that the current user's state is compared to the reference state, and the user's state has become a calibration required state, the first control unit 105 controls the display unit 103 to block the screen display operation.

상기 기준 상태는, 상기 제2 제어부(12)에서 산출되어 상기 제2 통신부(11)와 상기 제1 통신부(104)를 통해 상기 제1 제어부(105)로 전송되는 데이터일 수 있다. 즉, 상기 기준 상태는, 스마트폰을 시청하는 사용자의 자세, 각도, 스마트폰에 유입되는 광량, 사용자의 눈깜빡임 정도 등을 제2 제어부(12)에서 전반적으로 분석하여 설정하는 표준 자세라 할 수 있다.The reference state may be data calculated by the second control unit 12 and transmitted to the first control unit 105 through the second communication unit 11 and the first communication unit 104. That is, the reference state may be referred to as a standard posture that is set by analyzing and setting the posture, the angle, the amount of light entering the smartphone, and the degree of blinking of the user as a whole by viewing the smartphone. have.

만약, 상기 단말기 장치(50)가 일상 모드로 작동 시, 상기 제1 제어부(105)는 상기 카메라(1), 조도 센서(2) 및 자이로 센서(3)를 통해 사용자의 시청 환경에 관한 상태를 주기적으로 촬영하고, 촬영된 결과를 분석하여 사용자의 현재 상태를 설정한다. 그리고, 상기 제1 제어부(105)는 상기 현재 상태와 상기 제2 제어부(12)로부터 전송된 기준 상태를 비교하여 사용자의 상태가 교정이 필요한 상태인지 여부를 파악하는 것이다.If, when the terminal device 50 is operated in a daily mode, the first control unit 105 monitors the state of the user's viewing environment through the camera 1, the illuminance sensor 2, and the gyro sensor 3. Periodically, the current state of the user is set by analyzing the captured results. In addition, the first control unit 105 compares the current status with the reference status transmitted from the second control unit 12 to determine whether the user's status is a condition requiring calibration.

즉, 상기 일상 모드에서 상기 제1 제어부(105)는 현재 영상과 센싱된 정보에 기초하여 사용자와 상기 단말기 장치(50) 사이의 거리, 사용자의 시청 자세, 광량 및 눈 깜빡임 정도를 산출할 수 있다.That is, in the everyday mode, the first control unit 105 may calculate a distance between the user and the terminal device 50, the user's viewing posture, the amount of light, and the degree of blinking based on the current image and sensed information. .

이와 같은 과정을 통해 측정된 데이터 및 연산 데이터는 상기 제1 제어부(105)와 상기 제2 제어부(12)에서 영상처리를 통해 수치로 환산되고, 환산된 수치 값이 각각 상기 제1 제어부(105)와 상기 제2 제어부(12)에 저장되어 향후 빅데이터 방식으로 활용될 수 있다. The data and calculation data measured through the above process are converted into numerical values through image processing in the first control unit 105 and the second control unit 12, and the converted numerical values are respectively the first control unit 105. And stored in the second control unit 12 may be utilized as a future big data method.

상기 제1 통신부(104)와 상기 제2 통신부(11)는 상기 단말기 장치(50)와 상기 서버(10)를 서로 소통하도록 하는 매개체로써, 일반적으로 많이 사용되고 있는 이동 통신망이라 할 수 있다. 대표적인 예로, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망이 있으며, 그 외에 3G, 4G(LTE), 5G망 등 차세대 통신망도 가능하다 할 것이다.The first communication unit 104 and the second communication unit 11 are mediums that allow the terminal device 50 and the server 10 to communicate with each other, and may be a mobile communication network that is generally used. As a typical example, there is a wideband code division multiple access (WCDMA) communication network, and other next-generation communication networks such as 3G, 4G (LTE), and 5G networks are also possible.

도 2에서는 단말기 장치(50)에서 사용자의 얼굴을 전체적으로 인식하여 스마트폰과 사용자 사이의 거리, 사용자의 시청 각도에 대한 왜곡 등에 관한 문제점을 극복하는 예가 도시되어 있다. 구체적으로, 종래에는 휴대용 단말기가 지정된 위치에 지정된 각도로 놓여있는 상황(200)에서만 정상적으로 동작을 실행하였다. 즉, 종래의 단말기 장치(50)는 사용자가 상기 단말기 장치(50)를 정해진 설정 위치와 설정 각도로 인위적으로 맞춰놓고 촬영을 하게 되면, 사용자의 실제 위치에 관계없이 정상적인 거리 범위 내로 판단하는 등 사용에 있어서 허점이 크게 드러나는 문제점이 있었다.In FIG. 2, an example of overcoming problems related to a distance between a smartphone and a user and distortion of a user's viewing angle is illustrated by recognizing a user's face as a whole in the terminal device 50. Specifically, in the related art, the operation was normally performed only in the situation 200 in which the portable terminal was placed at a specified angle at a specified position. In other words, the conventional terminal device 50 is used when the user artificially aligns the terminal device 50 with a predetermined set position and set angle, and then shoots the image within a normal distance range regardless of the actual position of the user. There was a problem in that a large loophole was revealed.

그러나 본 발명에 따르면, 사용자의 인식 방법에 있어서 딥러닝을 활용한 영상처리 방법이 사용되다 보니, 종래에 비해 훨씬 더 확실하게 사용자의 얼굴을 인식할 수 있다. 예를 들어, 상기 단말기 장치(50)가 가로로 누워져 있는 상황(201)에서도 사용자의 얼굴 전체를 기준으로 정 방향으로 얼굴을 인식할 수 있도록 하여 오차 발생을 줄이도록 하였다. However, according to the present invention, since the image processing method using deep learning is used in the user's recognition method, it is possible to recognize the user's face much more clearly than the conventional method. For example, even in a situation in which the terminal device 50 is lying horizontally, it is possible to recognize a face in a forward direction based on the entire face of the user, thereby reducing the occurrence of errors.

이와 유사하게, 상기 단말기 장치(50)가 뒤로 눕혀져 있는 상황(202, 203), 즉, 사용자의 스마트폰 시청 각도가 불량한 상황에서는 사용자의 얼굴이 정 방향 인식에 비해 점점 작게 보이도록 인식하게 된다. 이에 따라, 상기 정 방향 인식에 해당하는 기준 상태와의 비교를 통해 현재 사용자의 시청 각도를 확인할 수 있도록 하였다. Similarly, in the situation where the terminal device 50 is lying on its back (202, 203), that is, in a situation in which the user's smartphone viewing angle is poor, the user's face is recognized to appear smaller and smaller than the forward recognition. Accordingly, the viewing angle of the current user can be checked through comparison with a reference state corresponding to the forward direction recognition.

이때, 자이로 센서(3)와 연동되는 상기 어플리케이션(100)의 센서부(102)를 통해 상기 단말기 장치(50)의 기울기를 더욱 상세히 확인할 수 있고, 이러한 각도와 수식을 통한 계산 값으로 사용자의 자세를 알아낼 수 있다. 이처럼, 사용자의 자세, 특히 스마트폰 시청 각도를 알아냄으로써, 상기 단말기 장치(50)가 눕혀져 있어도 사용자와 단말기 장치(50) 사이의 거리를 효과적으로 측정할 수 있다.At this time, the inclination of the terminal device 50 can be checked in more detail through the sensor unit 102 of the application 100 interlocked with the gyro sensor 3, and the user's posture is calculated using the calculated values through the angle and formula. Can find out. As described above, by determining the posture of the user, in particular, the viewing angle of the smartphone, the distance between the user and the terminal device 50 can be effectively measured even when the terminal device 50 is lying down.

이하에서는, 사용자의 자세 등에 따른 상기 단말기 장치(50)의 작동 방식에 대하여 상세히 설명한다. 도 3 내지 도 5는 도 1에 도시된 시스템에 따라 휴대용 단말기의 화면 출력에 대한 제어방법을 도시한 흐름도이다.Hereinafter, an operation method of the terminal device 50 according to a user's posture or the like will be described in detail. 3 to 5 are flowcharts illustrating a control method for screen output of a portable terminal according to the system shown in FIG. 1.

도면을 참조하여 설명하면, 사용자가 어플리케이션(100)을 시작하기 전에, 먼저 상기 어플리케이션(100)에는 사용자의 현재 상태가 정상 범주 내인지 여부를 판단하기 위한 기준 값을 제공하는 초기 정보 설정이 이루어져야 한다. 도 3에 도시된 것처럼, 사용자가 어플리케이션(100)을 작동시키면(S10), 상기 제1 제어부(105)는 사용자의 올바른 스마트폰 사용에 대한 기준 상태가 저장되어 있는지 여부를 판단한다(S11). 즉, 상기 제1 제어부(105)에서는 어플리케이션(100)의 초기 사용 여부 및 기준값을 설정하기 위한 준비가 되어 있는지 여부 등에 대해 판단한다.Referring to the drawings, before the user starts the application 100, first, the application 100 must be set with initial information providing a reference value for determining whether the current state of the user is within a normal category. . As shown in FIG. 3, when the user operates the application 100 (S10), the first control unit 105 determines whether a reference state for correct use of the smartphone is stored (S11). That is, the first control unit 105 determines whether the application 100 is initially used and whether it is ready to set a reference value.

이와 같은 상기 제1 제어부(105)의 제어 신호는 상기 단말기 장치(50)가 설정 모드로 작동하도록 한다. 상기 설정 모드에서 상기 제1 제어부(105)는 다양한 각도로 상기 단말기 장치(50)를 기울이도록 가이드 정보를 제공하고, 해당 가이드 정보는 상기 디스플레이부(103)를 통해 사용자가 확인할 수 있다. 이와 같이 사용자가 상기 가이드 정보에 따라 상기 단말기 장치(50)를 정해진 각도로 기울일 때마다 촬영이 이루어짐으로써 복수의 각도에서 설정영상이 생성된다. 상기 복수의 각도마다 생성된 영상은 통신부(104, 11)를 통해 상기 서버(10)로 전송된다(S12).The control signal of the first control unit 105 causes the terminal device 50 to operate in a setting mode. In the setting mode, the first control unit 105 provides guide information to incline the terminal device 50 at various angles, and the user can check the guide information through the display unit 103. In this way, whenever the user tilts the terminal device 50 at a predetermined angle according to the guide information, a photographing is performed to generate a set image from a plurality of angles. The images generated for each of the plurality of angles are transmitted to the server 10 through the communication units 104 and 11 (S12).

상기 서버(10)에서는 수신 받은 데이터를 클라이언트 내에 구현되어 있는 영상처리 필터링 방법인 Face Detection(얼굴 및 동공 감지), Haar Cascade(얼굴 특징 감지) 등을 사용하여 동영상을 Frame(장면)별로 분해하고 분해한 영상을 필터링 하여 평균 값을 도출해 낸다. 이후 도출해낸 값은 딥 러닝을 위한 기초 데이터로 남기고 제1 통신부(104)와 이동 통신망으로 통신하여 단말기 장치(50)로 송신한다.The server 10 decomposes and disassembles the video for each frame (scene) using Face Detection (face and pupil detection), Haar Cascade (face feature detection), etc., which are image processing filtering methods implemented in the client. The average value is derived by filtering one image. Thereafter, the derived values are left as basic data for deep learning and communicated with the first communication unit 104 through a mobile communication network and transmitted to the terminal device 50.

상기 서버(10)의 제2 제어부(12)는 상기 제2 통신부(11)를 통해 수신되는 상기 복수의 각도마다 생성된 설정영상을 분석하여, 다양한 각도에서의 기준 상태를 설정하도록 구성된다. 설정된 최종 정보는 상기 제2 제어부(12)에서 분석되어 다시 상기 단말기 장치(50)의 제1 제어부(105)로 전송된다(S13). 상기 S13 단계를 거쳐서 상기 제1 제어부(105)로 전송된 정보가 사용자의 자세 등에 관한 초기 정보가 되는 것이고, 상기 기준 상태가 되는 것이다. 이와 같이 상기 기준 상태가 저장된 것으로 확인되면 초기 설정 완료 신호가 전송된다(S14).The second control unit 12 of the server 10 is configured to analyze a set image generated for each of the plurality of angles received through the second communication unit 11 and set reference states at various angles. The set final information is analyzed by the second control unit 12 and transmitted back to the first control unit 105 of the terminal device 50 (S13). The information transmitted to the first control unit 105 through the step S13 becomes initial information regarding a user's posture and the like, and becomes the reference state. In this way, when it is confirmed that the reference state is stored, an initial setting completion signal is transmitted (S14).

즉, 상기 S14 단계에서는 상기 서버(10)로부터 송신 받은 데이터로 기준 값을 설정하고, 상기 제1 제어부(105)에서 카메라(1), 조도 센서(2), 자이로 센서(3)의 동작 주기 설정, 스마트폰과의 거리, 눈 깜박임 횟수, 광량에 대한 허용 오차 범위를 설정하고 초기 설정 과정을 종료한다.That is, in step S14, a reference value is set with data transmitted from the server 10, and the operation cycle of the camera 1, the illuminance sensor 2, and the gyro sensor 3 is set in the first control unit 105. , Set the tolerance range for the distance to the smartphone, the number of blinks, and the amount of light, and end the initial setting process.

이와 같은 상기 S10 내지 S14 단계는 향후 우수한 딥러닝 방식이 나오고, 데이터 축적 시스템의 업그레이드가 이루어지게 되어 보편적인 시스템 값이 나오게 된다면 더 이상 진행될 필요가 없을 수도 있다. 상기 보편적인 시스템에서는 상기 기준 상태에 해당하는 초기 값이 미리 저장되어 있기 때문이다. 다만, 본 발명에서는 초기 값을 설정해야 하므로 상기 S10 내지 S14 단계를 진행하는 것을 원칙으로 한다.The above steps S10 to S14 may not need to proceed any further if an excellent deep learning method comes out and the data storage system is upgraded and universal system values come out. This is because in the general system, the initial value corresponding to the reference state is stored in advance. However, in the present invention, since it is necessary to set the initial value, it is a principle to proceed with steps S10 to S14.

이와 같은 초기 설정이 완료되면, 사용자는 어플리케이션(100) 동작을 실행한다(S21). 상기 어플리케이션(100)의 동작은 상기 제1 제어부(105)의 제어 신호를 통해 활성화될 수 있다. When such initial setting is completed, the user executes the operation of the application 100 (S21). The operation of the application 100 may be activated through a control signal from the first control unit 105.

그 다음, 상기 제1 제어부(105)는 상기 단말기 장치(50)에 장착된 카메라(1), 조도 센서(2) 및 자이로 센서(3)를 주기적으로 동작시킨다(S22). 이러한 주기적인 동작은 도 3에 도시된 초기 설정 단계에서 설정한 동작 주기에 따라 작동시키고, 해당 동작이 이루어질 때마다 상기 제1 제어부(105)로 결과값을 송신한다. 상기 주기적인 동장에 대한 결과값이 사용자의 현재 상태가 되는 것이다.Then, the first control unit 105 periodically operates the camera 1, the illuminance sensor 2, and the gyro sensor 3 mounted on the terminal device 50 (S22). The periodic operation is performed according to the operation period set in the initial setting step illustrated in FIG. 3, and a result value is transmitted to the first control unit 105 whenever the corresponding operation is performed. The result value for the periodic copper field becomes the current state of the user.

그 다음, 상기 제1 제어부(105)는 사용자의 현재 상태를 상기 기준 상태와 비교하여 사용자의 자세가 허용 범위 이내인지 여부를 판단한다(S23). 즉, 상기 제1 제어부(105)는, 상기 카메라(1), 조도 센서(2) 및 자이로 센서(3)의 주기적인 동작 단계에서 상기 제1 제어부(105)로 전달된 사용자의 현재 상태에 대한 데이터 값과, 상기 제2 제어부(12)에서 분석하여 상기 제1 제어부(105)로 전송된 기준 상태 데이터 값을 비교한다.Then, the first control unit 105 compares the current state of the user with the reference state to determine whether the user's posture is within an allowable range (S23). That is, the first control unit 105, the current state of the user transmitted to the first control unit 105 in the periodic operation of the camera 1, the illuminance sensor 2 and the gyro sensor 3 The data value is compared with the reference state data value that is analyzed by the second control unit 12 and transmitted to the first control unit 105.

만약, 상기 현재 상태에 대한 데이터 값이 상기 기준 상태 데이터 값의 허용 범위를 벗어나게 되면, 상기 제1 제어부(105)는 디스플레이부(103)를 호출하여 사용자에게 경고 메시지를 출력한다(S24). 다만, 상기 현재 상태에 대한 데이터 값이 상기 기준 상태 데이터 값의 허용 범위 내에 있다면, 현재 화면을 유지(S200)하고 상기 S22 단계로 돌아가서 주기적으로 사용자의 현재 상태를 촬영한다.If the data value for the current state is out of the allowable range of the reference state data value, the first control unit 105 calls the display unit 103 to output a warning message to the user (S24). However, if the data value for the current state is within the allowable range of the reference state data value, the current screen is maintained (S200) and the process returns to step S22 to periodically photograph the current state of the user.

상기 디스플레이부(103)의 경고 신호에도 불구하고 사용자가 자세 교정을 하지 않는 경우, 상기 제1 제어부(105)는 사용자의 자세교정이 필요하다고 신호를 보낸 이후의 교정필요상태 지속시간이 상기 제2 제어부(12)에서 연산된 기준 시간보다 오래 지속되었는지 여부를 판단한다(S25). If the user does not correct the posture despite the warning signal from the display unit 103, the first controller 105 sends the signal that the posture correction of the user is necessary, and the duration of the required correction state is the second. The control unit 12 determines whether it lasted longer than the calculated reference time (S25).

만약, 상기 교정필요상태 지속시간이 상기 기준 시간 보다 길게 지속되었다면, 상기 단말기 장치(50)의 화면을 차단하는 단계(S26)를 호출한다. 다만, 상기 교정필요상태 지속시간이 아직 상기 기준 시간에 다다르지 않은 경우에는, 사용자가 자세를 교정하였다는 의미이므로, 현재 화면을 유지하고 다시 상기 S22 단계로 돌아가서 주기적으로 사용자의 현재 상태를 촬영한다.If the duration of the calibration required state is longer than the reference time, step S26 of blocking the screen of the terminal device 50 is called. However, if the duration of the calibration required state has not yet reached the reference time, it means that the user has corrected the posture, so maintain the current screen and return to step S22 to periodically photograph the user's current state. .

도 5에서는 어플리케이션(100)의 종료에 따라 사용자에게 자세 관련 피드백을 전달하는 과정이 도시되어 있다. 먼저, 도 4에 도시된 S26 단계와 같이 화면을 차단하는 단계가 수행되면 자동으로 어플리케이션(100)이 종료되는 과정이 수행된다. 다른 예로, 사용자는 화면 차단을 당하지 않더라도 영상 시청을 종료하고자 한다면 상기 어플리케이션(100)을 종료할 수 있다(S31).In FIG. 5, a process of delivering posture-related feedback to a user according to the termination of the application 100 is illustrated. First, when the step of blocking the screen is performed as in step S26 illustrated in FIG. 4, a process in which the application 100 is automatically terminated is performed. As another example, if the user wants to end viewing the video even if the screen is not blocked, the application 100 may be terminated (S31).

이처럼 사용자의 자의 또는 타의로 어플리케이션(100)이 종료되면, 상기 제1 제어부(105)는 시간별 사용자의 시청 습관, 자세 등에 관한 정보가 기록된 피드백 정보를 분석한다(S32). 그 다음, 사용자는 상기 피드백 정보를 제공받을지 여부에 대해 결정한다(S33). 만약, 사용자가 상기 피드백 정보를 제공받고자 한다면, 상기 제1 제어부(105)는 상기 디스플레이부(103)를 통해 상기 정보를 사용자에게 알려주고, 이와 동시에 상기 서버(10)로 상기 피드백 정보를 전송하여 향후 다양한 정보를 분석하는 데에 활용할 수 있는 데이터로 저장된다(S34). 다만, 사용자가 상기 피드백 정보를 생성하지 않기를 원한다면, 상기 어플리케이션(100)은 해당 데이터에 대한 분석, 저장 없이 그대로 종료(S35)된다. As described above, when the application 100 is terminated at the user's own or intentional basis, the first control unit 105 analyzes feedback information in which information about a user's viewing habits and postures for each hour is recorded (S32). Next, the user determines whether or not to receive the feedback information (S33). If the user wants to receive the feedback information, the first control unit 105 informs the user of the information through the display unit 103, and at the same time transmits the feedback information to the server 10 in the future. It is stored as data that can be used to analyze various information (S34). However, if the user does not want to generate the feedback information, the application 100 is terminated as it is without analyzing and storing the corresponding data (S35).

이와 같이 본 발명에 따르면 스마트폰에 내장된 카메라, 조도 센서, 자이로 센서 등을 통해 상기 스마트폰과 아이와의 거리, 아이의 시청 각도, 주변 빛과 관련된 광량 등을 감지할 수 있으므로 영유아의 시각 보호가 적극적으로 이루어질 수 있는 장점이 있다.Thus, according to the present invention, it is possible to detect the distance between the smart phone and the child, the child's viewing angle, and the amount of light related to the ambient light through the camera, illumination sensor, gyro sensor, etc. built into the smart phone, thus preventing visual protection for infants and toddlers. There is an advantage that can be actively achieved.

이상에서는 실시 예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 통상의 기술자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that there is.

1: 카메라
2: 조도 센서
3: 자이로 센서
10: 서버
11: 제2 통신부
12: 제2 제어부
50: 단말기 장치
100: 어플리케이션
101: 카메라부
102: 센서부
103: 디스플레이부
104: 제1통신부
105: 제1제어부
1: Camera
2: Illuminance sensor
3: Gyro sensor
10: Server
11: second communication unit
12: second control unit
50: terminal device
100: application
101: camera unit
102: sensor unit
103: display unit
104: first communication unit
105: first control unit

Claims (7)

휴대용 단말기와 서버를 포함하는 전자장치 시스템에 있어서,
상기 휴대용 단말기는
전면의 사용자를 촬영하여 영상을 생성하는 카메라부;
상기 휴대용 단말기의 다양한 상태를 측정하여 센싱정보를 생성하도록 구성되는 센서부;
제1 통신부;
상기 휴대용 단말기 상에 화면을 표시하도록 구성되는 디스플레이부; 및
설정모드에서 소정시간 촬영하고 센싱한 설정영상과 설정센싱정보를 외부서버로 전송하고, 상기 외부서버로부터 수신되는 기준 값에 기초하여 기준상태를 설정하며, 일상모드에서 주기적으로 촬영하고 센싱한 현재영상 및 현재센싱정보를 분석하여 상기 사용자의 현재상태를 생성하고, 상기 현재상태와 상기 기준상태를 비교하여 상기 사용자의 상태가 교정필요상태가 되었다고 판단되면 화면 표시 동작을 차단하도록 상기 디스플레이부를 제어하는 제1 제어부를 포함하고,
상기 서버는
제2 통신부; 및
상기 휴대용 단말기로부터 상기 제2 통신부를 통해 수신되는 상기 설정영상과 상기 설정센싱정보를 분석하여 상기 기준 값을 도출하고, 상기 기준 값을 상기 휴대용 단말기로 전송하도록 상기 제2 통신부를 제어하는 제2 제어부를 포함하고, 상기 제2 통신부를 통해 수신되는 복수의 각도마다 생성된 설정영상을 더 고려하여 다양한 각도에서의 상기 기준상태를 설정하도록 하며, 상기 제2 제어부에서 도출된 결과는 다시 상기 제2 통신부로부터 상기 제1 통신부로 전송하고,
상기 설정모드에서 상기 제1 제어부는 다양한 각도로 상기 휴대용 단말기를 기울이도록 가이드 정보를 상기 디스플레이부를 통해 제공하며, 상기 사용자가 상기 휴대용 단말기를 상기 가이드 정보에 따라 정해진 각도로 기울일 때마다 상기 사용자를 촬영하여 복수의 각도에서 설정영상을 생성하고, 상기 복수의 각도마다 생성된 영상을 상기 서버로 전송하도록 상기 제1 통신부를 제어하는 전자장치 시스템.
In the electronic device system including a portable terminal and a server,
The portable terminal
A camera unit that photographs a user on the front side to generate an image;
A sensor unit configured to measure various states of the portable terminal and generate sensing information;
A first communication unit;
A display unit configured to display a screen on the portable terminal; And
In the set mode, the set image and the set sensing information shot and sensed for a predetermined time are transmitted to an external server, the reference state is set based on the reference value received from the external server, and the current image periodically photographed and sensed in the daily mode And analyzing the current sensing information to generate the current state of the user, and comparing the current state with the reference state to control the display unit to block the screen display operation when it is determined that the user's state is in need of calibration. 1 includes a control unit,
The server
A second communication unit; And
A second control unit for controlling the second communication unit to derive the reference value by analyzing the setting image and the setting sensing information received from the portable terminal through the second communication unit, and to transmit the reference value to the portable terminal Including, to set the reference state at various angles by further considering the set image generated for each of a plurality of angles received through the second communication unit, the result derived from the second control unit again the second communication unit To the first communication unit,
In the setting mode, the first control unit provides guide information through the display unit to tilt the portable terminal at various angles, and photographs the user whenever the user tilts the portable terminal at a predetermined angle according to the guide information. To generate a set image from a plurality of angles, and to control the first communication unit to transmit the image generated for each of the plurality of angles to the server.
삭제delete 제1 항에 있어서,
상기 일상모드에서 상기 제1 제어부는 상기 현재영상과 상기 현재센싱정보에 기초하여 사용자와 휴대용 단말기 사이의 거리, 자세 및 눈 깜빡임 정도를 산출하도록 구성되는 전자장치 시스템.
According to claim 1,
In the everyday mode, the first control unit is configured to calculate a distance, posture, and degree of blinking between a user and a portable terminal based on the current image and the current sensing information.
제1 항에 있어서,
상기 센서부는 휴대용 단말기의 기울기를 측정하도록 구성되는 자이로 센서 및 상기 휴대용 단말기로 입사하는 광량을 측정하도록 구성되는 조도 센서 중 적어도 하나를 포함하는 전자장치 시스템.
According to claim 1,
The sensor unit includes an electronic device system including at least one of a gyro sensor configured to measure a tilt of a portable terminal and an illuminance sensor configured to measure an amount of light incident on the portable terminal.
제4 항에 있어서,
상기 제1 제어부는 상기 휴대용 단말기로 입사되는 광량을 더 고려하여 상기 현재상태를 결정하는 전자장치 시스템.
According to claim 4,
The first control unit is an electronic device system that determines the current state by further considering the amount of light incident on the portable terminal.
제4 항에 있어서,
상기 제1 제어부는 상기 휴대용 단말기의 기울기 정보를 더 고려하여 상기 사용자의 현재자세를 결정하고, 상기 결정된 현재자세가 교정이 필요한 자세라고 판단되면 상기 화면 표시 동작을 차단하도록 상기 디스플레이부를 제어하는 전자장치 시스템.
According to claim 4,
The first control unit determines the current posture of the user by further considering the tilt information of the portable terminal, and when it is determined that the determined current posture is a posture requiring correction, an electronic device that controls the display unit to block the screen display operation system.
제1 항에 있어서,
상기 제1 제어부는 상기 현재상태가 교정필요상태라고 판단되면 경고 메시지를 표시하도록 상기 디스플레이부를 제어하고, 상기 교정필요상태가 소정 시간 이상 지속된다고 판단되면 상기 화면 표시 동작을 차단하도록 상기 디스플레이부를 제어하는 전자장치 시스템.
According to claim 1,
The first control unit controls the display unit to display a warning message when it is determined that the current state is a calibration-needed state, and controls the display unit to block the screen display operation when it is determined that the calibration-needed state continues for a predetermined time or more. Electronic system.
KR1020190106951A 2019-08-30 2019-08-30 Electronic device system including portable terminal and server KR102078131B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190106951A KR102078131B1 (en) 2019-08-30 2019-08-30 Electronic device system including portable terminal and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190106951A KR102078131B1 (en) 2019-08-30 2019-08-30 Electronic device system including portable terminal and server

Publications (1)

Publication Number Publication Date
KR102078131B1 true KR102078131B1 (en) 2020-04-07

Family

ID=70291323

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190106951A KR102078131B1 (en) 2019-08-30 2019-08-30 Electronic device system including portable terminal and server

Country Status (1)

Country Link
KR (1) KR102078131B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022270646A1 (en) * 2021-06-22 2022-12-29 주식회사 다노 Method and server for managing cervical spine of user

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170039506A (en) * 2015-10-01 2017-04-11 장헌영 Apparatus and method for controlling mobile terminal
KR101952533B1 (en) 2018-03-13 2019-02-26 한양대학교 산학협력단 Paper based triboelectric nanogenerator and the manufacturing method thereof
KR20190021051A (en) * 2017-08-22 2019-03-05 송영우 Method for providing eyesight shielding service based on multi-media device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170039506A (en) * 2015-10-01 2017-04-11 장헌영 Apparatus and method for controlling mobile terminal
KR20190021051A (en) * 2017-08-22 2019-03-05 송영우 Method for providing eyesight shielding service based on multi-media device
KR101952533B1 (en) 2018-03-13 2019-02-26 한양대학교 산학협력단 Paper based triboelectric nanogenerator and the manufacturing method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022270646A1 (en) * 2021-06-22 2022-12-29 주식회사 다노 Method and server for managing cervical spine of user

Similar Documents

Publication Publication Date Title
US10534982B2 (en) Neural network training for three dimensional (3D) gaze prediction with calibration parameters
CN109478088B (en) System and method for preventing visual degradation caused by close-range use of electronic screen device
US20200250488A1 (en) Deep learning for three dimensional (3d) gaze prediction
US8690321B2 (en) Fixation-based control of electroactive spectacles
US20210012161A1 (en) Training of a neural network for three dimensional (3d) gaze prediction
KR102700150B1 (en) Controlling exposure changes in low-light environments
US20170372679A1 (en) Mobile Terminal for Automatically Adjusting a Text Size and a Method Thereof
KR20150085710A (en) Dispaly apparatus and controlling method thereof
US10084955B2 (en) Auto focus photographing system and electronic device employing the same
EP3761627B1 (en) Image processing method and apparatus
CN105095885A (en) Human eye state detection method and detection device
CN112202962B (en) Screen brightness adjusting method and device and storage medium
KR102078131B1 (en) Electronic device system including portable terminal and server
CN106648081A (en) Method for turning off screen and electronic equipment
CN107577340A (en) Method, terminal and the storage device of sight protectio
EP3759444A1 (en) A computer-implemented method and system for preventing sight deterioration caused by prolonged use of electronic visual displays in low-light conditions
WO2019190561A1 (en) Deep learning for three dimensional (3d) gaze prediction
TWI771497B (en) Mobile terminal, mirror opening method of the mobile terminal and storage device
WO2023240555A1 (en) Display picture control method and apparatus, electronic device and readable storage medium
CN114049671A (en) Image processing method, image processing device, chip and chip module
KR20210099922A (en) Smart glass using biohealth technology
CN118631932A (en) Prompting method, prompting device and storage medium

Legal Events

Date Code Title Description
GRNT Written decision to grant