KR20200138754A - 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 - Google Patents
웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 Download PDFInfo
- Publication number
- KR20200138754A KR20200138754A KR1020207029786A KR20207029786A KR20200138754A KR 20200138754 A KR20200138754 A KR 20200138754A KR 1020207029786 A KR1020207029786 A KR 1020207029786A KR 20207029786 A KR20207029786 A KR 20207029786A KR 20200138754 A KR20200138754 A KR 20200138754A
- Authority
- KR
- South Korea
- Prior art keywords
- wearable device
- user
- information
- camera module
- event
- Prior art date
Links
- 238000000034 method Methods 0.000 title abstract description 13
- 238000004891 communication Methods 0.000 claims abstract description 44
- 230000033001 locomotion Effects 0.000 claims abstract description 39
- 230000004913 activation Effects 0.000 claims description 2
- 239000003814 drug Substances 0.000 description 20
- 230000006399 behavior Effects 0.000 description 14
- 229940079593 drug Drugs 0.000 description 14
- 238000001514 detection method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000010801 machine learning Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000002354 daily effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000037081 physical activity Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000001647 drug administration Methods 0.000 description 1
- 230000002650 habitual effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H04N5/2257—
-
- H04N5/232—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Neurosurgery (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
웨어러블 기기를 이용한 객체의 이벤트 감지 방법 및 이를 운용하는 관리 서버가 도시된다. 본 발명의 다양한 실시예에 따른 웨어러블 기기는 사용자 신체에 착용 가능한 웨어러블 기기로서, 사용자 신체와 소정 영역내에 위치한 객체를 인식하는 근거리 통신 모듈; 상기 웨어러블 기기와 인접한 영역을 촬영하여 사용자 신체의 움직임 또는 상기 객체 중 적어도 하나와 관련된 이미지 또는 동영상을 생성하는 카메라 모듈; 상기 근거리 통신 모듈을 통해 인식된 객체 정보를 기초로 카메라 모듈의 활성화 여부를 결정하는 제어부; 및 상기 근거리 통신 모듈을 통해 인식한 객체에 대한 정보 및 상기 카메라 모듈을 통해 생성된 이미지 또는 동영상을 관리 서버로 전송하는 통신 모듈을 포함할 수 있다.
Description
본 발명의 다양한 실시예는 사용자가 착용할 수 있는 웨어러블 기기를 이용하여 보다 간편하게 객체의 이벤트를 감지하는 기술에 관한 것이다.
일상 생활에서 사용자는 본인이 인지하지 못하는 상태에서 수많은 신체 활동을 하게 된다. 특히, 이러한 신체활동은 특정 객체를 움직이는 이벤트를 상당부분 수반하게 되는데, 사용자의 습관적인 패턴과 무의식적인 영역에서 발생되는 이벤트들을 사용자가 일일이 기억하기는 쉽지 않다.
때때로, 이러한 객체의 움직임을 수반하는 사용자 신체활동은 여러 영역에서 중요한 이벤트로 결정되기도 한다. 예를 들어, 헬스케어 등과 같은 분야에서는 사용자가 하루에 얼마만큼 약을 섭취했느냐가 중요한 요소일 수 있으며, 특정 질병의 경우에는 약 투약을 누락하지 않는 것이 굉장히 중요한 이슈가 될 수 있다.
문제는 이러한 중요한 이벤트를 누락하게 되었을 때 사용자는 일상생활에서 이를 인지하지 못하는 경우가 대부분이며, 설사 뒤늦게 이를 인지하였다 하더라도 제시간에 이벤트를 하지 못함에 따른 손실 내지 위험을 소급시킬 수 없다는 한계점이 있다.
최근, 카메라 등을 이용하여 사용자의 활동을 분석하는 기술이 개시되고는 있으나, 고정설치형 카메라에 그치는 경우가 대부분이며 일상 생활에 접목하기에는 어렵다는 문제점이 있다.
본 발명의 다양한 실시예는 웨어러블 기기와 그 구성을 통해 일상 생활에서 비교적 간단하게 특정 객체를 인식하여 미리 지정된 이벤트가 발생하는지를 판단하고, 이벤트 발생 시간을 기록하여 다양한 서비스를 제공하려는데 그 목적이 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 다양한 실시예에 따른 웨어러블 기기는 사용자 신체에 착용 가능한 웨어러블 기기로서, 사용자 신체와 소정 영역내에 위치한 객체를 인식하는 근거리 통신 모듈; 상기 웨어러블 기기와 인접한 영역을 촬영하여 사용자 신체의 움직임 또는 상기 객체 중 적어도 하나와 관련된 이미지 또는 동영상을 생성하는 카메라 모듈; 상기 근거리 통신 모듈을 통해 인식된 객체 정보를 기초로 카메라 모듈의 활성화 여부를 결정하는 제어부; 및 상기 근거리 통신 모듈을 통해 인식한 객체에 대한 정보 및 상기 카메라 모듈을 통해 생성된 이미지 또는 동영상을 관리 서버로 전송하는 통신 모듈을 포함할 수 있다.
본 발명의 일실시예에 따른 관리 서버는, 사용자 신체에 착용 가능한 웨어러블 기기와의 통신을 통해 정보를 획득하고 획득한 정보를 관리하는 관리 서버로서, 상기 웨어러블 기기의 근거리 통신 모듈을 통해 인식된 객체의 정보를 수신하고, 상기 웨어러블 기기를 통해 생성된 이미지 또는 동영상을 수신하는 통신부; 및 상기 객체의 정보를 기초로 하여, 상기 이미지 또는 동영상 상에서 상기 객체 또는 상기 사용자 신체와 관련된 미리 설정된 동작이 감지되는지를 기계학습 또는 인공지능을 기반으로 판단하는 동작 판단부를 포함할 수 있다.
본 발명의 일실시예에 따른 이벤트 감지 방법은 관리 서버가 웨어러블 기기에 의해 수집된 정보를 통해 객체의 이벤트를 감지하는 이벤트 감지 방법으로서, 상기 웨어러블 기기의 근거리 통신 모듈을 통해 인식된 객체의 정보를 수신하고, 상기 웨어러블 기기를 통해 생성된 이미지 또는 동영상을 수신하는 단계; 상기 객체의 정보를 기초로 하여, 상기 이미지 또는 동영상 상에서 상기 객체 또는 사용자 신체와 관련된 미리 설정된 동작이 감지되는지를 기계학습 또는 인공지능을 기반으로 판단하는 단계; 및 적어도 하나 이상으로 감지된 미리 설정된 동작 각각에 대해 설정된 가중치를 종합하여 특정 이벤트의 발생 여부를 판단하는 단계를 포함할 수 있다.
본 발명의 실시예에 따라 웨어러블 기기에 의해 특정 이벤트 발생 여부와 발생 시간이 기록됨으로써, 헬스케어와 같은 일상생활 분야에서 누락되기 쉬운 사용자의 이벤트를 감지하여 보다 효율적인 가이드 시스템이 제공될 수 있으며, 사용자 패턴 등을 학습하여 데이터 분석이 가능한 시스템을 구현할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일실시예에 따른 이벤트 감지 시스템의 개략도이다.
도 2는 본 발명의 일실시예에 따른 웨어러블 기기의 블록 구성도이다.
도 3은 본 발명의 일실시예에 따른 관리 서버의 블록 구성도이다.
도 4는 본 발명의 일실시예에 따른 웨어러블 기기에서 객체를 감지하고 이미지 또는 동영상을 생성하는 동작의 순서도이다.
도 5는 본 발명의 일실시예에 따른 관리 서버에서 웨어러블 기기로부터 수신되는 정보를 관리하고 이를 통해 최종적으로 특정 이벤트가 발생하였는지를 판단하는 동작에 대한 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 웨어러블 기기에서 객체의 이벤트를 감지하는 동작의 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 웨어러블 기기에서 객체의 이벤트를 감지하는 동작의 순서도이다.
도 2는 본 발명의 일실시예에 따른 웨어러블 기기의 블록 구성도이다.
도 3은 본 발명의 일실시예에 따른 관리 서버의 블록 구성도이다.
도 4는 본 발명의 일실시예에 따른 웨어러블 기기에서 객체를 감지하고 이미지 또는 동영상을 생성하는 동작의 순서도이다.
도 5는 본 발명의 일실시예에 따른 관리 서버에서 웨어러블 기기로부터 수신되는 정보를 관리하고 이를 통해 최종적으로 특정 이벤트가 발생하였는지를 판단하는 동작에 대한 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 웨어러블 기기에서 객체의 이벤트를 감지하는 동작의 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 웨어러블 기기에서 객체의 이벤트를 감지하는 동작의 순서도이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
본 문서에서 언급되는 '이벤트'는 객체가 사용자 신체와 관련하여 특정 영역에 위치하거나 움직이는 동작을 의미할 수 있다. 예컨대, 이벤트는 약이나 음식을 먹는 행위 등을 포함할 수 있으나 이에 한정하는 것은 아니다.
도 1은 본 발명의 일실시예에 따른 이벤트 감지 시스템(10)의 개략도이다. 이러한 이벤트 감지 시스템(10)은 웨어러블 기기(200)가 객체에 부착된 전자코드(100)를 인식하고, 객체를 촬영함에 따라 소정의 유효이벤트가 발생하는지를 감지하여 시간 정보를 기록하는 기능을 수행한다.
일실시예에 따르면, 이벤트 감지 시스템(10)은 전자코드(100), 웨어러블 기기(200), 관리 서버(300) 및 사용자 단말기(400)를 포함할 수 있다.
전자코드(100)는 객체에 부착되어 웨어러블 기기(200)에 의해 인식됨으로써 웨어러블 기기(200)가 객체를 인식하도록 하는 기능을 수행한다. 이러한 전자코드(100)는 예컨대, 바코드, RF 태그, QR 코드 등으로 구현될 수 있으나 이에 한정하는 것은 아니다.
본 발명의 실시예에서, 전자코드(100)가 웨어러블 기기(200)의 근거리 통신 모듈에 의해 인식되는 경우, 웨어러블 기기(200)는 전자코드(100)를 통해 인식된 객체에 대한 정보를 기초로 카메라 모듈의 활성화 여부를 결정할 수 있다.
웨어러블 기기(200)는 사용자 신체의 적어도 일부(예: 손목 등)에 착용 가능한 전자 장치로서 예컨대, 스마트 시계, 스마트 안경, 스마트 헬멧 등으로 구현될 수 있으나 이에 한정하는 것은 아니다. 본 발명의 실시예에서, 웨어러블 기기(200)는 근거리 통신 모듈, 카메라 모듈 또는 센서 모듈을 통해 객체를 인식하고, 웨어러블 기기(200)와 인접한 영역을 촬영하여 관리 서버(300)로 전송하는 역할을 수행한다. 이러한 웨어러블 기기(200)의 구체적인 구성은 도 2를 통해 후술하도록 한다.
본 발명의 일실시예에 따르면, 웨어러블 기기(200)는 사용자의 손목에 착용 가능한 스마트 시계로 구성될 수 있으며, 이 경우 웨어러블 기기(200)에 포함되는 카메라 모듈 또는 센서 모듈은 스마트 시계의 케이스에 연결되는 밴드 상에 위치할 수 있다. 예를 들어, 스마트 시계의 케이스가 손등과 연결되는 팔목 부분에 위치하는 경우에, 카메라 모듈 또는 센서 모듈은 손바닥과 연결되는 팔목부분에 위치하는 밴드에 자리할 수 있다. 이와 같은 구성을 통해 웨어러블 기기(200)는 카메라 모듈 또는 센서 모듈을 통해 사용자의 손바닥 쪽에서 행하여지는 동작 또는 이벤트를 감지하거나 촬영할 수 있다.
관리 서버(300)는 네트워크를 통해 사용자의 웨어러블 기기(200)와 연결되어 웨어러블 기기(200)에서 수집되는 정보를 제공받아, 이를 분석하여 특정 이벤트가 발생하였는지를 판단하는 기능을 수행한다. 또한, 관리 서버(300)는 수집 또는 가공한 정보를 네트워크를 통해 사용자 단말기(400)상에 전달할 수 있다. 이러한 관리 서버(300)는 적어도 하나의 프로세서를 가지는 제어부, 통신 모듈, 저장부(예: 메모리) 등과 같은 하드웨어 정보 또는 알고리즘 연산을 위한 소프트웨어 정보를 포함할 수 있다.
사용자 단말기(400)는 웨어러블 기기(200)와 연결되어 웨어러블 기기(200)의 초기 설정값 생성, 설정값 변경 등의 역할을 수행할 수 있으며 이와 같은 동작은 사용자가 사용자 단말기(400) 상에서 수행하는 조작에 따라 이루어질 수 있다. 사용자는 사용자 단말기(400)를 통해 관리 서버(300)에 접속하여 자신이 관리하는 웨어러블 기기(200)로부터 관리 서버(300)로 전송된 정보와, 이와 같은 정보를 통해 관리 서버(300)에서 가공된 정보를 확인할 수 있다.
본 발명의 일실시예에 따른 사용자 단말기(400)는 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC, 등과 같이 네트워크를 통하여 웹 서버와 연결될 수 있는 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있으며, 개인용 컴퓨터(예를 들어, 데스크탑 컴퓨터, 노트북 컴퓨터 등), 워크스테이션, PDA, 웹 패드 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기 중 하나일 수도 있다.
외부 서버는 네트워크를 통해 관리 서버(300)에 필요한 정보(예: 전자코드(100)에 대한 식별 정보, 전자코드(100)에 대응하는 객체의 이미지 정보 등)를 송수신하는 장치 또는 프로그램이다.
도 2는 본 발명의 일실시예에 따른 웨어러블 기기(200)의 블록 구성도이다. 이러한 웨어러블 기기(200)는 통신 모듈(210), 제어부(220), 전자코드 스캔부(221), 객체 인식부(223), 이벤트 감지부(225), 저장부(230) 및 카메라 모듈(240)을 포함할 수 있다.
통신 모듈(210)은 웨어러블 기기(200)에서 객체의 전자코드(100), 관리 서버(300), 사용자 단말기(400) 또는 외부 서버와 통신하여 웨어러블 기기(200)의 동작에 필요한 정보를 송수신하는 기능을 수행한다. 이러한 통신 모듈(210)은 블루투스, 지그비, 적외선 통신 모듈, RF 모듈, QR코드 모듈 또는 WIFI 모듈과 같은 근거리 통신 모듈로 구현될 수 있으나, 네트워크 통신 모듈, 기지국 통신 모듈과 같은 원거리 방식으로도 구현 가능하다.
제어부(220)는 웨어러블 기기(200)의 전원공급 제어 등과 같은 전반적인 동작 및 웨어러블 기기(200)의 내부 구성 간의 신호 흐름을 제어하고 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 제어부(220)는 적어도 하나의 프로세서 또는 MCU를 포함할 수 있다.
제어부(220)는 카메라 모듈(240)의 활성화 여부를 결정하고 그에 따라 카메라 모듈(240)의 동작을 제어할 수 있다. 또한, 제어부(220)는 근거리 통신 모듈의 동작을 제어할 수 있는데, 일실시예에 따르면 제어부(220)는 기 설정된 임의의 시간 구간 내에서만 근거리 통신 모듈이 작동하도록 제어할 수 있다.
전자코드 스캔부(221)는 객체에 부착된 전자코드(100)를 스캔함에 따라 발생되는 정보를 수집할 수 있다. 스캔 방식은 레이저, RFID, 블루투스, 비콘, QR코드 등의 다양한 방식으로 스캔될 수 있으며 이러한 전자코드 스캔부(221)의 적어도 일부 구성은 통신 모듈(210)에 포함될 수도 있다.
저장부(230)는 제어부(220), 전자코드(100), 웨어러블 기기(200), 관리 서버(300), 사용자 단말기(400) 또는 이벤트 감지 시스템(10)의 다른 구성요소들로부터 수신되거나 생성된 데이터를 저장할 수 있다. 이러한 저장부(230)는 예를 들어, 메모리(memory), 캐시(cash), 버퍼(buffer) 등을 포함할 수 있으며, 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
카메라 모듈(240)은 웨어러블 기기(200)와 인접한 영역을 촬영하여 사용자 신체의 움직임 또는 객체 중 적어도 하나와 관련된 이미지 또는 동영상을 생성한다. 이러한 카메라 모듈(240)은 2D 또는 3D 카메라 장치를 포함할 수 있으며, 카메라의 렌즈를 회동시키거나 움직이게 하는 구동 수단(예: 액추에이터)을 포함할 수 있다.
일실시예에 따르면, 카메라 모듈(240)은 통신 모듈(210)을 통해 웨어러블 기기(200)가 객체를 인식한 경우에 활성화되거나, 웨어러블 기기(200)의 센서 모듈을 통해 사용자의 특정 행위가 감지된 경우 활성화될 수 있으나, 이에 한정하는 것은 아니며 다른 특수한 조건(예: 사용자가 임의로 활성화 기능 선택)에 의해 활성화 되는 것 또한 가능하다. 웨어러블 기기(200)가 사용자의 특정 행위를 감지하는 과정에 있어, 웨어러블 기기(200)는 근거리 통신 모듈이 객체를 인식할 때의 신호 세기를 기초로 사용자의 특정 행위를 감지할 수 있다. 웨어러블 기기(200)가 전자코드(100)를 이용하여 객체를 인식하는 경우를 예로 들어보면, 웨어러블 기기(200)와 전자코드(100) 간의 거리에 따라 신호 세기가 상이해질 수 있으므로 신호 세기를 기초로 웨어러블 기기(200)와 객체 간의 거리를 계산할 수 있다.
이를 위해, 도 2에는 도시되어 있지 않으나, 웨어러블 기기(200)는 상기와 같이 사용자의 특정 행위를 인식할 수 있는 센서 모듈을 더 포함할 수 있다. 센서 모듈은 물리량을 계측하거나 웨어러블 기기(200)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있는 적어도 하나의 포함할 수 있다. 이러한 센서 모듈은 예컨대, GPS 센서, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 근접 센서, 생체 센서(예: 홍채 센서, 지문 센서 등), 적외선 센서, 자외선 센서, 9축 센서 또는 조도 센서 중 적어도 하나를 포함할 수 있다.
전술한 도 2에서, 웨어러블 기기(200) 내에서 각각의 역할을 수행하는 주체들을 ~부 또는 ~모듈의 형태로 표시하였으나, 각각의 부분들은 웨어러블 기기(200)내에서 동작하는 서브 프로그램 모듈 또는 제어부(220)를 기능적으로 분류한 구성들일 수 있다. 이러한 프로그램 모듈들은 각 동작을 수행하거나, 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하는 개념이지만, 이에 제한되지는 않는다.
도 3은 본 발명의 일실시예에 따른 관리 서버(300)의 블록 구성도이다. 이러한 관리 서버(300)는 통신부(310), 제어부(320), 동작 판단부(330), 이벤트 발생 판단부(340) 및 저장부(350)를 포함할 수 있다.
통신부(310)는 관리 서버(300)가 웨어러블 기기(200), 사용자 단말기(400) 또는 외부 서버와 통신하여 관리 서버(300)의 동작에 필요한 정보를 송수신한 기능을 수행한다.
통신부(310)는 웨어러블 기기(200)가 근거리 통신 모듈을 통해 인식한 객체의 정보와, 카메라 모듈(240)을 통해 생성한 이미지 또는 동영상을 웨어러블 기기(200)로부터 수신할 수 있다.
또한, 통신부(310)는 이벤트 발생 판단부(340)에 의해 판단된 이벤트 발생 여부에 대한 정보를 사용자 단말기(400)로 전송할 수 있다.
본 발명의 일 실시예에 따르면 통신부(310)는 관리 서버(300)가 웨어러블 기기(200)와의 실시간 통신을 통해 웨어러블 기기(200)의 동작을 제어할 수도 있다.
제어부(320)는 관리 서버(300)의 전원공급 제어 등과 같은 전반적인 동작 및 웨어러블 기기(200)의 내부 구성 간의 신호 흐름을 제어하고 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 제어부(320)는 적어도 하나의 프로세서 또는 MCU를 포함할 수 있다.
동작 판단부(330)는 통신부(310)에 의해 수신된 객체 정보와, 이미지 또는 동영상을 토대로 미리 설정된 동작이 감지되는지 여부를 판단할 수 있다. 상세하게 살펴보면, 동작 판단부(330)는 객체 정보를 기초로 하여 해당 객체 또는 사용자 신체와 관련된 미리 설정된 동작이 감지되는지를 판단할 수 있으며, 이와 같은 판단은 기계학습 또는 인공지능을 기반으로 수행될 수 있다.
동작 판단부(330)는 객체 또는 사용자 신체와 관련된 미리 설정된 동작이 감지되는지를 판단함에 있어, 이미지 유사도 판별 기술을 기반으로 이미지 또는 동영상이 객체 또는 사용자 신체와 관련된 미리 설정된 동작과 대응되는지를 판단할 수 있다.
본 발명의 일실시예에 따르면 특정한 객체 또는 사용자 신체와 관련된 미리 설정된 동작은 객체 별로 상이하게 설정될 수 있다. 예를 들어, 제1 객체가 인식된 경우에는 제1 동작 및 제2 동작이 사용자 신체와 관련되어 미리 설정된 동작이 될 수 있으며, 제2 객체가 인식된 경우에는 제3 동작 및 제4 동작이 사용자 신체와 관련되어 미리 설정된 동작이 될 수 있다.
본 발명의 일실시예에 따르면, 본 발명에서 전자코드(100)를 통해 인식되는 객체는 의약품 관련 객체일 수 있으며, 미리 설정된 동작은 의약품 또는 의약품 섭취 행위와 관련된 상황일 수 있다. 예를 들어, 전자코드(100)를 통해 인식되는 객체는 의약품을 담고 있는 용기일 수 있으며, 이 경우 미리 설정된 동작은 의약품의 노출, 용기가 개방되는 상황, 의약품이 사용자의 손에 잡히는 상황, 의약품이 사용자의 입과 근접하는 상황 등을 포함할 수 있다.
이벤트 발생 판단부(340)는 특정 이벤트의 발생 여부를 판단하는 기능을 수행할 수 있다. 이벤트 발생 판단부(340)는 특정 이벤트의 발생 여부를 판단함에 있어, 동작 판단부(330)에 의해 감지된 미리 설정된 동작 각각에 대해 설정된 가중치를 종합하여 특정 이벤트의 발생 여부를 판단할 수 있다.
예를 들어, 동작 판단부(330)가 인식된 특정 객체에 대해 미리 설정된 동작인 제1 동작, 제2 동작 및 제3 동작이 감지되었다고 판단하는 경우, 이벤트 발생 판단부(340)는 제1 동작, 제2 동작 및 제3 동작에 미리 설정되어 있는 가중치값을 적용시켜 최종적인 연산을 통해 특정 이벤트의 발생 여부를 판단할 수 있다.
저장부(350)는 제어부(320), 웨어러블 기기(200), 사용자 단말기(400) 또는 이벤트 감지 시스템(10)의 다른 구성요소들로부터 수신되거나 생성된 데이터를 저장할 수 있다. 이러한 저장부(350)는 예를 들어, 메모리(memory), 캐시(cash), 버퍼(buffer) 등을 포함할 수 있으며, 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
저장부(350)는 동작 판단부(330)가 사용하는 기계학습 또는 인공지능 관련 데이터를 저장할 수 있으며, 이벤트 발생 판단부(340)가 생성한 특정 이벤트의 발생 여부 관련 데이터 또한 저장할 수 있다. 또한, 저장부(350)는 웨어러블 기기(200)와 사용자 단말기(400)의 정보를 저장하며, 특정 웨어러블 기기(200)가 어떠한 사용자 단말기(400)와 연관 있는 기기인지 여부를 저장할 수 있다.
이하의 도 4 내지 도 5에서는 상기 도 1 및 도 2와 같은 구성을 통해 웨어러블 기기(200)에서 객체를 감지하여 카메라 모듈로 이미지 또는 동영상을 생성하면 관리 서버(300)에서 정보를 수신하여 이벤트 발생 여부를 판단하는 동작을 구체적으로 설명하도록 한다. 도 4 내지 도 5의 각 단계들 중 적어도 일부는 생략되거나 상호 순서가 변경될 수 있다.
도 4는 본 발명의 일실시예에 따른 웨어러블 기기(200)에서 객체를 감지하고 이미지 또는 동영상을 생성하는 동작의 순서도이다.
사용자가 객체에 인접하게 되면, 웨어러블 기기(200)가 전자코드(100)를 인식할 수 있으며(S410), 웨어러블 기기(2000는 이와 같은 경우 사용자의 특정 행위를 감지할 수도 있다(S410).
웨어러블 기기(200)의 제어부(220)는 이후, 인식된 객체의 정보 또는 감지된 사용자의 행위 정보를 통해 카메라 모듈(240)의 활성화 여부를 결정할 수 있다(S420). 예를 들어, 센서 모듈을 통해 사용자가 반복적인 행동을 수행하고 있으며 그에 따라 객체가 반복하여 인식되고 있는 상황이라면 웨어러블 기기(200)는 이를 해당 객체에 대한 동작으로 판단하지 않고 카메라 모듈(240)을 활성화하지 않을 수 있다.
제어부(220)가 카메라 모듈(240)을 활성화하지 않기로 결정하게 되면, 웨어러블 기기(200)는 전자코드(100)의 인식 또는 특정행위 감지를 수행하는 상태로 돌아갈 수 있다.
이와 달리, 제어부(220)가 카메라 모듈(240)을 활성화하기로 결정하는 경우, 제어부(220)는 카메라 모듈(240)을 활성화하여 촬영을 통해 이미지 또는 동영상이 생성되도록 할 수 있다(S430).
이후, 제어부(220)는 기 정해진 일정 시간이 경과하였는지를 판단할 수 있으며(S440), 일정 시간이 경과한 경우에는 카메라 모듈(240)을 비활성화 상태로 제어할 수 있다(S450). 본 발명의 일실시예에 따르면 이와 같은 일정 시간은 카메라 모듈(240)이 활성화되는 시각부터 측정될 수도 있으며, 카메라 모듈(240)이 활성화 된 상태에서 웨어러블 기기(200)가 객체의 전자코드(100)를 인식하거나 사용자의 특정 행위를 추가적으로 감지하게 되면 측정되던 시간이 리셋되어 카메라 모듈(240)이 활성화되는 시간이 연장될 수도 있다.
카메라 모듈(240)이 비활성화 되고 나면, 웨어러블 기기(200)는 인식된 객체의 정보, 감지된 사용자의 특정 행위 정보 및 카메라 모듈(240)에 의해 생성된 이미지 또는 동영상을 관리 서버(300)로 전송할 수 있다(S460).
본 발명의 일실시예에 따르면, 웨어러블 기기(200)가 통신망에 접속하지 못한 상황에서는 인식된 객체의 정보, 감지된 사용자의 특정 행위 정보 및 카메라 모듈(240)에 의해 생성된 이미지 또는 동영상은 일시적으로 웨어러블 기기(200) 내의 저장부(230)에 저장될 수 있으며, 추후 웨어러블 기기(200)가 무선통신망에 연결되면 상기 나열된 각종 데이터들이 관리 서버(300)로 전송될 수 있다.
도 5는 본 발명의 일실시예에 따른 관리 서버(300)에서 웨어러블 기기(200)로부터 수신되는 정보를 관리하고 이를 통해 최종적으로 특정 이벤트가 발생하였는지를 판단하는 동작에 대한 순서도이다. 도 5 또한 도 4의 내용과 마찬가지로 적어도 일부 단계가 생략되거나 상호 순서가 변경될 수 있다.
관리 서버(300)는 도 4의 S460 단계에서 웨어러블 기기(200)가 객체 정보 및 사용자의 특정 행위와 함께, 이와 관련하여 생성된 이미지 또는 동영상을 전송하면, 이를 수신할 수 있다(S510).
이후, 관리 서버(300)는 수신한 이미지 또는 동영상 상에서 객체 또는 사용자 신체와 관련된 미리 설정된 동작이 감지되는지 여부를 기계학습 또는 인공지능을 기반으로 판단할 수 있다(S520).
관리 서버(300)는 S520 단계의 판단 결과, 해당 객체와 관련하여 미리 설정된 동작이 하나 이상 감지되었는지를 판단하여(S530), 미리 설정된 동작이 하나 이상 감지된 경우 이를 토대로 특정 이벤트의 발생 여부를 판단할 수 있다(S540). 관리 서버(300)는 특정 이벤트가 발생하였다고 판단한 경우에, 사용자 단말기(400)로 발생한 이벤트에 대한 정보를 전송할 수 있다(S560).
이하의 도 6 내지 도 7에서는 상기 도 1 및 도 2와 같은 구성을 통해 웨어러블 기기(200)에서 객체의 이벤트를 감지하는 동작을 구체적으로 설명하도록 한다. 도 6 내지 도 7을 통해 설명되는 실시예에서는 도 4 내지 도 5를 통해 설명된 것과는 상이하게, 동작 및 이벤트의 검출과 판단이 관리 서버(300)가 아닌 웨어러블 기기(200) 상에서 수행될 수 있다
도 6 내지 도 7의 각 단계들 중 적어도 일부는 생략되거나 상호 순서가 변경될 수 있다.
도 6은 본 발명의 일실시예에 따른 웨어러블 기기(200)에서 객체의 이벤트를 감지하는 동작의 순서도이다.
사용자가 객체에 인접하게 되면, 웨어러블 기기(200)가 전자코드(100)를 인식하여(S610), 웨어러블 기기(200)의 카메라 모듈(240)을 통해 객체의 영상 이미지를 수집하게 된다(S620). 예를 들어, 특정 약(medicine) 포장지에 전자코드가 기재되거나 부착되어 있고, 사용자가 웨어러블 밴드를 손목에 부착한 채 약 포장지를 잡게 되면, 웨어러블 밴드의 통신 모듈이 전자코드를 스캔하여 '약'이라는 객체를 인식하게 된다. 이에 따라, 웨어러블 기기(200)의 카메라 모듈(240)이 활성화되어 상기 약을 촬영함으로써 해당 영상 이미지를 수집한다.
그런 다음, 웨어러블 기기(200)는 로컬의 저장부(230) 또는 관리 서버(300)를 통해 상기 스캔된 객체(예: 약)에 대응하는 컨텐츠(예: 해당 약의 이미지)를 확인할 수 있고, 확인된 컨텐츠와 상기 촬영 또는 촬상을 통해 수집된 이미지를 비교하여 수집된 영상 이미지가 상기 확인된 컨텐츠에 매칭되는지를 판단한다(S630).
일실시예에 따르면, 이러한 S630 단계의 매칭 판단 동작은 이미지 유사도 판별 기술을 이용한 제1 판별 알고리즘을 통해 수행될 수 있다. 예를 들어, 제어부(220)는 촬영을 통해 수집된 영상과 스캔을 통해 확인된 영상의 색상과 질감등의 영역을 분할하고, 위치 정보와 색상 테이블 또는 객체 유사성에 기반한 매칭 작업 등을 통해 이미지 유사도를 판단할 수 있다. 이러한 제1 판별 알고리즘은 다양한 이미지 유사 판단 기술을 포함할 수 있으며 특정 기술을 한정하는 것은 아니다.
또한, 매칭되는지를 판단하는 방법은 상기 유사도 작업을 통해 도출된 유사도 수치값이 소정 임계값 이상인지 여부로 판단될 수 있다. 이러한 유사도 수치 값은 상기 이미지 유사도 판별 과정에서 도출될 수 있다. 유사도 수치 값이 소정 임계값 이상이라면, 제어부(220)는 촬영된 이미지와 전자코드 스캔에 따라 확인된 이미지가 매칭되는 것으로 판단할 수 있고, 이때의 시간 정보를 제1 시간정보로 기록할 수 있다(S640). 따라서, 이러한 제1 시간 정보는 특정 객체가 이벤트 발생을 모니터링하기 위한 객체인지를 확인한 시각 정보일 수 있다.
일실시예에 따르면, 제1 시간 정보는 예컨대, 이벤트 발생의 데이터 분석을 위한 메타 데이터로 사용될 수도 있으며, 사용자 패턴을 분석하는 정보로서 이용될 수도 있다. 한정되지 않는 예로서, 상기 제1 시간 정보와 후술할 제2 시간 정보와의 시간 차이가 소정 값 이상 차이나는 경우에는, 경우에 따라 제2 시간 정보를 에러 데이터로 판별할 수도 있다. 예컨대, 사용자가 약을 만졌지만, 몇 시간이 지난뒤에야 해당 약이 입에 가져가는 것으로 인식되었다면, 상기 인식된 약을 먹은 것으로 판단하기에는 오류가 발생할 수 있기 때문이다. 다만, 이러한 제1 시간 정보의 기록은 생략될 수도 있다.
또한, 제어부(220)는 상기 유사도 수치 값을 제1 판별 알고리즘의 확률 정보로서 산출할 수 있다. 이러한 제1 판별 알고리즘의 확률 정보는 후술할 유효한 이벤트인지를 확률적으로 판단하여 누적된 데이터에 대한 신뢰도를 확보하는데 이용될 수 있다.
한편, S630 단계에서의 매칭이 충족되지 않는다면, 도 3의 동작은 종료되거나 새로운 객체의 전자코드를 인식하도록 유휴상태에서 대기될 수 있다.
다음으로, 제어부(220)는 추가적으로 상기 객체에 대한 영상을 수집하고, 수집된 영상이 이벤트 조건을 충족하는지를 판단할 수 있다(S650). 일실시예에 따르면, 이벤트 조건은 상기 객체에 대하여 사용자 신체와 관련된 미리 설정된 동작이 감지되는지를 확인하는 조건일 수 있다. 예를 들어, 제어부(220)는 사용자가 꺼낸 약이 사용자 신체 중 일부인 입에 들어가는지를 확인할 수 있다. 이러한 확인 동작은 기계학습 또는 알고리즘을 기반으로 한 제2 판별 알고리즘을 적용하여 도출될 수 있다. 예컨대, 제어부(220)는 공지의 기계학습을 이용한 이미지 분석 기술등을 이용하여 '입'이라는 특정 신체를 인식하고, 상기 객체가 사용자의 입에 소정 거리 이내에 근접하는지를 수집되는 촬영 이미지를 통해 확인할 수 있다.
수집된 영상이 이벤트 조건을 충족한다면, 제어부(220)는 상기 영상이 수집된 시점을 제2 시간정보로 기록할 수 있다(S660). 예를 들어, 제어부(220)는 상기 약이 사용자 입에 들어가는 시점 또는 이와 소정 오차범위 내의 시점을 제2 시간정보로 기록할 수 있다. 이러한 제2 시간 정보는 바로 객체의 이벤트 발생 시각으로 결정될 수도 있으나, 특정 조건을 충족하는지 여부를 선판단한뒤 유효한 이벤트인지로 결정될 수 있다. 유효한 이벤트란, 사용자가 해당 객체에서 발생한 이벤트들 중 시간 정보로 기록하기 위해 임의로 선택된 이벤트를 의미할 수 있다.
또한, 제어부(220)는 상기와 같은 제2 판별 알고리즘을 통해 상기 사용자 신체와 관련된 미리 설정된 동작이 감지되었는지를 수치화된 값으로 도출할 수 있고, 이를 제2 판별 알고리즘의 확률 정보로 산출할 수 있다. 이러한 제2 판별 알고리즘의 확률 정보 또한, 전술한 제1 판별 알고리즘의 확률 정보와 마찬가지로 해당 객체에서 발생한 이벤트가 유효한 이벤트인지를 확률적으로 판단하는데 이용될 수 있다.
다음으로, 제어부(220)는 확률 정보를 기반으로 유효이벤트인지 여부를 최종적으로 결정할 수 있다(S670). 구체적으로, 제어부(220)는 제1 판별 알고리즘의 확률 정보와 제2 판별 알고리즘의 확률 정보를 합산하여 소정 값 이상이 되는 경우에 유효한 이벤트가 발생한 것으로 판단하고, 상기 제2 시간 정보를 유효이벤트 발생 시간으로 결정할 수 있다. 예컨대, 제어부(220)는 해당 객체가 모니터링의 대상 객체(예: 약)인지를 수치적으로 환산하고, 해당 객체가 소정 이벤트(예: 입에 근접하는 행위)가 발생하는지를 수치적으로 환산하여 이를 더 한 값이 소정값 이상인 경우에만 이를 유요한 이벤트로 판단할 수 있다.
이 경우, 제어부(220)는 제2 판별 알고리즘의 확률 정보에 제1 판별 알고리즘의 판별 정보보다 더 높은 가중치를 부과할 수 있다. 이벤트 발생 조건에 있어서, 실제 객체인지 여부보다는 해당 객체에 어떠한 움직임이 발생하였느냐가 더 중요한 요소일 수 있고, 이벤트 조건을 충족하는지 확인하는 과정에서 해당 객체에 대한 인식과정이 수반될 수도 있기 문이다. 다만, 상기와 같은 S670 단계는 생략되어, 단순히 상기 제2 시간정보를 유효이벤트 발생 시간으로 결정할 수 있다.
한편, 도 3에서 수집, 기록되거나 산출된 영상 이미지, 시간 정보, 확률 정보는 실시간으로, 주기적으로 또는 임의의 시점에 관리 서버(300)에 자동으로 전송될 수 있다. 관리 서버(300)는 수집된 정보들을 기반으로 사용자에게 다양한 방식으로 가이드(예: 알림)를 주거나, 데이터 분석을 통해 보다 개선된 정책을 수립하는데 정보를 제공할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 웨어러블 기기(200)에서 객체의 이벤트를 감지하는 동작의 순서도이다. 이러한 도 7의 내용 중 도 6의 내용과 중복되는 내용은 생략되거나 간략히 할 수 있다. 도 7 또한 도 6의 내용과 마찬가지로 적어도 일부 단계가 생략되거나 상호 순서가 변경될 수 있다.
도 7에서는, 일부 실시예에 따라 전술한 도 6의 S610 단계 대신 사용자의 특정 행위를 인식하는 것을 조건으로 카메라 모듈(240)을 활성화시킬 수 있다. 이를 위해, 제어부(220)는 센서 모듈, 카메라 모듈(240) 또는 통신 모듈(210)을 통해 사용자의 특정 행위를 감지할 수 있다(S710). 사용자의 특정 행위는 사용자 신체의 고유 움직임을 포함하며, 예컨대 음식을 먹을 때 웨어러블 기기(200)가 착용된 손이 음식을 입으로 가져가는 동작 등을 감지할 수 있다. 이 경우, 제어부(220)는 센서 모듈을 통해 사용자의 특정 행위를 인식할 수 있도록 미리 지정된 값에 해당하는 센서 값이 수집되거나, 또는 수집된 센서 값을 분석하여 특정 패턴에 해당하는 경우 인식되는 것으로 설정할 수 있으나 이에 한정하는 것은 아니다.
상기와 같이 사용자의 특정 행위가 감지되면, 제어부(220)는 카메라 모듈(240)을 활성화하여 영상 이미지를 수집하고(S720), 이후 도 3의 내용과 동일 또는 유사하게 객체의 이미지 확인 작업(S730)과 이벤트 조건 충족 작업(S740)을 거쳐 시간정보를 기록할 수 있다(S750). 도 6과 같이 시간 정보를 제1 시간 정보와 제2 시간 정보로 구분한 기능과, 확률 정보를 기반으로 유효 이벤트를 결정하는 기능은 도 7에서 생략될 수 있으나, 이와 달리 도 6에서 전술한 내용이 동일하게 수행될 수도 있다.
전술한 도 1 내지 도 7의 실시예를 통해, 웨어러블 기기(200)에 의해 특정 이벤트 발생 여부와 발생 시간이 기록됨으로써, 헬스케어와 같은 분야에서 누락되기 쉬운 사용자의 이벤트를 감지하여 보다 효율적인 가이드 시스템이 제공될 수 있으며, 사용자 패턴 등을 학습하여 데이터 분석이 가능한 시스템을 구현할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
Claims (1)
- 사용자 신체에 착용 가능한 웨어러블 기기로서,
사용자 신체와 소정 영역내에 위치한 객체를 자동으로 인식하는 근거리 통신 모듈;
상기 웨어러블 기기와 인접한 영역을 촬영하여 사용자 신체의 움직임 또는 상기 객체 중 적어도 하나와 관련된 이미지 또는 동영상을 생성하는 카메라 모듈;
상기 근거리 통신 모듈을 통해 인식된 객체 정보를 기초로 카메라 모듈의 활성화 여부를 자동으로 결정하는 제어부; 및
상기 근거리 통신 모듈을 통해 인식한 객체에 대한 정보 및 상기 카메라 모듈을 통해 생성된 이미지 또는 동영상을 관리 서버로 전송하는 통신 모듈을 포함하며,
상기 제어부는,
상기 카메라 모듈이 활성화된 이후 기 설정된 임의의 시간 내에서만 상기 카메라 모듈의 활성화 상태가 유지되도록 하며, 상기 기 설정된 임의의 시간이 경과한 경우에는 상기 카메라 모듈을 비활성화 상태로 제어하며,
상기 객체에 대한 정보와 상기 카메라 모듈을 통해 생성된 이미지 또는 동영상이 매칭되는 시간 정보를 제1 시간 정보로 기록하고,
상기 객체에 대하여 사용자 신체와 관련된 미리 설정된 동작이 감지되는 시점을 제2 시간 정보로 기록하며,
상기 제1 시간 정보와 상기 제2 시간 정보와의 시간 차이가 소정 값 이상 차이나는 경우 상기 제2 시간 정보를 에러 데이터로 판별하고,
상기 제2 시간 정보는 특정 조건을 충족하여 유효한 이벤트로 결정되는 경우 시간 정보로 기록되는, 웨어러블 기기.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020217035878A KR102544391B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20180049765 | 2018-04-30 | ||
KR1020180049765 | 2018-04-30 | ||
KR1020197023063A KR102168975B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
PCT/KR2019/001118 WO2019212122A1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용한 객체의 이벤트 감지 방법 및 이를 운용하는 관리 서버 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197023063A Division KR102168975B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217035878A Division KR102544391B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200138754A true KR20200138754A (ko) | 2020-12-10 |
KR102323609B1 KR102323609B1 (ko) | 2021-11-09 |
Family
ID=68386033
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217035878A KR102544391B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
KR1020197023063A KR102168975B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
KR1020207029786A KR102323609B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217035878A KR102544391B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
KR1020197023063A KR102168975B1 (ko) | 2018-04-30 | 2019-01-25 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11405594B2 (ko) |
JP (1) | JP7098192B2 (ko) |
KR (3) | KR102544391B1 (ko) |
CN (1) | CN112042181B (ko) |
WO (1) | WO2019212122A1 (ko) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102544391B1 (ko) | 2018-04-30 | 2023-06-16 | 이휘원 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
WO2020226431A1 (ko) | 2019-05-07 | 2020-11-12 | 인핸드플러스 주식회사 | 카메라 모듈 및 무선통신 장치를 활용하여 이벤트 감지를 수행하는 웨어러블 기기 |
KR102344449B1 (ko) * | 2020-08-19 | 2021-12-29 | 인핸드플러스 주식회사 | 약물 이행 모니터링 시스템 및 이를 이용하는 장치 |
KR20220140221A (ko) * | 2021-04-09 | 2022-10-18 | 삼성전자주식회사 | 복수의 카메라를 포함하는 웨어러블 전자 장치 |
KR102336545B1 (ko) * | 2021-05-18 | 2021-12-07 | 황규성 | 무선 통신 시스템에서 배달 라이더를 이용하여 사고 영상 데이터를 획득하기 위한 방법 및 장치 |
EP4418006A1 (en) * | 2021-11-12 | 2024-08-21 | Samsung Electronics Co., Ltd. | Signal control method and wearable device supporting same |
CN114550465B (zh) * | 2022-04-26 | 2022-07-08 | 四川北斗云联科技有限公司 | 一种危险品运输车的高速公路管理系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016091567A (ja) * | 2014-11-05 | 2016-05-23 | ハンド ヘルド プロダクツ インコーポレーティッド | 内蔵カメラ付きウェアラブルデバイスを用いたバーコード読取システム |
KR20160108051A (ko) * | 2015-03-06 | 2016-09-19 | 삼성전자주식회사 | 웨어러블 전자 장치 및 그 제어 방법 |
KR20160120131A (ko) * | 2015-04-07 | 2016-10-17 | 엘지전자 주식회사 | 웨어러블 단말기 및 이와 무선 통신하는 디스플레이 장치 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004280376A (ja) | 2003-03-14 | 2004-10-07 | Japan Science & Technology Agency | 被写体の行動認識方法及び装置 |
US9907473B2 (en) | 2015-04-03 | 2018-03-06 | Koninklijke Philips N.V. | Personal monitoring system |
US20080283542A1 (en) * | 2007-05-18 | 2008-11-20 | Priyadarsini Lanka | Apparatus for smart medical care |
KR101903407B1 (ko) * | 2011-09-08 | 2018-10-02 | 엘지전자 주식회사 | 원격 건강 관리 솔루션에서 비디오를 기반으로 한 헬스 케어 시스템 및 헬스 케어 서비스 제공방법 |
CN103345590B (zh) * | 2013-07-22 | 2016-05-25 | 电子科技大学 | 一种基于rfid的感染控制质量事件快速定位与追溯方法 |
JP6096654B2 (ja) | 2013-12-27 | 2017-03-15 | レノボ・シンガポール・プライベート・リミテッド | 画像の記録方法、電子機器およびコンピュータ・プログラム |
KR102135586B1 (ko) * | 2014-01-24 | 2020-07-20 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
CA2898078C (en) | 2014-02-05 | 2020-09-15 | Grace Castillo Soyao | Systems, devices, and methods for analyzing and enhancing patient health |
JP2015197803A (ja) | 2014-04-01 | 2015-11-09 | キヤノン株式会社 | 行動記録装置、行動記録方法及びプログラム |
US9679113B2 (en) | 2014-06-11 | 2017-06-13 | Aic Innovations Group, Inc. | Medication adherence monitoring system and method |
JP6460105B2 (ja) | 2014-06-30 | 2019-01-30 | パナソニックIpマネジメント株式会社 | 撮影方法、撮影システムおよび端末装置 |
KR101661555B1 (ko) | 2014-07-14 | 2016-10-04 | 넥시스 주식회사 | 비콘을 이용한 글라스형 웨어러블 디바이스의 카메라 기능 제한방법 및 프로그램 |
US9390610B2 (en) | 2014-07-23 | 2016-07-12 | Ncr Corporation | Techniques for determining movement of a device away from a preferred location |
KR20160071013A (ko) * | 2014-12-11 | 2016-06-21 | 엘지전자 주식회사 | 글래스 타입의 이동 단말기 및 그 제어방법 |
US10395764B2 (en) | 2015-01-06 | 2019-08-27 | Aic Innovations Group, Inc. | Method and apparatus for recognition of patient activity |
US10441214B2 (en) | 2015-01-29 | 2019-10-15 | Kali Care, Inc. | Monitoring adherence to a medication regimen using a sensor |
KR102304693B1 (ko) | 2015-02-12 | 2021-09-28 | 삼성전자주식회사 | 카메라 시스템의 제어 방법, 전자 장치 및 저장 매체 |
US10025908B1 (en) * | 2015-02-25 | 2018-07-17 | Leonardo Y. Orellano | Medication adherence systems and methods |
KR20160104288A (ko) * | 2015-02-26 | 2016-09-05 | 엘지전자 주식회사 | 모바일 디바이스와 연동하여 식사 여부를 판단하는 웨어러블 디바이스 및 그 제어 방법 |
US10319473B2 (en) | 2015-04-20 | 2019-06-11 | Kali Care, Inc. | Wearable system for healthcare management |
KR102101917B1 (ko) | 2015-06-03 | 2020-04-17 | 누비젠 | 센서-기반 투약 시스템들 |
WO2017004505A1 (en) * | 2015-07-01 | 2017-01-05 | Casey Lewis | Methods and systems for medication compliance monitoring and notification |
KR102423830B1 (ko) | 2015-11-10 | 2022-07-22 | 삼성전자주식회사 | 웨어러블 장치 및 그 제어 방법 |
KR101765722B1 (ko) * | 2016-01-12 | 2017-08-08 | 소프트온넷(주) | 인지형 차량 및 인상착의 객체 및 이벤트 인식, 추적, 검색, 예측을 위한 나레이티브 보고서 작성 시스템 및 방법 |
JP2017169732A (ja) | 2016-03-23 | 2017-09-28 | セイコーエプソン株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR101971695B1 (ko) | 2016-04-01 | 2019-04-25 | 한국전자통신연구원 | 복약 모니터링 장치 및 방법 |
US20170300659A1 (en) * | 2016-04-18 | 2017-10-19 | LuminX Corporation | Apparatus and method for monitoring patient use of medication |
KR101798890B1 (ko) * | 2016-07-14 | 2017-11-17 | 네이버 주식회사 | 일상 생활 습관의 행동 요소를 활용한 웨어러블 디바이스 사용자 인증 방법 및 그 시스템 |
KR20180028701A (ko) * | 2016-09-09 | 2018-03-19 | 엘지전자 주식회사 | 휴대용 카메라 및 그 제어방법 |
EP3321844B1 (en) | 2016-11-14 | 2021-04-14 | Axis AB | Action recognition in a video sequence |
US10524726B2 (en) * | 2016-11-17 | 2020-01-07 | Biointellisense, Inc. | Medication adherence and/or counterfeit detection wearable electronic device |
KR101986002B1 (ko) | 2017-01-17 | 2019-06-04 | 경북대학교 산학협력단 | 행동-인식 연결 학습 기반 의도 이해 장치, 방법 및 그 방법을 수행하기 위한 기록 매체 |
US11687800B2 (en) | 2017-08-30 | 2023-06-27 | P Tech, Llc | Artificial intelligence and/or virtual reality for activity optimization/personalization |
KR102053537B1 (ko) | 2017-12-07 | 2019-12-10 | 주식회사 라이너스 | 복약 관리 방법 및 장치 |
KR102112757B1 (ko) | 2018-04-27 | 2020-05-20 | 주식회사 라이너스 | 환자 관리 방법 및 시스템 |
KR102544391B1 (ko) | 2018-04-30 | 2023-06-16 | 이휘원 | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 |
KR101949102B1 (ko) | 2018-10-08 | 2019-02-18 | 박기준 | 복약 보조 시스템 및 이를 이용한 복약 보조 방법 |
KR20200080047A (ko) | 2018-12-26 | 2020-07-06 | 삼성전자주식회사 | 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기 |
-
2019
- 2019-01-25 KR KR1020217035878A patent/KR102544391B1/ko active IP Right Grant
- 2019-01-25 WO PCT/KR2019/001118 patent/WO2019212122A1/ko active Application Filing
- 2019-01-25 KR KR1020197023063A patent/KR102168975B1/ko active IP Right Grant
- 2019-01-25 JP JP2020560911A patent/JP7098192B2/ja active Active
- 2019-01-25 CN CN201980029139.XA patent/CN112042181B/zh active Active
- 2019-01-25 KR KR1020207029786A patent/KR102323609B1/ko active IP Right Grant
- 2019-01-25 US US17/051,436 patent/US11405594B2/en active Active
-
2022
- 2022-06-28 US US17/851,073 patent/US11695903B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016091567A (ja) * | 2014-11-05 | 2016-05-23 | ハンド ヘルド プロダクツ インコーポレーティッド | 内蔵カメラ付きウェアラブルデバイスを用いたバーコード読取システム |
KR20160108051A (ko) * | 2015-03-06 | 2016-09-19 | 삼성전자주식회사 | 웨어러블 전자 장치 및 그 제어 방법 |
KR20160120131A (ko) * | 2015-04-07 | 2016-10-17 | 엘지전자 주식회사 | 웨어러블 단말기 및 이와 무선 통신하는 디스플레이 장치 |
Also Published As
Publication number | Publication date |
---|---|
US11695903B2 (en) | 2023-07-04 |
JP2021520569A (ja) | 2021-08-19 |
KR102544391B1 (ko) | 2023-06-16 |
KR102168975B1 (ko) | 2020-10-22 |
WO2019212122A1 (ko) | 2019-11-07 |
US20210058590A1 (en) | 2021-02-25 |
KR102323609B1 (ko) | 2021-11-09 |
US11405594B2 (en) | 2022-08-02 |
KR20210134441A (ko) | 2021-11-09 |
CN112042181A (zh) | 2020-12-04 |
CN112042181B (zh) | 2023-04-11 |
KR20190126773A (ko) | 2019-11-12 |
JP7098192B2 (ja) | 2022-07-11 |
US20220329764A1 (en) | 2022-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102168975B1 (ko) | 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버 | |
US11257223B2 (en) | Systems and methods for user detection, identification, and localization within a defined space | |
US7971156B2 (en) | Controlling resource access based on user gesturing in a 3D captured image stream of the user | |
EP2534554B1 (en) | Input command | |
US11647167B2 (en) | Wearable device for performing detection of events by using camera module and wireless communication device | |
EP3761222B1 (en) | Living body detection method and apparatus, electronic device, storage medium and related system using living body detection method | |
US10475310B1 (en) | Operation method for security monitoring system | |
CN110546596A (zh) | 一种视线跟踪方法及用于执行所述方法的终端 | |
Bâce et al. | Accurate and robust eye contact detection during everyday mobile device interactions | |
CN104205013A (zh) | 信息处理装置、信息处理方法以及程序 | |
KR20140087062A (ko) | 하이브리드 인식 기술을 이용한 전사적 인적자원 관리 시스템 및 방법 | |
US12080141B2 (en) | System and method for detecting and confirming fall events | |
KR102480468B1 (ko) | 사용자가 착용한 제품의 정보를 제공하기 위한 장치 및 이를 위한 방법 | |
JP6741877B2 (ja) | タグ情報を用いた物品管理システム | |
JP6710817B2 (ja) | 笑顔伝染判定システム、笑顔伝染判定方法及びプログラム | |
CN108875554A (zh) | 人证核验的方法、装置、系统及计算机存储介质 | |
Bauer et al. | User independent, multi-modal spotting of subtle arm actions with minimal training data | |
CN115050062A (zh) | 身份识别方法及装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |