KR20180111859A - 지능로봇 웨이크업 방법 및 지능로봇 - Google Patents

지능로봇 웨이크업 방법 및 지능로봇 Download PDF

Info

Publication number
KR20180111859A
KR20180111859A KR1020187024148A KR20187024148A KR20180111859A KR 20180111859 A KR20180111859 A KR 20180111859A KR 1020187024148 A KR1020187024148 A KR 1020187024148A KR 20187024148 A KR20187024148 A KR 20187024148A KR 20180111859 A KR20180111859 A KR 20180111859A
Authority
KR
South Korea
Prior art keywords
information
facial
intelligent robot
face
wake
Prior art date
Application number
KR1020187024148A
Other languages
English (en)
Inventor
밍시우 천
Original Assignee
위토우 테크놀로지 (항저우) 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 위토우 테크놀로지 (항저우) 씨오., 엘티디. filed Critical 위토우 테크놀로지 (항저우) 씨오., 엘티디.
Publication of KR20180111859A publication Critical patent/KR20180111859A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 지능 설비 기술분야에 관한 것으로, 특히, 지능로봇 웨이크업 방법 및 지능로봇에 관한 것이다. 본 발명은, 상기 지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1; 상기 이미지 정보 내에 안면 정보가 존재하는 여부를 판단해 존재하지 않으면 단계S1로 돌아가는 단계 S2; 상기 안면 정보의 다수개 특징적 정보를 수집하고 상기 특징적 정보에 근거하여 상기 안면 정보가 상기 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단하며 상기 안면 정보가 상기 정면 안면인 것이 판정되면 단계S4로 넘어가는 단계 S3과; 상기 지능로봇을 깨우고 퇴출하는 단계 S4를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법을 제공한다. 본 발명에 따른 지능로봇 웨이크업 방법은 사용자가 어떠한 동작도 하지 않고 지능로봇을 깨울 수 있는 조작방법을 제공함으로써 사용자가 지능로봇을 깨우는 조작 복잡도를 낮추고 사용자의 사용 체험 효과를 향상시킨다.

Description

지능로봇 웨이크업 방법 및 지능로봇
본 발명은 지능 설비 기술분야에 관한 것으로, 특히, 지능로봇 웨이크업 방법 및 지능로봇에 관한 것이다.
종래기술에서 지능로봇에 대한 조작은 통상 아래 몇 가지가 포함된다.
1)입력 설비가 장착된 지능로봇은 대응되는 입력 설비로 명령을 입력한다. 예를 들면, 외장 키보드, 자체에 구비된 터치스크린 또는 기타 원격조종 입력 설비 등을 통하여 제어 명령을 입력하여 지능로봇이 대응 조작을 실행하도록 제어한다.
2)일부 지능로봇은 음성 입력 방식으로 제어한다. 지능로봇은 내장된 음성 인식 모델에 의하여 입력된 음성을 인식하고 대응되는 조작을 실행한다.
3)마찬가지로, 일부 지능로봇은 제스처방식으로 제어한다. 지능로봇은 내장된 제스처 인식 모델에 의하여 상기 제스처를 인식하고 대응되는 조작을 실행한다.
상술한 설정을 바탕으로, 일반 지능로봇에 대하여 웨이크업 조작을 실행할 때 통상적으로 상술한 몇 가지 방식으로 진행되는데, 비교적 흔하게는 특정 음성 문구(예를 들면, 사용자가 지능로봇에게 "안녕하세요" 등과 같이 지정된 문구로 말을 함)를 입력하거나 또는 특정 제스처(예를 들면, 사용자가 지능로봇에게 손흔들기 등과 같이 지정된 손짓을 함)로 지능로봇을 깨운다. 하지만 제스처 방식에 의한 웨이크업 조작이든 음성에 의한 웨이크업 조작이든지를 막론하고 모두 사용자가 일정한 행동을 취하여야 한다. 사용자가 어떠한 몸짓도 하지 않거나 어떠한 음성도 들려주지 않으면 지능로봇의 웨이크업 조작을 작동시킬 수 없다. 이로부터 알 수 있다 시피, 종래기술에 따른 지능로봇 웨이크업 조작은 비교적 번거럽고 사용자의 사용 체험 효과가 떨어진다.
종래기술의 상술한 문제점을 해결하기 위하여, 본 발명은 지능로봇 웨이크업 방법 및 지능로봇에 관한 기술적 방안을 제공하는데, 사용자가 어떠한 동작도 하지 않고 지능로봇을 깨울 수 있는 조작방법을 제공함으로써 사용자가 지능로봇을 깨우는 조작 복잡도를 낮추고 사용자의 사용 체험 효과를 향상시킨다.
본 발명의 상술한 목적에 달성하기 위하여, 본 발명은,
상기 지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1;
상기 이미지 정보 내에 안면 정보가 존재하는 여부를 판단해 존재하지 않으면 단계S1로 돌아가는 단계 S2;
상기 안면 정보의 다수개 특징적 정보를 수집하고 상기 특징적 정보에 근거하여 상기 안면 정보가 상기 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단하며 상기 안면 정보가 상기 정면 안면인 것이 판정되면 단계S4로 넘어가는 단계 S3과;
상기 지능로봇을 깨우고 퇴출하는 단계 S4를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법을 제공한다.
바람직하게, 상기 지능로봇 웨이크업 방법에서 상기 단계 S2는 안면감지기로 상기 안면 정보 내에 상기 안면 정보가 존재하는 여부를 판단한다.
바람직하게, 상기 지능로봇 웨이크업 방법에서 상기 단계 S2는 상기 이미지 정보에 상기 안면 정보가 존재하는 것이 판정되면 상기 안면 정보와 관련되는 위치 정보와 사이즈 정보를 취득한다.
상기 단계 S3은 상세하게,
사전 교육으로 형성된 특징적 예측 모델을 이용하고 상기 위치 정보와 상기 사이즈 정보에 근거하여 상기 안면 정보 중의 다수개 특징적 요소를 취득하는 단계 S31;
다수개 상기 특징적 정보에 근거하여 상기 안면 정보 중 각 부위의 윤곽 정보를 확정하는 단계 S32;
상기 안면 정보 중의 코 중심으로부터 왼쪽 눈 중심까지 제1거리와 코 중심으로부터 오른쪽 눈 중심까지 제2거리를 취득하는 단계 S33;
상기 제1거리와 상기 제2거리 사이의 차이값이 하나의 미리 설정한 차이값 범위 내에 포함되는 여부를 판단함으로써, 옳으면 상기 안면 정보가 상기 정면 안면을 표현하는 것을 판단한 다음 상기 단계 S4로 넘어가고, 아니면 상기 안면 정보가 상기 정면 안면을 표현하지 않는 것을 판단한 다음 상기 단계 S1로 돌아가는 단계 S34를 포함한다.
바람직하게, 상기 지능로봇 웨이크업 방법은 상기 단계 S3를 실행한 후 상기 안면 정보에 상기 정면 안면이 포함된 것이 판정되면 먼저 하나의 머문 시간 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행한다.
상기 머문 시간 판단 단계는 상세하게,
상기 안면 정보를 계속 추적해 수집하고 상기 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1;
상기 정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과한 여부를 판단해 옳으면 단계 S4로 넘어가고, 아니면 상기 단계 S1로 돌아가는 단계 A2를 포함한다.
바람직하게, 상기 지능로봇 웨이크업 방법에서 상기 단계 S2는 상기 이미지 정보에 상기 안면 정보가 존재하는 것으로 판정되면 상기 안면 정보와 관련된 위치 정보와 사이즈 정보를 기록한다.
상기 단계 A2를 실행한 후, 상기 정면 안면이 지속된 시간이 상기 제1한계값을 초과하는 것으로 판정되면 먼저 하나의 거리 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행한다.
상기 거리 판단 단계는 상세하게,
상기 사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 옳으면 상기 단계 S4로 넘어가고 아니면 상기 단계 S1로 돌아가는 단계 B1를 포함한다.
바람직하게, 상기 지능로봇 웨이크업 방법에서,
상기 단계 S2는 상기 이미지 정보에 상기 안면 정보가 존재하는 것이 판정되면 상기 안면 정보와 관련되는 위치 정보와 사이즈 정보를 기록하며;
상기 단계 S3를 실행한 후, 상기 안면 정보에 상기 정면 안면이 포함된 것이 판정되면 먼저 하나의 거리 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행하며;
상기 거리 판단 단계는 상세하게, 상기 사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 옳으면 상기 단계 S4로 넘어가고, 아니면 상기 단계 S1로 돌아가는 단계 B1을 포함한다.
바람직하게, 상기 지능로봇 웨이크업 방법은 상기 단계 B1을 실행한 후 상기 사이즈 정보가 상기 제2한계값보다 작지 않은 것으로 판정되면 먼저 하나의 머문 시간 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행하는데;
상기 머문 시간 판단 단계는 상세하게,
상기 안면 정보를 계속 추적해 수집하고 상기 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1과, 상기 정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과한 여부를 판단해 옳으면 단계 S4로 넘어가고, 아니면 상기 단계 S1로 돌아가는 단계 A2를 포함한다.
바람직하게, 상기 지능로봇 웨이크업 방법에서 상기 제1한계값은 2초다.
바람직하게, 상기 지능로봇 웨이크업 방법에서 상기 제2한계값은 400픽셀이다.
지능로봇에 상기 지능로봇 웨이크업 방법을 사용한다.
본 발명에 따른 지능로봇 웨이크업 방법은 사용자가 어떠한 동작도 하지 않고 지능로봇을 깨울 수 있는 조작방법을 제공함으로써 사용자가 지능로봇을 깨우는 조작 복잡도를 낮추고 사용자의 사용 체험 효과를 향상시킨다.
도 1은 본 발명에 따른 바람직한 실시예 중 지능로봇 웨이크업 방법의 총체적 흐름도다.
도 2는 본 발명에 따른 바람직한 실시예에서 안면 정보가 정면 안면인 여부를 판단하는 단계의 예시도다.
도 3은 본 발명에 따른 바람직한 실시예에서 머문 시간 판단 단계를 포함한 지능로봇 웨이크업 방법의 흐름도다.
도 4 내지 도 5는 본 발명에 따른 바람직한 실시예에서 머문 시간 판단 단계와 거리 판단 단계를 포함한 지능로봇 웨이크업 방법의 흐름도다.
도 6은 본 발명에 따른 바람직한 실시예에서 거리 판단 단계를 포함한 지능로봇 웨이크업 방법의 흐름도다.
이하, 본 발명에 따른 실시예 중의 도면과 결합하여 본 발명에 따른 실시예의 기술방안을 명확, 완벽하게 서술한다. 서술한 실시예가 본 발명의 일 실시예일 뿐으로서 전부 실시예가 아닌 것은 자명하다. 본 발명 기술분야의 통상적인 지식인들이 본 발명의 실시예에 근거하여 창조적 노력을 거치지 않고 도출한 모든 기타 실시예는 모두 본 발명의 보호범위에 포함된다는 것을 이해해야 할 것이다.
보다 상세하게, 모순되지 않는 상황에서 본 발명에 따른 실시예와 실시예 중의 특징은 서로 조합할 수 있다.
이하, 도면 및 구체 실시예와 결합하여 본 발명을 보다 상세하게 설명하는데, 이는 본 발명에 대한 한정이 아닌 것으로 간주되어야 한다.
종래기술에 존재하는 상술한 문제점을 해결하기 위하여, 도 1에 도시된 바와 같이, 본 발명에 따른 바람직한 실시예가 제공하는 지능로봇 웨이크업 방법은, 보다 상세하게,
지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1;
이미지 정보 내에 안면 정보가 존재하는 여부를 판단해 존재하지 않으면 단계 S1로 돌아가는 단계 S2;
안면 정보 중의 다수개 특징적 정보를 수집해 특징적 정보에 근거하여 안면 정보가 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단하고 안면 정보가 정면 안면을 표현하는 것으로 판정되면 단계 S4로 넘어가는 단계 S3과;
지능로봇을 깨우고 퇴출하는 단계 S4를 포함한다.
일 구체 실시예에서, 상기 단계 S1의 이미지 수집 장치는 지능로봇에 설치된 카메라로서, 즉, 지능로봇에 설치된 카메라를 이용하여 그 포착 영역 내에 위치한 이미지 정보를 수집하려 시도한다.
그 다음, 일정한 판단 규칙에 근거하여 상기 수집된 상기 이미지 정보에 안면 정보가 존재하는 여부를 판단한다. 보다 상세하게, 사전 교육으로 형성된 안면감지기를 사용하여 상기 이미지 정보에 안면 정보가 존재하는 여부를 판단한다. 안면감지기는 사실 사전 교육으로 형성된 안면 감지 모델일 수 있으며, 사전에 입력된 다수개 안면 교육 견본을 바탕으로 여러번 반복적으로 습득하여 상기 감지 모델을 형성하고 상기 감지 모델을 실제 이미지 정보 감지에 운용함으로써 이미지 정보에 안면 표현에 사용되는 안면 정보가 포함된 여부를 감지한다. 상기 단계에서, 안면정보는 정면 안면을 표현하는 안면 정보를 포함할 수 있고 측면 안면 또는 일부 안면을 표현하는 안면 정보를 포함할 수도 있는데, 이러한 감지 표준은 상기 미리 입력한 교육 견본을 바탕으로 안면감지기의 생성 내용을 제어해 구현된다. 교육 견본을 바탕으로 반복적으로 습득해 안면감지기를 형성하는 과정은 종래기술에 이미 비교적 다양하게 공지된 구현방법이므로 여기에서 더 상세히 설명하지 않는다.
상기 실시예에서, 상기 이미지 정보에 어떠한 안면 정보도 존재하지 않는 것으로 판정되면 상기 단계 S1로 돌아가 계속 이미지 수집 장치를 이용하여 이미지 정보를 수집하며, 상기 이미지 정보에 안면 정보가 존재하는 것으로 판정되면 단계 S3으로 넘어 간다. 상기 단계 S3는 안면 정보 중의 다수개 특징적 정보를 수집하여 상기 안면 정보가 하나의 이미지 수집 장치에 대향되는 정면 안면를 표현하는 여부를 판단하는데, 옳으면 단계 S4로 넘어가 감지된 정면 안면에 의하여 상기 지능로봇을 깨우고(즉, 그 당시 사용자가 의도적으로 지능로봇을 조작하는 것을 판단함), 아니면 상기 단계 S1로 돌아가 계속 이미지 수집 장치를 이용하여 이미지 정보를 수집하고 계속 안면 정보를 판단한다.
따라서, 본 발명의 기술방안은 사용자가 지능로봇에 대향되는 이미지 수집 장치(예를 들면, 카메라)를 제공하는 방식으로 지능로봇을 깨우고 조작함으로써 종래기술이 음성 또는 손짓 등 입력방식을 사용해야 지능로봇 웨이크업을 실행할 수 있는 문제점을 해결하였다.
본 발명의 바람직한 실시예에서,
상기 단계 S2는 이미지 정보에 안면 정보가 존재하는 것으로 판정되면 안면 정보와 관련되는 위치 정보와 사이즈 정보를 취득하며;
상기 단계 S3는 도 2에 도시된 바와 같이 상세하게,
사전 교육으로 형성된 특징적 예측 모델을 이용하고 위치 정보와 사이즈 정보에 근거하여 안면 정보 중의 다수개 특징적 요소를 취득하는 단계 S31;
다수개 특징적 정보에 근거하여 안면 정보 중 각 부위의 윤곽 정보를 확정하는 단계 S32;
안면 정보 중의 코 중심으로부터 왼쪽 눈 중심까지 제1거리와 코 중심으로부터 오른쪽 눈 중심까지 제2거리를 취득하는 단계 S33;
제1거리와 상기 제2거리 사이의 차이값이 하나의 미리 설정한 차이값 범위 내에 포함되는 여부를 판단함으로써, 옳으면 안면 정보가 정면 안면을 표현하는 것으로 판정해 단계 S4로 넘어가고, 아니면 안면 정보가 정면 안면을 표현하지 않는 것으로 판정해 단계 S1로 돌아가는 단계 S34를 포함한다.
상세하게, 본 발명에 따른 바람직한 실시예에서 상기 단계 S2는 이미지 정보에 안면 정보가 존재한다는 것으로 판정되면 상기 안면 정보를 취득하는 동시에 상기 안면 정보의 위치 정보와 사이즈 정보도 취득한다.
위치 정보는 상기 안면 정보가 표현하는 안면이 이미지 정보에서 자리잡고 있는 위치, 예를 들면, 이미지 정중앙 위치, 또는 이미지 왼쪽 위측 위치, 또는 이미지 오른쪽 아래측 위치 등을 가리킨다.
사이즈 정보는 상기 안면 정보가 표현하는 안면의 사이즈를 가리키는데, 통상즉으로 픽셀로 표시한다.
상기 단계 S31 내지 단계 S32에서, 먼저 사전 교육으로 형성된 특징적 예측 모델을 이용해 상기 안면 정보와 관련된 위치 정보 및 사이즈 정보를 바탕으로 안면 정보 중의 다수개 특징적 요소를 수집하고, 더 나아가, 수집된 특징적 요소에 근거하여 안면 정보 중 각 부위의 윤곽 정보를 확정한다. 특징적 예측 모델은 상술한 바와 같이, 사전에 다수개 교육 견본을 입력, 습득해 형성한 예측 모델일 수 있는데, 안면의 68 개 특징적 요소를 바탕으로 수집, 예측해 안면의 눈섭, 눈, 코, 입 및 얼굴 전체 윤곽 등 정보를 얻음으로써 안면의 대체적 윤곽을 그려 낸다.
다음, 본 발명에 따른 바람직한 실시예에서, 상기 단계 S33는 상기 윤곽 정보를 바탕으로 각각 코 중심 위치, 왼쪽 눈 중심 위치와 오른쪽 눈 중심 위치를 확보함으로써 코 중심으로부터 왼쪽 눈 중심 까지의 거리를 계산해 제1거리를 얻고 코 중심으로부터 오른쪽 눈 중심 까지의 거리를 계산해 제2거리를 얻는다. 그 다음, 상기 제1거리와 제2거리 사이의 차이값을 계산해 상기 차이값이 하나의 사전에 설정된 차이값 범위 내에 포함되는 여부를 판단하는데, 포함되면 당시 상기 안면 정보가 지능로봇의 이미지포착장치에 대향되는 정면 안면을 표현한다는 것을 가리키고, 포함되지 않으면 상기 안면 정보가 정면 안면을 표현하지 않는다는 것을 가리킨다.
보다 상세하게, 본 발명에 따른 바람직한 실시예에서, 정면 안면은 안면의 대칭성 때문에 코 중심으로부터 왼쪽 눈 및 오른쪽 눈 중심 사이의 거리가 동등 또는 근사해야 한다. 안면이 측면으로 조금 회전되면 상기 2 개 거리 사이에 기필코 변화가 발생된다. 예를 들면, 안면이 왼쪽으로 회전되면 코 중심으로부터 오른쪽 눈 중심 까지의 거리가 기필코 축소되어 상기 2 개 거리 사이의 차이값이 커진다. 마찬가지로, 안면이 오른쪽으로 회전되면 코 중심으로부터 왼쪽 눈 중심 까지의 거리가 필연코 축소되어 상기 2 개 거리 사이의 차이값이 마찬기지로 커진다.
따라서, 상술한 바와 같이, 가장 이상적인 상황에서 안면 정보가 정면 안면을 표현하면 상기 2 개 거리가 같아야 하는데, 즉, 상기 2 개 거리 사이의 차이값이 0이여야 한다. 하지만 실제적으로는 안면이 절대적인 대칭을 이룰 수 없기 때문에 안면 정보가 정면 안면을 표현하여도 상기 2 개 거리 사이에 여전히 일정한 차이가 존재하며, 그 차이는 비교적 작은 편이다. 따라서, 본 발명에 따른 바람직한 실시예에서, 상기 차이값 범위는 상기 차이값 범위에 근거하여 현재 안면 정보가 정면 안면을 표현하는 여부를 판단할 수 있도록 적절하게 비교적 작은 수치 범위에서 설정되어야 한다.
본 발명에 따른 바람직한 실시예에서,
상기 단계 S3를 실행한 후 안면 정보에 정면 안면이 포함된 것으로 판정되면 먼저 하나의 머문 시간 판단 단계를 실행한 다음 다시 단계 S4를 실행하며;
상기 머문 시간 판단 단계는 상세하게,
안면 정보를 계속 추적해 수집하고 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1;
정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과한 여부를 판단함으로써 옳으면 단계 S4로 넘어가고 아니면 상기 단계 S1로 돌아가는 단계 A2를 포함한다.
본 발명에 따른 하나의 바람직한 실시예에서, 상기 머문 시간 판단 단계를 포함하는 총체적 웨이크업 방법의 절차는 도 3에 도시된 바와 같이,
지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1;
이미지 정보 내에 안면 정보가 존재하는 여부를 판단함으로써 존재하지 않으면 단계S1로 돌아가는 단계 S2;
안면 정보 중의 다수개 특징적 정보를 수집하고 특징적 정보에 근거하여 안면 정보가 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단해 아니면 단계S1로 돌아가는 단계 S3;
안면 정보를 계속 추적해 수집하고 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1과;
정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과하는 여부를 판단함으로써 옳으면 단계 S4로 넘어가고 아니면 상기 단계 S1로 돌아가는 단계 A2를 포함한다.
단계 S4에서는 지능로봇을 깨우고 퇴출한다.
상세하게, 상기 실시예는 상기 과정에서 먼저 상술한 바와 같이 정면 안면을 판단하는 단계를 실행한다. 판단 결과, 현재 인식하는 안면 정보가 정면 안면을 표한하는 것으로 확정되면 다시 상기 머문 시간 판단 단계를 실행하는데, 즉, 상기 안면 정보를 계속 추적해 수집하고 계속 현재 안면 정보를 방금 전 안면 정보와 대비해 정면 안면을 표현하는 상기 안면 정보에 변화가 발생된 여부를 판단하며, 최종적으로 상기 안면 정보에 변화가 발생하지 않은 지속 시간, 즉, 안면 정보가 지속적으로 머문 시간을 기록한다.
상기 실시예에서, 상기 안면 정보에 대한 대비는 대비 차이값 범위를 설정하여 안면 정보의 미소 범위 내 변화를 허용한다.
상기 실시예에서, 상기 머문 시간 판단 단계를 총체적 웨이크업 방법에 운용하는 것을, 먼저 정면 안면 판단 단계를 실행하고 현재 안면 정보가 정면 안면을 표현하는 것으로 확정되면 다시 머문 시간 판단 단계를 실행하는 상기 단계라 부른다(도 3에 도시된 바와 같이). 정면 안면 판단 표준과 머문 시간 판단 표준을 동시에 만족시켜야 지능로봇에 대한 웨이크업이 가능한 것으로 간주된다.
본 발명에 따른 바람직한 실시예에서, 상기 미리 설정한 제1한계값은 한 사람이 주시받을 때의 정상 반응 시간으로 설정할 수 있는데, 예를 들면, 1 초 또는 2 초로 설정할 수 있다.
본 발명에 따른 바람직한 실시예에서, 상술한 바와 같이, 상기 단계 S2에서 이미지 정보에 안면 정보가 존재한다는 것이 확정되면 안면 정보와 관련되는 위치 정보와 사이즈 정보를 기록한다.
상기 웨이크업 방법은 거리 판단 단계 하나를 더 포함한다. 상기 단계는 상기 기록된 위치 정보와 사이즈 정보에 근거하는데, 상세하게, 사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 옳으면 단계 S4로 넘어가고 아니면 단계 S1로 돌아가는 단계 B1일 수 있다.
상세하게, 본 발명에 따른 바람직한 실시예에서, 상기 거리 판단 단계는 안면이 이미지 수집 장치(카메라)와 충분히 가까운 거리에 위치한 여부를 판단해 옳으면 사용자가 지능로봇 웨이크업 방법을 의도적으로 실행하는 것으로 판정하며, 아니면 사용자가 지능로봇 웨이크업 방법을 실행할 의도가 없는 것으로 판정한다.
본 발명에 따른 바람직한 실시예에서 상기 제2한계값은 이미지 수집 장치의 뷰박스 사이즈에 적절한 수치일 수 있다. 예를 들면, 뷰박스 사이즈가 통상적으로 640픽셀이므로 상기 제2한계값을 400픽셀로 설정할 수 있다. 따라서, 안면 정보와 관련된 사이즈 정보가 상기 제2한계값보다 작지 않으면(즉, 안면 사이즈가 400픽셀보다 작지 않음) 당시 사용자가 이미지 수집 장치와 비교적 가까이 위치한 것으로 간주되고, 아닌 경우에는 사용자가 이미지 수집 장치와 비교적 멀리 위치한 것으로 간주된다.
본 발명에 따른 바람직한 실시예에서, 상기 웨이크업 방법은 상기 머문 시간 판단 단계와 거리 판단 단계를 동시에 운용하며, 최종적 형성 과정은 도 4에 도시된 바와 같이,
지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1;
이미지 정보 내에 안면 정보가 존재하는 여부를 판단해 존재하지 않으면 단계S1로 돌아가는 단계 S2;
안면 정보의 다수개 특징적 정보를 수집하고 특징적 정보에 근거하여 안면 정보가 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단하며 아닌 경우 단계S1로 돌아가는 단계 S3;
안면 정보를 계속 추적해 수집하고 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1;
정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과한 여부를 판단해 아니면 상기 단계 S1로 돌아가는 단계 A2;
사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 옳으면 단계 S4로 넘어가고 아니면 단계 S1로 돌아가는 단계 B1을 포함한다.
단계 S4는 지능로봇을 깨우고 퇴출한다.
상기 실시예에서, 판단 순서는 아래와 같다.
이미지에 안면 정보 존재 여부 판단→안면 정보의 정면 안면 표현 여부 판단→상기 안면 정보 머문 시간의 표준 만족 여부 판단→상기 안면 정보 관련 사이즈 정보의 표준 만족 여부 판단.
따라서, 상기 실시예에서, 아래 3 개 조건을 동시에 만족시켜야 사용자가 지능로봇 웨이크업 방법을 작동하려 하는 것으로 간주되며, 판단 결과에 근거하여 지능로봇 웨이크업 방법을 실제로 작동시킨다.
(1)안면 정보의 정면 안면 표현;
(2)상기 안면 지속 머문 시간의 제1한계값 초과;
(3)상기 안면이 뷰박스에서 차지하는 사이즈가 제2한계값보다 작지 않다.
본 발명의 또 다른 바람직한 실시예에서, 상술한 바와 같이, 머문 시간 판단 단계와 거리 판단 단계를 동시에 운용하여 형성한 총체적 웨이크업 방법의 과정은 도 5에 도시된 바와 같이,
지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1;
이미지 정보 내에 안면 정보가 존재하는 여부를 판단해 존재하지 않으면 단계S1로 돌아가는 단계 S2;
안면 정보의 다수개 특징적 정보를 수집하고 특징적 정보에 근거하여 안면 정보가 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단하며 아닌 경우 단계S1로 돌아가는 단계 S3;
사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 아니면 단계 S1로 돌아가는 단계 B1;
안면 정보를 계속 추적해 수집하고 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1;
정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과한 여부를 판단해 옳으면 단계 S4로 넘어가고 아니면 단계 S1로 돌아가는 단계 A2과;
지능로봇을 깨우고 퇴출하는 단계 S4를 포함한다.
상기 실시예에서, 상세한 판단 과정은 아래와 같다.
이미지에 안면 정보 존재 여부 판단→안면 정보의 정면 안면 표현 여부 판단→상기 안면 정보 관련 사이즈 정보의 표준 만족 여부 판단→상기 안면 정보 머문 시간의 표준 만족 여부 판단. 상술한 바와 같이, 상기 실시예에서는 3 개 조건을 동시에 만족시켜야 지능로봇 웨이크업 방법을 작동할 수 있는 것으로 간주된다.
본 발명의 또 다른 바람직한 실시예에서, 상기 웨이크업 방법에 거리 판단 단계만 추가할 수 있으며 상세하게, 도 6에 도시된 바와 같이,
지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1;
이미지 정보 내에 안면 정보가 존재하는 여부를 판단해 존재하지 않으면 단계S1로 돌아가는 단계 S2;
안면 정보의 다수개 특징적 정보를 수집하고 특징적 정보에 근거하여 안면 정보가 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단하며 아닌 경우 단계S1로 돌아가는 단계 S3;
사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 옳으면 단계 S4로 넘어가고 아니면 단계 S1로 돌아가는 단계 B1과;
지능로봇을 깨우고 퇴출하는 단계 S4를 포함한다.
상기 실시예에서, 하기 2 개 조건만 만족시키면 당시 사용자가 의도적으로 지능로봇 웨이크업 방법을 작동하려 하는 것으로 간주되며, 판단 결과에 근거하여 지능로봇 웨이크업 방법을 작동시킨다.
(1) 안면 정보의 정면 안면 표현;
(3) 상기 안면이 뷰박스에서 차지하는 사이즈가 제2한계값보다 작지 않다.
따라서, 본 발명에 따른 기술방안은 지능로봇 웨이크업 방법 작동 여부의 판단 조건을 3 개 제공하였다.
(1)안면 정보의 정면 안면 표현;
(2)상기 안면 지속 머문 시간의 제1한계값 초과;
(3)상기 안면이 뷰박스에서 차지하는 사이즈가 제2한계값보다 작지 않다.
매개 판단 조건은 모두 그에 대응되는 판단 과정을 구비한다. 그 중에서 첫번째 판단 조건은 본 발명에 따른 웨이크업 방법에 있어서 필수적인 것이고 그 다음의 두번째 판단 조건과 세번째 판단 조건은 본 발명에 따른 웨이크업에 있어서 선택가능한 판단 조건일 뿐이기 때문에 다양한 웨이크업 방법을 파생할 수 있다. 이와 같이 파생된 웨이크업 방법과 이러한 웨이크업 방법에 근거한 수정 및 갱신은 모두 본 발명의 보호범위에 포함된다는 것을 이해해야 할 것이다.
본 발명에 따른 바람직한 실시예는 또한 상술한 지능로봇 웨이크업 방법을 운용하는 지능로봇을 제공한다.
상술한 내용은 본 발명에 따른 바람직한 실시예일 뿐이며 본 발명의 실시방식과 보호범위를 한정하지 않는다. 본 발명 기술분야의 통상적인 지식인들은 본 발명의 명세서와 도시 내용을 운용한 균등 대체와 자명한 변경으로 도출된 방안이 모두 본 발명의 보호범위에 포함된다는 것을 이해해야 할 것이다.

Claims (10)

  1. 지능로봇의 이미지 수집 장치를 사용하여 이미지 정보를 취득하는 단계 S1;
    상기 이미지 정보 내에 안면 정보가 존재하는 여부를 판단해 존재하지 않으면 단계S1로 돌아가는 단계 S2;
    상기 안면 정보의 다수개 특징적 정보를 수집하고 상기 특징적 정보에 근거하여 상기 안면 정보가 상기 이미지 수집 장치에 대향되는 정면 안면을 표현하는 여부를 판단하며 상기 안면 정보가 상기 정면 안면인 것이 판정되면 단계S4로 넘어가는 단계 S3과;
    상기 지능로봇을 깨우고 퇴출하는 단계 S4;
    를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법.
  2. 제1항에 있어서,
    상기 단계 S2는 안면감지기로 상기 안면 정보 내에 상기 안면 정보가 존재하는 여부를 판단하는 것을 특징으로 하는 지능로봇 웨이크업 방법.
  3. 제1항에 있어서,
    상기 단계 S2는 상기 이미지 정보에 상기 안면 정보가 존재하는 것이 판정되면 상기 안면 정보와 관련되는 위치 정보와 사이즈 정보를 취득하고;
    상기 단계 S3은 상세하게,
    사전 교육으로 형성된 특징적 예측 모델을 이용하고 상기 위치 정보와 상기 사이즈 정보에 근거하여 상기 안면 정보 중의 다수개 특징적 요소를 취득하는 단계 S31;
    다수개 상기 특징적 정보에 근거하여 상기 안면 정보 중 각 부위의 윤곽 정보를 확정하는 단계 S32;
    상기 안면 정보 중의 코 중심으로부터 왼쪽 눈 중심까지 제1거리와 코 중심으로부터 오른쪽 눈 중심까지 제2거리를 취득하는 단계 S33;
    상기 제1거리와 상기 제2거리 사이의 차이값이 하나의 미리 설정한 차이값 범위 내에 포함되는 여부를 판단함으로써, 옳으면 상기 안면 정보가 상기 정면 안면을 표현하는 것을 판단한 다음 상기 단계 S4로 넘어가고, 아니면 상기 안면 정보가 상기 정면 안면을 표현하지 않는 것을 판단한 다음 상기 단계 S1로 돌아가는 단계 S34;
    를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법.
  4. 제1항에 있어서,
    상기 단계 S3를 실행한 후 상기 안면 정보에 상기 정면 안면이 포함된 것이 판정되면 먼저 하나의 머문 시간 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행하되;
    상기 머문 시간 판단 단계는 상세하게,
    상기 안면 정보를 계속 추적해 수집하고 상기 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1;
    상기 정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과한 여부를 판단해 옳으면 단계 S4로 넘어가고, 아니면 상기 단계 S1로 돌아가는 단계 A2;
    를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법.
  5. 제4항에 있어서,
    상기 단계 S2는 상기 이미지 정보에 상기 안면 정보가 존재하는 것으로 판정되면 상기 안면 정보와 관련된 위치 정보와 사이즈 정보를 기록하고;
    상기 단계 A2를 실행한 후, 상기 정면 안면이 지속된 시간이 상기 제1한계값을 초과하는 것으로 판정되면 먼저 하나의 거리 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행하며;
    상기 거리 판단 단계는 상세하게,
    상기 사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 옳으면 상기 단계 S4로 넘어가고 아니면 상기 단계 S1로 돌아가는 단계 B1;
    를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법.
  6. 제1항에 있어서,
    상기 단계 S2는 상기 이미지 정보에 상기 안면 정보가 존재하는 것이 판정되면 상기 안면 정보와 관련되는 위치 정보와 사이즈 정보를 기록하며;
    상기 단계 S3를 실행한 후, 상기 안면 정보에 상기 정면 안면이 포함된 것이 판정되면 먼저 하나의 거리 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행하며;
    상기 거리 판단 단계는 상세하게,
    상기 사이즈 정보가 하나의 미리 설정한 제2한계값보다 작지 않은 여부를 판단해 옳으면 상기 단계 S4로 넘어가고, 아니면 상기 단계 S1로 돌아가는 단계 B1;
    를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법.
  7. 제6항에 있어서,
    상기 단계 B1을 실행한 후 상기 사이즈 정보가 상기 제2한계값보다 작지 않은 것으로 판정되면 먼저 하나의 머문 시간 판단 단계를 실행한 다음 다시 상기 단계 S4를 실행하는데;
    상기 머문 시간 판단 단계는 상세하게,
    상기 안면 정보를 계속 추적해 수집하고 상기 정면 안면이 지속적으로 머문 시간을 기록하는 단계 A1과, 상기 정면 안면이 지속적으로 머문 시간이 하나의 미리 설정한 제1한계값을 초과한 여부를 판단해 옳으면 단계 S4로 넘어가고, 아니면 상기 단계 S1로 돌아가는 단계 A2;
    를 포함하는 것을 특징으로 하는 지능로봇 웨이크업 방법.
  8. 제4항 또는 제7항에 있어서,
    상기 지능로봇 웨이크업 방법에서 상기 제1한계값은 2초인 것을 특징으로 하는 지능로봇 웨이크업 방법.
  9. 제5항 또는 제6항에 있어서,
    상기 지능로봇 웨이크업 방법에서 상기 제2한계값은 400픽셀인 것을 특징으로 하는 지능로봇 웨이크업 방법.
  10. 제1항 내지 제9항 중의 어느 한 항의 상기 지능로봇 웨이크업 방법을 이용하는 스마트 로봇.
KR1020187024148A 2016-02-23 2017-02-20 지능로봇 웨이크업 방법 및 지능로봇 KR20180111859A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610098983.6A CN107102540A (zh) 2016-02-23 2016-02-23 一种唤醒智能机器人的方法及智能机器人
CN201610098983.6 2016-02-23
PCT/CN2017/074044 WO2017143948A1 (zh) 2016-02-23 2017-02-20 一种唤醒智能机器人的方法及智能机器人

Publications (1)

Publication Number Publication Date
KR20180111859A true KR20180111859A (ko) 2018-10-11

Family

ID=59658477

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187024148A KR20180111859A (ko) 2016-02-23 2017-02-20 지능로봇 웨이크업 방법 및 지능로봇

Country Status (7)

Country Link
US (1) US20190057247A1 (ko)
EP (1) EP3422246A4 (ko)
JP (1) JP2019512826A (ko)
KR (1) KR20180111859A (ko)
CN (1) CN107102540A (ko)
TW (1) TWI646444B (ko)
WO (1) WO2017143948A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089125A (ko) * 2019-07-09 2019-07-30 엘지전자 주식회사 커뮤니케이션 로봇 및 그의 구동 방법
KR102456438B1 (ko) 2022-07-13 2022-10-19 (주)인티그리트 인공지능을 활용한 비주얼 웨이크 업 시스템

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107886087B (zh) * 2017-12-01 2021-06-11 宁波高新区锦众信息科技有限公司 一种基于人眼的机器人的人脸识别交互系统
CN108009501A (zh) * 2017-12-01 2018-05-08 宁波高新区锦众信息科技有限公司 一种机器人的人脸识别系统
CN107908289B (zh) * 2017-12-01 2021-06-11 宁波高新区锦众信息科技有限公司 一种基于头部的机器人的人脸识别交互系统
CN108733208A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的交互目标确定方法和装置
CN108733417A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的工作模式选择方法和装置
CN108733420B (zh) * 2018-03-21 2022-04-29 北京猎户星空科技有限公司 智能设备的唤醒方法、装置、智能设备和存储介质
CN108888204B (zh) * 2018-06-29 2022-02-22 炬大科技有限公司 一种扫地机器人呼唤装置及呼唤方法
CN108985225B (zh) * 2018-07-13 2021-12-14 北京猎户星空科技有限公司 焦点跟随方法、装置、电子设备及存储介质
CN109190478A (zh) * 2018-08-03 2019-01-11 北京猎户星空科技有限公司 焦点跟随过程中目标对象的切换方法、装置及电子设备
KR102537784B1 (ko) * 2018-08-17 2023-05-30 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109093631A (zh) * 2018-09-10 2018-12-28 中国科学技术大学 一种服务机器人唤醒方法及装置
CN111230891B (zh) * 2018-11-29 2021-07-27 深圳市优必选科技有限公司 一种机器人及其语音交互系统
CN109725946A (zh) * 2019-01-03 2019-05-07 阿里巴巴集团控股有限公司 一种基于人脸检测唤醒智能设备的方法、装置及设备
CN110134233B (zh) * 2019-04-24 2022-07-12 福建联迪商用设备有限公司 一种基于人脸识别的智能音箱唤醒方法及终端
CN110211251A (zh) * 2019-04-26 2019-09-06 珠海格力电器股份有限公司 一种人脸识别方法、装置、存储介质及人脸识别终端
US20210323581A1 (en) * 2019-06-17 2021-10-21 Lg Electronics Inc. Mobile artificial intelligence robot and method of controlling the same
CN110370287B (zh) * 2019-08-16 2022-09-06 中铁第一勘察设计院集团有限公司 基于视觉引导的地铁列检机器人路径规划系统及方法
CN113359538A (zh) * 2020-03-05 2021-09-07 东元电机股份有限公司 语音控制机器人
CN113542878B (zh) * 2020-04-13 2023-05-09 海信视像科技股份有限公司 一种基于人脸识别与手势检测的唤醒方法及显示设备
CN111883130A (zh) * 2020-08-03 2020-11-03 上海茂声智能科技有限公司 一种融合式语音识别方法、装置、系统、设备和存储介质
CN112171652A (zh) * 2020-08-10 2021-01-05 江苏悦达投资股份有限公司 一种可旋转夹取助力机械手
CN114237379A (zh) * 2020-09-09 2022-03-25 比亚迪股份有限公司 电子设备的控制方法、装置、设备及存储介质
CN112565863B (zh) * 2020-11-26 2024-07-05 深圳Tcl新技术有限公司 视频播放方法、装置、终端设备及计算机可读存储介质
CN113221630A (zh) * 2021-03-22 2021-08-06 刘鸿 一种人眼注视镜头的估算方法及其在智能唤醒中的应用
CN113838465A (zh) * 2021-09-30 2021-12-24 广东美的厨房电器制造有限公司 智能设备的控制方法及其装置、智能设备和可读存储介质
CN115781661A (zh) * 2022-09-21 2023-03-14 展视网(北京)科技有限公司 一种智能交互机器人系统及使用方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1174337C (zh) * 2002-10-17 2004-11-03 南开大学 识别人眼注视与否的方法和装置及其应用
CN201163417Y (zh) * 2007-12-27 2008-12-10 上海银晨智能识别科技有限公司 具有人脸识别的智能机器人
EP2399182B1 (en) * 2009-02-20 2014-04-09 Koninklijke Philips N.V. System, method and apparatus for causing a device to enter an active mode
TW201112045A (en) * 2009-09-28 2011-04-01 Wistron Corp Viewing direction determination method, viewing direction determination apparatus, image processing method, image processing apparatus and display device
CN102058983B (zh) * 2010-11-10 2012-08-29 无锡中星微电子有限公司 基于视频分析的智能玩具
TW201224955A (en) * 2010-12-15 2012-06-16 Ind Tech Res Inst System and method for face detection using face region location and size predictions and computer program product thereof
CN202985566U (zh) * 2012-07-26 2013-06-12 王云 基于人脸识别的安保机器人
CN105182983A (zh) * 2015-10-22 2015-12-23 深圳创想未来机器人有限公司 基于移动机器人的人脸实时跟踪方法和跟踪系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190089125A (ko) * 2019-07-09 2019-07-30 엘지전자 주식회사 커뮤니케이션 로봇 및 그의 구동 방법
KR102456438B1 (ko) 2022-07-13 2022-10-19 (주)인티그리트 인공지능을 활용한 비주얼 웨이크 업 시스템

Also Published As

Publication number Publication date
TWI646444B (zh) 2019-01-01
US20190057247A1 (en) 2019-02-21
JP2019512826A (ja) 2019-05-16
EP3422246A4 (en) 2019-10-23
TW201823927A (zh) 2018-07-01
CN107102540A (zh) 2017-08-29
WO2017143948A1 (zh) 2017-08-31
EP3422246A1 (en) 2019-01-02

Similar Documents

Publication Publication Date Title
KR20180111859A (ko) 지능로봇 웨이크업 방법 및 지능로봇
CN105700363B (zh) 一种智能家居设备语音控制装置的唤醒方法及系统
EP2365420B1 (en) System and method for hand gesture recognition for remote control of an internet protocol TV
US20130222338A1 (en) Apparatus and method for processing a plurality of types of touch inputs
CN109074819A (zh) 基于操作-声音的多模式命令的优选控制方法及应用其的电子设备
US20150338651A1 (en) Multimodal interation with near-to-eye display
CN104714642A (zh) 一种移动终端及其手势识别处理方法和系统
CN103353935A (zh) 一种用于智能家居系统的3d动态手势识别方法
CN108509049B (zh) 录入手势功能的方法及系统
WO2020220154A1 (zh) 屏幕显示切换方法、显示设备、可移动平台
CN104881122A (zh) 一种体感交互系统激活方法、体感交互方法及系统
CN105042789A (zh) 一种智能空调的控制方法及系统
CN105335060A (zh) 触摸屏终端的操作控制方法及终端
CN112784926A (zh) 一种手势交互的方法和系统
CN106681504A (zh) 终端操控方法及装置
JP2008040726A (ja) ユーザ支援システム及びユーザ支援方法
US9953267B2 (en) Control method and non-transitory computer readable recording medium
CN106293430A (zh) 虚拟滑鼠控制系统及其控制方法
CN109144262B (zh) 一种基于眼动的人机交互方法、装置、设备及存储介质
JP2012203439A (ja) 情報処理装置および情報処理方法、記録媒体、並びにプログラム
CN104035544A (zh) 一种控制电子设备的方法及电子设备
CN107479713A (zh) 一种移动设备的人机交互方法及移动设备
CN106547339B (zh) 计算机设备的控制方法和装置
KR20140112316A (ko) 모션인식을 이용한 스마트 디바이스 제어 장치 및 방법
CN107908289B (zh) 一种基于头部的机器人的人脸识别交互系统

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application