KR20170000751A - 인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치 - Google Patents

인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치 Download PDF

Info

Publication number
KR20170000751A
KR20170000751A KR1020150178751A KR20150178751A KR20170000751A KR 20170000751 A KR20170000751 A KR 20170000751A KR 1020150178751 A KR1020150178751 A KR 1020150178751A KR 20150178751 A KR20150178751 A KR 20150178751A KR 20170000751 A KR20170000751 A KR 20170000751A
Authority
KR
South Korea
Prior art keywords
intelligent robot
user
cloud
processing information
voice
Prior art date
Application number
KR1020150178751A
Other languages
English (en)
Inventor
싱페이 게
후아 우
지아린 리
퀴안 슈
하이펭 왕
쿤 징
웬유 순
티안 우
다이송 구안
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20170000751A publication Critical patent/KR20170000751A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

본 발명은 인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치를 제공한다. 여기서, 당해 시스템은, 지능 로봇에 설치되고, 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 및 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하기 위한 결책 엔진; 클라우드 처리 정보를 수신하고 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하고 사용자 수요를 결책 엔진으로 피드백하기 위한 클라우드 제어 센터를 포함한다. 본 발명의 인공 지능에 기초한 지능 로봇 제어 시스템은 온라인 대량 정보를 충분하게 이용할 수 있어 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자의 체험을 향상시킨다.

Description

인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치{CONTROL SYSTEM, METHOD AND DEVICE OF INTELLIGENT ROBOT BASED ON ARTIFICIAL INTELLIGENCE}
본 발명은 지능형 단말 장치 기술 분야에 관한 것으로, 특히 인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치에 관한 것이다.
인공 지능(Artificial Intelligence, 약칭: AI)은 사람의 지능을 모의, 심화 및 확장하기 위한 이론, 방법, 기술 및 응용 시스템을 연구, 개발하는 새로운 기술 과학이다. 인공 지능은 컴퓨터과학의 한 분과로서, 지능의 실질을 요해하고 인류 지능과 유사한 방식으로 반응을 할 수 있는 새로운 지능 기계를 생산하는 것을 도모하는데, 당해 분야의 연구는 로봇, 언어 인식, 이미지 인식, 자연 언어 처리와 엑스퍼트 시스템 등을 포함한다. 지능 로봇은 인공 지능 제품 중의 하나로서, 생활, 업무, 과학 탐색 등 각 방면에서 모두 광범하게 응용될 수 있고, 사람들의 지능 로봇의 실시간 응답 능력 및 대량 데이터 처리, 분석 능력에 대한 요구는 점점 높아지고 있다. 사용자는 지능 로봇의 운동, 네비게이션 등 기능이 처리에 신속하게 응답할 수 있기를 바라는 동시에 지능 로봇이 대화형 인터랙션, 안면 인식 등 기능을 구비하기를 바라고 있는바, 이는 지능 로봇이 운동 책략에 신속하게 응답하는 능력과 대량 데이터 저장과 처리 능력을 동시에 구비할 것을 요구한다. 하지만, 현재의 지능 로봇 제어 시스템은 사용자의 상기 요구를 만족시키기 어렵고 사용자의 체험 만족도가 비교적 낮다.
본 발명은 적어도 일정한 정도에서 상기 기술 문제를 해결하고자 한다.
이를 위하여, 본 발명의 첫번째 목적은 인공 지능에 기초한 지능 로봇 제어 시스템을 제공하여 제때에, 신속하게, 지능적으로 사용자의 명령에 응답할 수 있게 하는데 있다.
본 발명의 두번째 목적은 인공 지능에 기초한 지능 로봇 제어 방법을 제공하는데 있다.
본 발명의 세번째 목적은 다른 하나의 인공 지능에 기초한 지능 로봇 제어 방법을 제공하는데 있다.
본 발명의 네번째 목적은 인공 지능에 기초한 지능 로봇 제어 장치를 제공하는데 있다.
본 발명의 다섯번째 목적은 다른 하나의의 인공 지능에 기초한 지능 로봇 제어 장치를 제공하는데 있다.
상기 목적을 달성하기 위하여, 본 발명에 따른 제1 측면의 실시예는 인공 지능에 기초한 지능 로봇 제어 시스템을 제공하는바, 지능 로봇에 설치되고, 상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고 상기 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 및 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하기 위한 결책 엔진; 상기 클라우드 처리 정보를 수신하고 상기 클라우드 처리 정보에 대해 분석을 행하여 상기 사용자 수요를 획득하고 상기 사용자 수요를 상기 결책 엔진으로 피드백하기 위한 클라우드 제어 센터를 포함한다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 시스템은, 지능 로봇에 있는 결책 엔진은 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고, 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행할 수 있어 클라우드 제어 센터를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여 제때에, 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행하고, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에, 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
본 발명의 제2 측면의 실시예는 인공 지능에 기초한 지능 로봇 제어 방법을 제공하는바, 하기와 같은 단계를 포함한다. 상기 지능 로봇의 결책 엔진이 상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하는 단계; 상기 결책 엔진이 상기 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하는 단계; 상기 결책 엔진이 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하는 단계이다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 방법은 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고, 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하여 클라우드 제어 센터를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여 제때에, 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있고, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
본 발명의 제3 측면 실시예는 인공 지능에 기초한 지능 로봇 제어 장치를 제공하는바, 상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하기 위한 생성 모듈; 상기 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하기 위한 송신 모듈; 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하기 위한 제어모듈을 포함한다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 장치는, 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고, 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행할 수 있어 처리 능력과 응답 속도에 의거하고 로컬과 클라우드 제어 센터에 의해 지능 로봇이 수신한 다모드 신호를 분업 처리하게 하는 것으로, 클라우드 제어 센터를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬 처리를 통하여 제때에, 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있어 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에 제때에, 신속하게, 지능적으로 사용자 명령에 응답하여 사용자 체험을 향상시킬 수 있다.
본 발명의 제4 측면의 실시예는 인공 지능에 기초한 지능 로봇 제어 방법을 제공하는바, 하기와 같은 단계를 포함한다. 클라우드 제어 센터가 지능 로봇이 송신한 클라우드 처리 정보를 수신하는 단계; 상기 클라우드 제어 센터가 상기 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하는 단계; 상기 클라우드 제어 센터가 상기 사용자 수요를 상기 결책 엔진으로 피드백하는 단계이다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 방법은 지능 로봇 결책 엔진이 송신하는 클라우드 처리 정보를 수신하고 분석을 행하여 사용자 수요를 획득하고, 다음 결책 엔진으로 피드백하여 결책 엔진이 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하게 할 수 있어 당해 제어 장치를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여 제때에, 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행하고, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
본 발명의 제5 측면의 실시예는 인공 지능에 기초한 지능 로봇 제어 장치를 제공하는바, 지능 로봇이 송신한 클라우드 처리 정보를 수신하기 위한 수신 모듈; 상기 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하기 위한 분석 모듈; 상기 사용자 수요를 상기 결책 엔진으로 피드백하기 위한 피드백 모듈을 포함한다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 장치는, 지능 로봇 결책 엔진이 송신한 클라우드 처리 정보를 수신하고 분석을 행하여 사용자 수요를 획득하고, 다음 결책 엔진으로 피드백하여 결책 엔진이 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하게 할 수 있어, 당해 제어 장치를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여 제때에, 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있고, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
본 발명의 부가 측면과 장점은 아래의 설명에서 부분적으로 제시되고, 일부는 아래의 설명에서 뚜렷해지거나 본 발명의 실천을 통하여 요해된다.
본 발명의 상기 및/또는 부가된 측면과 장점은 아래의 첨부도면을 결부하여 실시예에 대해 행하여지는 설명에서 뚜렷해지고 이해하기 용이해진다. 여기서,
도 1은 본 발명의 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 시스템의 구조 안내도이다.
도 2는 본 발명의 하나의 실시예에 따른 응용 장면 안내도이다.
도 3은 본 발명의 다른 하나의 실시예에 따른 응용 장면 안내도이다.
도 4는 본 발명의 또 하나의 실시예에 따른 응용 장면 안내도이다.
도 5는 본 발명의 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 시스템 인터랙션 안내도이다.
도 6은 본 발명의 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 방법의 흐름도이다.
도 7a는 본 발명의 일 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 장치의 구조 안내도이다.
도 7b는 본 발명의 또 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 장치의 구조 안내도이다.
도 8은 본 발명의 다른 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 방법의 흐름도이다.
도 9는 본 발명의 다른 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 장치의 구조 안내도이다.
아래에서는 본 발명의 실시예를 상세하게 설명하기로 한다. 상기 실시예의 예시는 첨부 도면에서 제시되고, 여기서 처음부터 끝까지 같거나 유사한 부호는 같거나 유사한 구성 요소 또는 같거나 유사한 기능을 구비한 구성 요소를 나타낸다. 아래에서 첨부된 도면을 참조하는 것을 통하여 설명되는 실시예는 예시적인 것으로, 단지 본 발명을 해석하기 위한 것일 뿐, 본 발명에 대한 한정으로 이해해서는 안된다.
본 발명의 설명에서, 용어 "복수개"는 두개 또는 두개 이상을 가리키고, 용어 "제 1", "제 2"는 단지 설명의 목적인 것일 뿐, 상대적인 중요성을 가리키거나암시하는 것으로 이해해서는 안된다는 것으로 이해되어야 한다.
아래에서는 첨부된 도면을 참조하여 본 발명의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 시스템, 방법과 장치를 설명하기로 한다.
본 발명은 인공 지능에 기초한 지능 로봇 제어 시스템을 제공하는바, 지능 로봇에 설치되고, 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고, 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하기 위한 결책 엔진; 클라우드 처리 정보를 수신하고 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하고 사용자 수요를 결책 엔진으로 피드백하기 위한 클라우드 제어 센터를 포함한다.
도 1은 본 발명의 일 실시예에 따른 지능 로봇 제어 시스템의 구조 안내도이다.
도 1에서 도시되는 바와 같이, 당해 인공 지능에 기초한 지능 로봇 제어 시스템은 결책 엔진(10)과 클라우드 제어 센터(20)를 포함한다.
구체적으로, 결책 엔진(10)은 지능 로봇에 설치되어, 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 및 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하기 위한 것이다.
클라우드 제어 센터(20)는 클라우드 처리 정보를 수신하고 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하고 사용자 수요 처리 결과를 결책 엔진으로 피드백하기 위한 것이다.
본 발명의 일 실시예에서, 다모드의 입력 신호에는 사용자가 입력한 음성 신호, 신호 및 환경 센서 신호 중의 적어도 하나를 포함한다. 구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라 또는 적외선 센서를 통하여 입력한 것일 수 있으며; 상기 환경 센서 신호는 광센서, 적외선 센서, 온습도 센서, 유독 가스 센서, 오염 미립자 센서, 터치 모듈, 지리적 위치 위치 추적 모듈과 중력 센서 중의 하나 또는 복수개의 센서를 통하여 입력한 신호를 포함한다.
지능 로봇의 로컬의 결책 엔진(10)은 신속하게 응답하는 장점을 구비하지만, 저장 능력과 데이터 처리 능력 등의 제한을 받으므로 결책 엔진(10)은 클라우드 제어 센터(20)에 대해 상대적으로 말하자면 음성 인식, 이미지 인식 등에 대한 인식 정확도가 비교적 낮다. 하지만 클라우드 제어 센터(20)는 인터넷 자원을 충분하게 이용할 수 있고 막강한 처리 능력을 구비하고 있어, 온라인 학습, 정보 검색, 퀴즈 문답 또는 대량 데이터에 대해 학습, 훈련을 행하는 것을 통하여 어의 분석, 기계 번역, 감정 분석, 안면 인식, 음성 인식 등을 행할 수 있고, 따라서 더 높은 정확도를 구비한다. 하지만 네트워크 신호, 속도 등 요소의 영향의 제한을 받으므로 네트워크 지연 등 문제가 존재할 수 있다.
따라서, 본 발명의 실시예에서, 만약 상기 다모드의 입력 신호 중 일부 신호의 처리가 특별히 큰 데이터 처리 능력을 필요로 하지 않고 대량의 온라인 지식 데이터에도 의존하지 않으며, 동시에 이런 신호의 처리가 다양한 센서 신호를 종합하여 실시간 처리를 행하고 운동 기구 등이 조정과 응답을 하여 최적의 신호를 획득하거나 장애물 등을 회피하도록 즉시 제어하며 조정한 후 획득한 신호에 대해 새로운 실시간 처리를 행하는 것을 필요로 한다면, 이 과정은 신뢰성이 상대적으로 비교적 낮고 일정한 지연이 있는 클라우드 제어 센터(20)를 통하여 처리하기에는 부적당하다. 따라서, 결책 엔진(10)으로 이런 신호에 대해 처리을 행할 수 있다. 예를 들면, 결책 엔진(10)은 사용자가 입력한 음성 신호에 의거하여 발음체 위치 추적, 성문 인식 등을 행하고, 이미지 신호와 환경 센서 정보에 의거하여 주변 환경을 감지하며, 주변 환경에 의거하여 지능 로봇이 장애물 회피, 미행 등 운동을 행하도록 제어할 수 있다.
이 외에, 만약 상기 다모드의 입력 신호 중의 음성 신호, 이미지 신호, 적외선 신호 등에 의거하여 음성 인식, 음성 합성, 이미지 인식, 지도 정보 수집과 전처리 (예를 들면, 안면 인식, 몸매 인식, 동작 인식, 손짓 인식, 성문 인식 등) 등을 하는 것이 필요된다면 클라우드 제어 센터(20)로 처리할 수 있다. 따라서, 보다 정확한 결과를 획득할 수 있다.
음성 신호를 예로 하면, 음성 신호에 대한 처리는 음성 인식, 자연어 이해, 어의 분석, 기계 번역, 감정 분석을 행하는 것을 필요로 하는데 이는 대량의 언어 자료와 데이터에 대해 훈련을 행하는 것이 필요되고, 사용자와 인터랙션을 하는 과정에 대해서도 사용자 음성, 동작의 함의에 대해 분석을 행하고, 다음 퀴즈 문답을 통하여 피드백 내용을 확정한다. 따라서, 이런 경우에 대하여 음성 신호를 클라우드 제어 센터(20)로 송신하여 클라우드 제어 센터(20)의 막강한 저장, 데이터 처리 능력을 통하여 분석을 행하는 것이 필요된다.
물론, 본 발명의 실시예에서는, 오프라인과 온라인의 융합된 방식 즉, 온라인 조건에서는 우선 순위로 클라우드 제어 센터(20)로 분석을 행하여, 인식이 비교적 정확하거나 음성 합성 효과가 비교적 자연스럽고; 오프라인 조건에서는 로컬의 결책 엔진(10)으로 처리하여, 비록 효과는 가장 좋은 것이 아니지만 업무를 할 수 있는 방식을 통하여, 로컬의 결책 엔진(10)과 클라우드 제어 센터(20)의 우세를 충분하게 이용하여 로봇이 각종의 신호를 정확히 인식할 수 있게 하고, 또 제때에 신속하게 응답을 할 수 있게 한다.
나아가, 본 발명의 일 실시예에서는, 결책 엔진(10)을 통하여 다모드의 입력 신호에 대해 초보적인 처리를 행하고 초보적인 처리를 한 후의 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터(20)로 송신하여 더 한층 분석하게 할 수 있다.
본 발명의 일 실시예에서, 결책 엔진(10)은 사용자가 입력한 음성 신호를 복수개의 음성 토막으로 분할하고 복수개의 음성 토막을 클라우드 처리 정보로 하여 클라우드 제어 센터(20)로 송신하여 처리할 수 있다. 클라우드 제어 센터(20)는 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하고 음성 인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 사용자 수요를 획득하고, 다음 결책 엔진(10)으로 피드백할 수 있다. 결책 엔진(10)은 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다.
구체적으로, 본 발명의 일 실시예에서, 만약 사용자 수요가 운동 제어 수요이면 결책 엔진(10)은 사용자의 위치를 획득하고 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 주변 환경에 대해 감지를 행하고, 및 사용자의 위치, 주변 지도 및 주변 환경 중의 적어도 하나에 의거하여 지능 로봇이 사용자 수요에 따라 운동을 행하도록 제어할 수 있다.
도 2는 본 발명의 일 실시예에 따른 응용 장면 안내도이다. 도 2에서 도시하는 바와 같이, 사용자는 미리 설정한 음성을 통하여 지능 로봇에 대해 음성 깨움을 행할 수 있다. 예를 들면, 지능 로봇이 사용자가 입력한 음성 신호 "쇼오뚜(小度) 지능 로봇"을 수신했을 때, 결책 엔진(10)은 사용자에게 피드백을 행하고 지능 로봇이 음성 명령 감청 모드에 진입하도록 제어할 수 있다. 이 모드에서, 만약 사용자가 "절 따라 오세요" 또는 "절 따르세요" 또는 "빨리 따라 오세요" 등 자연어 방식으로 표달되는 음성을 입력했을 때, 결책 엔진(10)은 당해 음성에 대응되는 음성 토막을 클라우드 제어 센터(20)로 송신하여 분석을 행할 수 있다. 클라우드 제어 센터(20)는 분석을 통하여 구체적인 표달 방식이 확정적이지 않은 명령에 대해 어의 이해와 표준화 처리를 행하여 사용자 수요가 통일적이고 규범적인 "따르다"인 수요를 획득하고 결책 엔진(10)으로 피드백한다. 결책 엔진(10)은 "따르다"의 수요에 의거하여 명령 배정을 행한다. 즉, 운동 제어 프로그램을 호출하여 지능 로봇이 사용자를 따라 운동을 행하도록 제어한다. 구체적으로, 결책 엔진(10)은 사용자에 대해 방위 추적을 행하여 사용자의 위치를 획득할 수 있다. 예를 들면, 사용자 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고 카메라 등을 사용자로 향하도록 돌리고 사용자 위치 변화에 의거하여 지능 로봇이 이동하도록 제어한다. 나아가, 이동 과정에서, 결책 엔진(10)은 지능 로봇이 주변 지도와 주변 환경에 의거하여 장애물 회피와 길 찾기를 행하도록 제어할 수 있다.
이 외에, 만약 사용자 수요가 길 찾기 수요이면 결책 엔진(10)은 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 지능 로봇의 위치와 목표 위치를 획득하며, 및 결책 엔진은 주변 지도, 지능 로봇의 위치와 목표 위치에 의거하여 지능 로봇이 방향을 가리키거나 음성 인터랙션을 통하여 방향을 인도하도록 제어할 수도 있다.
도 3은 본 발명의 다른 하나의 실시예에 따른 응용 장면 안내도이다. 도 3에서 도시되는 바와 같이, 사용자는 미리 설정한 음성을 통하여 지능 로봇에 대해 음성 깨움을 행할 수 있다. 예를 들면, 지능 로봇이 사용자가 입력한 음성 신호 "쇼오뚜(小度) 지능 로봇"을 수신했을 때, 결책 엔진(10)은 사용자에 대해 피드백을 행하고 지능 로봇이 음성 명령 감청 모드에 진입하도록 제어할 수 있다. 이 모드에서, 만약 사용자가 "궈항(國航: Air China)은 어디서 체크인 하죠?" 또는 "안전검사는 어디로 가면 되죠?" 또는 "국제선 입구" 등 음성을 입력하면 결책 엔진(10)은 당해 음성에 대응되는 음성 토막을 클라우드 제어 센터(20)로 송신하여 분석을 행할 수 있다. 클라우드 제어 센터(20)는 분석을 통하여 사용자 수요가 "실체의 위치를 지정하는 것"인 수요를 획득하고 결책 엔진(10)으로 피드백한다. 결책 엔진(10)은 "실체의 위치를 지정하는 것"의 수요에 의거하여 명령 배정, 즉 길 안내 프로그램을 호출하여 지능 로봇을 제어하여 사용자에게 길 안내를 행하도록 한다. 구체적으로, 결책 엔진(10)은 위치와 방향에 대해 검측을 행하여 자신의 위치를 확정하고 주변 지도에서 위치 추적을 행하고, 다음 지정 실체와의 상대적 위치에 의거하여 사용자에게 길 안내를 행할 수 있다. 예를 들면, 몸 돌리기와 상지 운동을 통하여 방향을 가리키는 것을 제어하거나, 음성 출력을 통하여 방향을 가리키고 음성 인터랙션을 통하여 사용자를 인도할 수 있다.
본 발명의 다른 하나의 실시예에서, 결책 엔진(10)은 이미지 신호 및 환경 센서 신호 중의 적어도 하나에 의거하여 사용자에 대해 운동 검측을 행할 수 있다. 여기서, 결책 엔진(10)은 획득해낸 사용자의 이미지 신호에 의거하여 사용자의 사지 동작, 손짓 동작, 몸매 인식 등을 인식하고 이에 의거하여 사용자에 대해 운동 검측, 예를 들면 몸 뒤척이기, 점핑 등을 행할 수 있다. 그 다음 미리 설정한 규칙에 따라 운동 검측 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터(20)로 송신하여 처리를 행한다. 예를 들면, 검측해낸 각각의 운동 및 그에 대응되는 타임스탬프(운동 발생 시간)를 클라우드 처리 센터(20)로 송신한다. 클라우드 제어 센터(20)는 얼마간의 시간내의 운동 검측 결과에 대해 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교하여 대응되는 사용자 수요를 획득하고, 다음 결책 엔진(10)으로 피드백할 수 있다. 결책 엔진(10)은 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다. 구체적으로, 결책 엔진(10)은 사용자 수요에 의거하여 지능 로봇이 미리 설정한 모바일 단말로 제시 정보를 송신하도록 제어할 수 있다.
도 4는 본 발명의 또 하나의 실시예에 따른 응용 장면 안내도이다. 도 4에서 도시하는 바와 같이, 결책 엔진(10)은 사용자(영유아)의 적외선 이미지를 획득하고 목표 운동 검측을 행할 수 있다. 만약 사용자가 몸 뒤척이기 동작을 행하였다고 검측해내면, 감호 프로그램을 호출하여 검측해낸 몸 뒤척이기 동작 및 그에 대응되는 타임스탬프를 클라우드 제어 센터(20)로 송신한다. 클라우드 제어 센터(20)는 수신한 동작 및 그에 대응되는 타임스탬프에 대해 기록을 행하고 얼마간의 시간의 기록 결과에 의거하여 몸 뒤척이는 빈도를 계산하고 몸 뒤척이는 빈도를 어머니와 아기 지식 베이스와 비교 대조를 행할 수 있다. 만약 비교 대조하여 당해 몸 뒤척이는 빈도가 당해 사용자의 대소변으로 인한 불편에 의해 초래된 것임을 표명하는 것이라고 알아내면 이 결과를 결책 엔진(10)으로 피드백한다. 결책 엔진(10)은 이 결과를 수신한 후 감호 프로그램을 호출하여 미리 설정한 모바일 단말로 "기저귀 갈기" 제시 정보를 송신할 수 있다. 이 외에, 결책 엔진(10)은 지능 로봇이 사용자의 운동에 따라 운동하도록 제어하여 사용자 이미지의 시야를 획득하는 것을 보장하고 사용자의 동작, 행위에 의거하여 지능 로봇에 대해 제어를 행한다. 따라서, 가장이 제때에 영유아에게 기저귀를 갈아주게 할 수 있어, 영유아의 쾌적감을 향상시키는 동시에 가장이 영유아의 상태를 획득하는 것을 편리하게 할 수 있어 가장이 아이를 간호하는 업무량을 줄인다.
이 외에, 클라우드 제어 센터(20)는 영유아의 얼마간의 비교적 긴 시기의 몸 뒤척이기 기록 또는 기타 동작에 의거하여 영유아에게 건강 파일을 작성해주고, 대량 데이터를 수집하는 기초에서 진일보로 빅 데이터 분석, 발굴을 행하여 추세적인 정보를 발견하고, 정확한 정보, 서비스 푸싱 등 업무를 행할 수 있다.
본 발명의 일 실시예에서, 결책 엔진(10)은 또 이미지 신호에 의거하여 안면 검측을 행하여, 만약 이미지 신호가 안면 이미지 신호이면 안면 이미지 신호를 클라우드 제어 센터(20)로 송신하여 안면 인식을 행하고 인식 결과에 의거하여 사용자의 신분 정보를 확정하는 것이다.
이 외에, 결책 엔진(10)은 사용자에 대해 성문 인식을 행하여, 사용자의 신분을 확정할 수 도다.
본 발명의 실시예에서, 다양한 인식 방식은 단독으로 또는 조합되어 사용되어, 정확도가 더 높고 또는 적용 조건이 더 넓으며 더 편리한 사용자 신분 확인을 제공할 수 있다는 것으로 이해되어야 한다. 예를 들면, 광선 조건이 좋지 않아 영상 형성 품질이 떨어지는 것을 초래할 때에는 상응하게 성문 인식의 가중치를 높이고, 환경이 시끄러워 픽업 품질이 떨어지는 것을 초래할 때에는 상응하게 안면 인식의 가중치를 높이며, 불법 사용자가 도용하는 것을 방지할 수 있고 사용자 신분 정보에 의거하여 사용자에게 개인 데이터 베이스를 작성해 줄 수도 있어, 사용자에게 개성화된 서비스를 제공한다.
상기 장면은 단지 본 발명의 실시예에 대한 이해를 편리하게 하기 위한 예시적인 설명일 뿐, 실제 응용에서, 실제 제어 과정에서, 결책 엔진(10)의 각종의 제어 기능과 제어는 실제 제어 수요에 의거하여 호출을 행하고 클라우드 제어 센터(20)의 온라인 처리 결과와 결합할 수 있다는 것으로 이해되어야 한다. 도 5에서 도시하는 바와 같이, 지능 로봇이 온라인 상태에 처하여 있을 때, 결책 엔진은 이미지 신호, 음성 신호 등을 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있고, 클라우드 제어 센터는 온라인 자원, 지식 등에 의거하여 다모드의 입력 신호에 대해 온라인 학습, 정보 검색, 퀴즈 문답을 행하거나 또는 대량 데이터에 대해 학습, 훈련을 행하여 어의 분석, 기계 번역 감정 분석, 안면 인식, 음성 인식 등(예를 들면, 클라우드 서버를 통하여 동작 인식, 손짓 인식, 몸매 인식, 지도 정보 수집과 전처리 등을 행함)을 행하고, 결책 엔진은 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고, 센서 신호에 의거하여 주변 환경에 대해 감지를 행하고 위치 추적 결과, 환경 감지 결과 및 클라우드 제어 센터가 피드백한 분석결과(예를 들면, 음성에 대응되는 명령, 이미지 인식 결과, 이미지 정보에 의거하여 생성된 주변 지도 등)에 의거하여 지능 로봇의 운동 기구에 대해 제어를 행하여 지능 로봇의 장애물 회피, 미행류 제어 등과 같은 운동 제어를 실현할 수 있다. 결책 엔진과 클라우드 제어 센터는 네트워크를 통하여 연결되고 데이터를 전송할 수 있다.
여기서, 결책 엔진은 다모드의 입력 신호에 대해 초보적인 처리를 행하고 처리한 후의 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있다. 예를 들면, 음성 신호를 음성 토막으로 절단하고 음성 토막을 송신하거나 또는 이미지 신호에 대해 안면 인식을 행하고 인식해낸 안면 이미지를 클라우드 제어 센터로 송신하여 안면 인식을 행할 수 있어, 전부의 이미지 신호를 전송할 필요가 없고 전송 데이터량을 줄인다.
이 외에, 지능 로봇이 오프라인 상태에 처하여 있을 때에는, 클라우드 제어 센터와 통신을 행할 수 없다. 이때, 결책 엔진에 의해 내장된 프로그램에 의거하여 다모드의 입력 신호에 대해 음성 인식, 음성 합성, 이미지 인식, 주변 지도 생성, 사용자 동작 인식 등과 같은 처리, 인식과 분석을 행할 수 있다. 지능 로봇이 온라인 상태에 처하여 있는지 아니면 오프라인 상태에 처하여 있는지를 막론하고 모두 그 정상 업무를 제어할 수 있다.
이에 따라, 결책 엔진(10)과 클라우드 제어 센터(20)사이에서 전달되는 것은 데이터 양이 비교적 작은 명령형 음성 토막 및 "따르다"와 같은 추상적이고 규범적인 명령 또는 소부분의 이미지 신호로서, 데이터 양이 작고 전송하기 빠르며 처리하기 쉽다. 이 외에, 카메라, 센서 등이 획득하는 대량의 이미지 신호와 센서 신호 등 실시간 데이터에 대해서는 결책 엔진(10)으로 처리하는바 데이터 양이 너무 크고 전송 속도가 느려 응답 지연을 초래하는 것을 모면할 수 있으므로 결책 엔진(10)의 신속한 응답과 클라우드 제어 센터(20)의 막강한 처리 능력의 우세를 충분하게 이용할 수 있다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 시스템에서, 지능 로봇에 있는 결책 엔진은 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행할 수 있어, 처리 능력과 응답 속도에 의거하여 결책 엔진과 클라우드 제어 센터에 의해 지능 로봇이 수신한 다모드 신호를 분담 처리하는 것으로, 클라우드 제어 센터를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여 제때에 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있는바, 온라인 대량 정보를 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에, 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
상기 실시예를 실현하기 위하여, 본 발명은 인공 지능에 기초한 지능 로봇 제어 방법을 더 제공한다.
당해 제어 방법은 지능 로봇에 설치된 결책 엔진에 응용될 수 있다.
인공 지능에 기초한 지능 로봇 제어 방법으로서, 지능 로봇의 결책 엔진이 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하는 단계; 결책 엔진이 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하는 단계; 결책 엔진이 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하는 단계를 포함한다.
도 6은 본 발명의 일 실시예에 따른 인공 지능에 기초한 지능 로봇의 제어 방법의 흐름도이다.
도 6에서 도시되는 바와 같이, 본 발명의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 방법은 하기의 단계 S601, S602, 및 S603을 포함한다.
S601: 지능 로봇의 결책 엔진이 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성한다.
본 발명의 일 실시예에서, 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함한다. 구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라 또는 적외선 센서를 통하여 입력한 것일 수 있으며; 상기 환경 센서 신호는 광센서, 적외선 센서, 온습도 센서, 유독 가스 센서, 오염 미립자 센서, 터치 모듈, 지리적 위치 위치 추적 모듈과 중력 센서 중의 하나 또는 복수개의 센서를 통하여 입력한 신호를 포함한다.
S602: 결책 엔진이 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득한다.
S603: 결책 엔진이 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행한다.
지능 로봇의 로컬의 결책 엔진은 신속하게 응답하는 장점을 구비하지만, 저장 능력과 데이터 처리 능력 등의 제한을 받으므로 결책 엔진은 클라우드 제어 센터에 대해 상대적으로 말하자면 음성 인식, 이미지 인식 등에 대한 인식 정확도가 비교적 낮다. 하지만 클라우드 제어 센터는 인터넷 자원을 충분하게 이용할 수 있고 막강한 처리 능력을 구비하고 있어, 온라인 학습, 정보 검색, 퀴즈 문답 또는 대량 데이터에 대해 학습, 훈련을 행하는 것을 통하여 어의 분석, 기계 번역, 감정 분석, 안면 인식, 음성 인식 등을 행할 수 있고, 따라서 더 높은 정확성을 구비한다. 하지만 네트워크 신호, 속도 등 요소의 영향의 제한을 받으므로 네트워크 지연 등 문제가 존재할 수 있다.
따라서, 본 발명의 실시예에서, 만약 상기 다모드의 입력 신호 중 일부 신호의 처리가 특별히 큰 데이터 처리 능력을 필요로 하지 않고, 대량의 온라인 지식 데이터에도 의존하지 않으며, 동시에 이런 신호의 처리가 다양한 센서 신호를 종합하여 실시간 처리를 행하고, 운동 기구 등이 조정과 응답을 하여 최적의 신호를 획득하거나 장애물 등을 회피하도록 즉시 제어하고, 조정한 후 획득한 신호에 대해 새로운 실시간 처리를 행한다면 이 과정은 신뢰성이 상대적으로 비교적 낮고 일정한 지연이 존재하는 클라우드 제어 센터를 통하여 처리하기에는 부적당하다. 따라서, 결책 엔진으로 이런 신호에 대해 처리를 행할 수 있다. 예를 들면, 결책 엔진은 사용자가 입력한 음성 신호에 의거하여 발음체 위치 추적, 성문 인식 등을 행하고, 이미지 신호와 환경 센서 정보에 의거하여 주변 환경을 감지하며, 주변 환경에 의거하여 지능 로봇이 장애물 회피, 미행 등 운동을 행하도록 제어할 수 있다.
이 외에, 만약 상기 다모드의 입력 신호 중의 음성 신호, 이미지 신호, 적외선 신호 등에 의거하여 음성 인식, 음성 합성, 이미지 인식, 지도 정보 수집과 전처리 등(예를 들면, 안면 인식, 몸매 인식, 동작 인식, 손짓 인식, 성문 인식 등)을 하는 것이 필요된다면 클라우드 제어 센터로 처리할 수 있다. 따라서, 더 정확한 결과를 획득할 수 있다.
음성 신호를 예로 하면, 음성 신호에 대한 처리는 음성 인식, 자연어이해, 어의 분석, 기계 번역, 감정 분석을 행하는 것을 필요로 하는데 이는 대량의 언어 자료와 데이터에 대해 훈련을 행하는 것이 필요되고, 사용자와 인터랙션을 하는 과정에 대해서도 사용자 음성, 동작의 함의에 대해 분석을 행하고, 다음 퀴즈 문답을 통하여 피드백 내용을 확정한다. 따라서, 이런 경우에 대하여 음성 신호를 클라우드 제어 센터로 송신하여 클라우드 제어 센터의 막강한 저장, 데이터 처리 능력을 통하여 분석을 행하는 것이 필요된다.
물론, 본 발명의 실시예에서, 오프라인과 온라인의 융합된 방식 즉, 온라인 조건에서는 우선 순위로 클라우드 제어 센터로 분석을 행하여, 인식이 비교적 정확하거나 음성 합성 효과가 비교적 자연스럽고; 오프라인 조건에서는 로컬의 결책 엔진으로 처리하여, 비록 효과는 가장 좋은 것이 아니지만 업무를 할 수 있는 방식을 통하여 로컬의 결책 엔진과 클라우드 제어 센터의 우세를 충분하게 이용하여 로봇이 각종의 신호를 정확하게 인식할 수 있게 하고, 또 제때에 신속하게 응답을 할 수 있게 한다.
나아가, 본 발명의 일 실시예에서는, 결책 엔진을 통하여 다모드의 입력 신호에 대해 초보적인 처리를 행하고 초보적인 처리를 한 후의 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신하여 더 한층 분석하게 할 수도 있다.
본 발명의 일 실시예에서, S601에서, 결책 엔진은 사용자가 입력한 음성 신호를 복수개의 음성 토막으로 분할하고 복수개의 음성 토막을 클라우드 처리 정보로 할 수 있다. 그 다음 그를 클라우드 제어 센터로 송신하여 처리를 행한다. 클라우드 제어 센터는 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하고 음성 인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 사용자 수요를 획득하고, 다음 결책 엔진으로 피드백할 수 있다. 결책 엔진은 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다.
구체적으로, 본 발명의 일 실시예에서, 만약 사용자 수요가 운동 제어 수요이면 S603은 구체적으로, 결책 엔진은 사용자의 위치를 획득하고 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 주변 환경에 대해 감지를 행하고 사용자의 위치, 주변 지도 및 환경 중의 적어도 하나에 의거하여 지능 로봇이 사용자 수요에 따라 운동을 행하도록 제어하는 것을 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 응용 장면 안내도이다. 도 2에서 도시하는 바와 같이, 사용자는 미리 설정한 음성을 통하여 지능 로봇에 대해 음성 깨움을 행할 수 있다. 예를 들면, 지능 로봇이 사용자가 입력한 음성 신호 "쇼우뚜지능 로봇"을 수신했을 때, 결책 엔진은 사용자에 대해 피드백을 행하고 지능 로봇이 음성 명령 감청 모드에 진입하도록 제어할 수 있다. 이 모드에서, 만약 사용자가 "절 따라 오세요" 또는 "절 따르세요" 또는 "빨리 따라오세요" 등 자연어 방식으로 표달되는 음성을 입력했을 때, 결책 엔진은 당해 음성에 대응되는 음성 토막을 클라우드 제어 센터로 송신하여 분석을 행할 수 있다. 클라우드 제어 센터는 분석을 통하여 구체적인 표달 방식이 확정적이지 않은 명령에 대해 어의 이해와 표준화 처리를 행하여 사용자 수요가 통일적이고 규범적인 "따르다"인 수요를 획득하고 결책 엔진으로 피드백한다. 결책 엔진은 "따르다"의 수요에 의거하여 명령 배정을 행한다. 즉, 운동 제어 프로그램을 호출하여 지능 로봇을 제어하여 사용자를 따라 운동을 행하도록 제어한다. 구체적으로, 결책 엔진은 사용자에 대해 방위 추적을 행하여 사용자의 위치를 획득할 수 있다. 예를 들면, 사용자 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고 카메라 등을 사용자를 향해 돌리고 사용자 위치 변화에 의거하여 지능 로봇이 이동하도록 제어한다. 나아가, 이동 과정에서, 결책 엔진은 지능 로봇이 주변 지도와 주변 환경에 의거하여 장애물 회피와 길 찾기를 행하도록 제어할 수 있다.
이 외에, 만약 사용자 수요가 길 찾기 수요이면 S603은 구체적으로 결책 엔진은 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 지능 로봇의 위치와 목표 위치를 획득하며, 및 결책 엔진은 주변 지도, 지능 로봇의 위치와 목표 위치에 의거하여 지능 로봇이 방향을 가리키거나 음성 인터랙션을 통하여 방향을 인도하도록 제어하는 것을 포함할 수도 있다.
도 3은 본 발명의 다른 하나의 실시예에 따른 응용 장면 안내도이다. 도 3에서 도시되는 바와 같이, 사용자는 미리 설정한 음성을 통하여 지능 로봇에 대해 음성 깨움을 행할 수 있다. 예를 들면, 지능 로봇이 사용자가 입력한 음성 신호 "쇼우뚜(小度) 지능 로봇"을 수신했을 때, 결책 엔진은 사용자에 대해 피드백을 행하고 지능 로봇이 음성 명령 감청 모드에 진입하도록 제어할 수 있다. 이 모드에서, 만약 사용자가 "궈항(國航:Air China)은 어디서 체크인 하죠?" 또는 "안전검사는 어디로 가면 되죠?" 또는 "국제선 입구" 등 음성을 입력하면 결책 엔진은 당해 음성에 대응되는 음성 토막을 클라우드 제어 센터로 송신하여 분석을 행할 수 있다. 클라우드 제어 센터는 분석을 통하여 사용자 수요가 "실체적 위치를 지정하는 것"인 수요를 획득하고 결책 엔진으로 피드백한다. 결책 엔진은 "실체의 위치를 지정하는 것"의 수요에 의거하여 명령 배정 즉, 길 안내 프로그램을 호출하여 지능 로봇을 제어하여 사용자에게 길 안내를 행하도록 한다. 구체적으로, 결책 엔진은 위치와 방향에 대해 검측을 행하여 자신의 위치를 확정하고 주변 지도에서 위치 추적을 행하고, 다음 지정 실체와의 상대적 위치에 의거하여 사용자에게 길 안내를 행할 수 있다. 예를 들면, 몸 돌리기와 상지 운동을 통하여 방향을 가리키는 것을 제어하거나, 음성 출력을 통하여 방향을 가리키고 음성 인터랙션을 통하여 사용자를 인도할 수 있다.
본 발명의 다른 하나의 실시예에서, S601에서, 결책 엔진은 이미지 신호 및 환경 센서 신호 중의 적어도 하나에 의거하여 사용자에 대해 운동 검측을 행하고, 미리 설정한 규칙에 따라 운동 검측 결과를 클라우드 처리 정보로 할 수 있다. 여기서, 결책 엔진은 획득해낸 사용자의 이미지 신호에 의거하여 사용자의 사지 동작, 손짓 동작, 몸매 인식 등을 인식하고 이에 의거하여 사용자에 대해 운동 검측, 예를 들면 몸 뒤척이기, 점핑 등을 행할 수 있다. 그 다음 미리 설정한 규칙에 따라 운동 검측 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신하여 처리를 행한다. 예를 들면, 검측해낸 각각의 운동 및 그에 대응되는 타임스탬프(운동 발생 시간)를 클라우드 처리 센터로 송신한다. 클라우드 제어 센터는 얼마간의 시간내의 운동 검측 결과에 대해 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교하여 대응되는 사용자 수요를 획득하고, 다음 결책 엔진으로 피드백할 수 있다. 결책 엔진은 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다. 구체적으로, 결책 엔진은 사용자 수요에 의거하여 지능 로봇이 미리 설정한 모바일 단말로 제시 정보를 송신하도록 제어할 수 있다.
도 4는 본 발명의 또 하나의 실시예에 따른 응용 장면 안내도이다. 도 4에서 도시하는 바와 같이, 결책 엔진은 사용자(영유아)의 적외선 이미지를 획득하고 목표 운동 검측을 행하여, 만약 사용자가 몸 뒤척이기 동작을 행하였다고 검측해내면 감호 프로그램을 호출하여 검측해낸 몸 뒤척이기 동작 및 그에 대응되는 타임스탬프를 클라우드 제어 센터로 송신할 수 있다. 클라우드 제어 센터는 수신한 동작 및 그에 대응되는 타임스탬프에 대해 기록을 행하고 얼마간의 시간의 기록 결과에 의거하여 몸 뒤척이기는 빈도를 계산하고 몸 뒤척이기는 빈도를 어머니와 아기 지식 베이스와 대해 비교 대조를 행할 수 있다. 만약 비교 대조하여 당해 몸 뒤척이는 빈도가 당해 사용자의 대소변으로 인한 불편에 의해 초래된 것임을 표명하는 것이라고 알아내면 이 결과를 결책 엔진으로 피드백한다. 결책 엔진은 이 결과를 수신한 후 감호 프로그램을 호출하여 미리 설정한 모바일 단말로 "기저귀 갈기" 제시 정보를 송신할 수 있다. 이 외에, 결책 엔진은 지능 로봇이 사용자의 운동에 따라 운동하도록 제어하여 사용자 이미지의 시야를 획득하는 것을 보장하고 사용자의 동작, 행위에 의거하여 지능 로봇에 대해 제어를 행한다. 따라서, 가장이 제때에 영유아에게 기저귀를 갈아주게 할 수 있어, 영유아의 쾌적감을 향상시키는 동시에 가장이 영유아의 상태를 획득하는 것을 편리하게 할 수 있어 가장이 아이를 간호하는 업무량을 줄인다.
이 외에, 클라우드 제어 센터는 영유아의 얼마간의 비교적 긴 시기의 몸 뒤척이기의 기록 또는 기타 동작에 의거하여 영유아에게 건강 파일을 작성해주고, 대량 데이터를 수집하는 기초에서 진일보로 빅 데이터 분석, 발굴을 행하여 추세적인 정보를 발견하고, 정확한 정보, 서비스 푸싱 등 업무를 행할 수 있다.
본 발명의 일 실시예에서, 당해 방법은 결책 엔진이 이미지 신호에 의거하여 안면 검측을 행하여, 만약 이미지 신호가 안면 이미지 신호이면 안면 이미지 신호를 클라우드 제어 센터로 송신하여 안면 인식을 행하고 인식 결과에 의거하여 사용자의 신분 정보를 확정하는 것을 포함할 수도 있다.
이 외에, 결책 엔진은 사용자에 대해 성문 인식을 행하여 사용자의 신분을 확정할 수도 있다.
본 발명의 실시예에서, 다양한 인식 방식은 단독으로 또는 조합되어 사용되어 정확도가 더 높고 또는 적용 조건이 더 넓으며 더 편리한 사용자 신분 확인을 제공할 수 있다는 것으로 이해되어야 한다. 예를 들면, 광선 조건이 좋지 않아 영상 형성 품질이 떨어지는 것을 초래할 때에는 상응하게 성문 인식의 가중치를 높이고, 환경이 시끄러워 픽업 품질이 떨어지는 것을 초래할 때에는 상응하게 안면 인식의 가중치를 높이며, 불법 사용자가 도용하는 것을 방지할 수 있고 사용자 신분 정보에 의거하여 사용자에게 개인 데이터 베이스를 작성해 줄 수도 있어 사용자에게 개성화된 서비스를 제공한다.
상기 장면은 단지 본 발명의 실시예에 대한 이해를 편리하게 하기 위한 예시적인 설명일 뿐, 실제 응용에서, 실제 제어 과정에서, 결책 엔진의 각종의 제어 기능과 제어는 실제 제어 수요에 의거하여 호출을 행하고 클라우드 제어 센터의 온라인 처리 결과와 결합할 수 있다는 것으로 이해되어야 한다. 도 5에서 도시하는 바와 같이, 지능 로봇이 온라인 상태에 처하여 있을 때, 결책 엔진은 이미지 신호, 음성 신호 등을 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있고, 클라우드 제어 센터는 온라인 자원, 지식 등에 의거하여 다모드의 입력 신호에 대해 온라인 학습, 정보 검색, 퀴즈 문답을 행하거나 또는 대량 데이터에 대해 학습, 훈련을 행하여 어의 분석, 기계 번역 감정 분석, 안면 인식, 음성 인식 등(예를 들면, 클라우드 서버를 통하여 동작 인식, 손짓 인식, 몸매 인식, 지도 정보 수집과 전처리 등을 행함)을 행하고, 결책 엔진은 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고, 센서 신호에 의거하여 주변 환경에 대해 감지를 행하고 위치 추적 결과, 환경 감지 결과 및 클라우드 제어 센터가 피드백한 분석결과(예를 들면, 음성에 대응되는 명령, 이미지 인식 결과, 이미지 정보에 의거하여 생성된 주변 지도 등)에 의거하여 지능 로봇의 운동 기구에 대해 제어를 행하여 지능 로봇의 장애물 회피, 미행류 제어 등과 같은 운동 제어를 실현할 수 있다. 결책 엔진과 클라우드 제어 센터는 네트워크를 통하여 연결을 행하고 데이터를 전송할 수 있다.
여기서, 결책 엔진은 다모드의 입력 신호에 대해 초보적인 처리를 행하고 처리한 후의 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있다. 예를 들면, 음성 신호를 음성 토막으로 절단하고 음성 토막을 송신하거나 또는 이미지 신호에 대해 안면 인식을 행하고 인식해낸 안면 이미지를 클라우드 제어 센터로 송신하여 안면 인식을 행할 수 있어 전부의 이미지 신호를 전송할 필요가 없고 전송 데이터량을 줄인다.
이 외에, 지능 로봇이 오프라인 상태에 처하여 있을 때에는, 클라우드 제어 센터와 통신을 행할 수 없다. 이때, 결책 엔진에 의해 내장된 프로그램에 의거하여 다모드의 입력 신호에 대해 음성 인식, 음성 합성, 이미지 인식, 주변 지도 생성, 사용자 동작 인식 등과 같은 처리, 인식과 분석을 행할 수 있다. 지능 로봇이 온라인 상태에 처하여 있는지 아니면 오프라인 상태에 처하여 있는지를 막론하고 모두 그 정상 업무를 제어할 수 있다.
이에 따라, 결책 엔진과 클라우드 제어 센터사이에서 전달되는 것은 데이터 양이 비교적 작은 명령형 음성 토막 및 "따르다"와 같은 추상적이고 규범적인 명령 또는 소부분의 이미지 신호로서, 데이터 양이 작고 전송하기 빠르며 처리하기 쉽다. 이 외에, 카메라, 센서 등이 획득하는 대량의 이미지 신호와 센서 신호 등 실시간 데이터에 대해서는 결책 엔진으로 처리하여 데이터 양이 너무 크고 전송 속도가 느려 응답 지연을 초래하는 것을 모면할 수 있으므로 결책 엔진의 신속한 응답과 클라우드 제어 센터의 막강한 처리 능력의 우세를 충분하게 이용할 수 있다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 방법에서, 지능 로봇에 있는 결책 엔진은 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행할 수 있어, 처리 능력과 응답 속도에 의거하여 결책 엔진과 클라우드 제어 센터에 의해 지능 로봇이 수신한 다모드 신호를 분담 처리하는 것으로, 클라우드 제어 센터를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여 제때에 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있는바, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에, 제때에, 신속하게, 지능적으로 사용자 명령에 응답하할 수 있어 사용자 체험을 향상시킨다.
상기 실시예를 실현하기 위하여, 본 발명은 다른 한 종류의 인공 지능에 기초한 지능 로봇 제어 장치를 더 제공한다.
당해 제어 장치는 지능 로봇에 설치되는 것에 응용될 수 있으며, 예를 들면 지능 로봇의 결책 엔진일 수 있다.
인공 지능에 기초한 지능 로봇 제어 장치로서, 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하기 위한 생성 모듈; 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하기 위한 송신 모듈; 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하기 위한 제어 모듈을 포함한다.
도 7a는 본 발명의 일 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 장치의 구조 안내도이다.
도 7a에서 도시하는 바와 같이, 당해 인공 지능에 기초한 지능 로봇 제어 장치는 생성 모듈(110), 송신 모듈(120)과 제어 모듈(130)을 포함한다.
구체적으로, 생성모듈(110)은 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하기 위한 것이다.
본 발명의 일 실시예에서, 다모드의 입력 신호에는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함한다. 구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라 또는 적외선 센서를 통하여 입력한 것일 수 있으며, 상기 환경 센서 신호는 광센서, 적외선 센서, 온습도 센서, 유독 가스 센서, 오염 미립자 센서, 터치 모듈, 지리적 위치 위치 추적 모듈과 중력 센서 중의 하나 또는 복수개의 센서를 통하여 입력한 신호를 포함한다.
송신 모듈(120)은 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하기 위한 것이다.
제어 모듈(130)은 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하기 위한 것이다.
지능 로봇의 로컬의 결책 엔진은 신속하게 응답하는 장점을 구비하지만, 저장 능력과 데이터 처리 능력 등의 제한을 받으므로 결책 엔진은 클라우드 제어 센터에 대해 상대적으로 말하자면 음성 인식, 이미지 인식 등에 대한 인식 정확도가 비교적 낮다. 하지만 클라우드 제어 센터는 인터넷 자원을 충분하게 이용할 수 있고 막강한 처리 능력을 구비하고 있어, 온라인 학습, 정보 검색, 퀴즈 문답 또는 대량의 데이터에 대해 학습, 훈련을 행하는 것을 통하여 어의 분석, 기계 번역, 감정 분석, 안면 인식, 음성 인식 등을 행할 수 있고, 따라서 더 높은 정확도를 구비한다. 하지만 네트워크 신호, 속도 등 요소의 영향의 제한을 받으므로 네트워크 지연 등 문제가 존재할 수 있다.
따라서, 본 발명의 실시예에서, 만약 상기 다모드의 입력 신호 중 일부 신호의 처리가 특별히 큰 데이터 처리 능력을 필요로 하지 않고, 대량의 온라인 지식 데이터에도 의존하지 않으며, 동시에 이런 신호의 처리가 다양한 센서 신호를 종합하여 실시간 처리를 행하고, 운동 기구 등이 조정과 응답을 하여 최적의 신호를 획득하거나 장애물을 회피하도록 즉시 제어하며, 조정한 후 획득한 신호에 대해 새로운 실시간 처리를 행하는 것이 필요된다면, 이 과정은 신뢰성이 상대적으로 비교적 낮고 일정한 지연이 있는 클라우드 제어 센터를 통하여 처리하기에는 부적당하다. 따라서, 결책 엔진으로 이런 신호에 대해 처리를 행할 수 있다. 예를 들면, 결책 엔진은 사용자가 입력한 음성 신호에 의거하여 발음체 위치 추적, 성문 인식 등을 행하고 이미지 신호와 환경 센서 정보에 의거하여 주변 환경을 감지하며 주변 환경에 의거하여 지능 로봇이 장애물 회피, 미행 등 운동을 행하도록 제어할 수 있다.
이 외에, 만약 상기 다모드의 입력 신호 중의 음성 신호, 이미지 신호, 적외선 신호 등에 의거하여 음성 인식, 음성 합성, 이미지 인식, 지도 정보 수집과 전처리(예들 들면, 안면 인식, 몸매 인식, 동작 인식, 손짓 인식, 성문 인식 등) 등을 하는 것이 필요된다면 송신 모듈(120)에 의해 클라우드 제어 센터로 송신하여 처리를 행할 수 있다. 따라서, 보다 정확한 결과를 획득할 수 있다.
음성 신호를 예로 하면, 음성 신호에 대한 처리는 음성 인식, 자연어이해, 어의 분석, 기계 번역, 감정 분석을 행하는 것을 필요로 하는데 이는 대량의 언어 자료와 데이터에 대해 훈련을 행해하는 것이 필요되고, 사용자와 인터랙션을 하는 과정에 대해서도 사용자 음성, 동작의 함의에 대해 분석을 행하고, 다음 퀴즈 문답을 통하여 피드백 내용을 확정한다. 따라서, 이런 경우에 대하여 음성 신호를 클라우드 제어 센터로 송신하여 클라우드 제어 센터의 막강한 저장, 데이터 처리 능력을 통하여 분석을 행하는 것이 필요된다.
물론, 본 발명의 실시예에서는, 오프라인 온라인의 융합된 방식 즉, 온라인 조건에서는 우선 순위로 클라우드 제어 센터로 분석을 행하여, 인식이 비교적 정확하거나 음성 합성 효과가 비교적 자연스럽고; 오프라인 조건에서는 로컬의 결책 엔진으로 처리하여, 비록 효과는 가장 좋은 것이 아니지만 업무를 할 수 있는 방식을 통하여, 로컬의 결책 엔진과 클라우드 제어 센터의 우세를 충분하게 이용하여 로봇이 각종의 신호를 정확히 인식할 수 있게 하고, 또 제때에 신속하게 응답을 할 수 있게 한다.
나아가, 본 발명의 일 실시예에서는, 생성 모듈(110)을 통하여 다모드의 입력 신호에 대해 초보적인 처리를 행하고 초보적인 처리를 한 후의 결과를 클라우드 처리 정보로 한다. 다음 송신 모듈(120)에 의해 클라우드 제어 센터로 송신하여 좀 더 한층 분석할 수도 있다.
본 발명의 일 실시예에서, 생성모듈(110)은 사용자가 입력한 음성 신호를 복수개의 음성 토막으로 분할하고 복수개의 음성 토막을 클라우드 처리 정보로 할 수 있다. 그 다음 송신 모듈(120)은 그를 클라우드 제어 센터로 송신하여 처리를 행한다. 클라우드 제어 센터는 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하고 음성 인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 사용자 수요를 획득한 후 피드백한다. 제어 모듈(130)은 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다.
구체적으로, 본 발명의 일 실시예에서, 만약 사용자 수요가 운동 제어 수요이면 제어 모듈(130)은 구체적으로, 사용자의 위치를 획득하고 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 주변 환경에 대해 감지를 행하고 사용자의 위치, 주변 지도 및 환경 중의 적어도 하나에 의거하여 지능 로봇이 사용자 수요에 따라 운동을 행하도록 제어하기 위한 것일 수 있다.
도 2는 본 발명의 일 실시예에 따른 응용 장면 안내도이다. 도 2에서 도시하는 바와 같이, 사용자는 미리 설정한 음성을 통하여 지능 로봇에 대해 음성 깨움을 행할 수 있다. 예를 들면, 지능 로봇이 사용자가 입력한 음성 신호 "쇼우뚜(小度) 지능 로봇"을 수신했을 때, 지능 로봇은 사용자에 대해 피드백을 행하고 지능 로봇이 음성 명령 감청 모드에 진입하도록 제어할 수 있다. 이 모드에서, 만약 사용자가 "절 따라 오세요" 또는 "절 따르세요" 또는 "빨리 따라 오세요" 등 자연어 방식으로 표달되는 음성을 입력했을 때, 송신 모듈(120)은 당해 음성에 대응되는 음성 토막을 클라우드 제어 센터로 송신하여 분석을 행할 수 있다. 클라우드 제어 센터는 분석을 통하여 구체적인 표달 방식이 확정적이지 않은 명령에 대해 어의 이해와 표준화 처리를 행하여 사용자 수요가 통일적이고 규범적인 "따르다"인 수요를 획득하고 결책 엔진으로 피드백한다. 제어 모듈(130)은 "따르다"의 수요에 의거하여 명령 배정을 행한다. 즉, 운동 제어 프로그램을 호출하여 지능 로봇이 사용자를 따라 운동을 행하도록 제어한다. 구체적으로, 제어 모듈(130)은 사용자에 대해 방위 추적을 행하여 사용자의 위치를 획득할 수 있다. 예를 들면, 사용자 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고 카메라 등을 사용자로 향하도록 돌리고 사용자 위치 변화에 의거하여 지능 로봇이 이동을 행하도록 제어한다. 나아가, 이동 과정에서, 제어 모듈(130)은 지능 로봇이 주변 지도와 주변 환경에 의거하여 장애물 회피와 길 찾기를 행하도록 제어할 수 있다.
이 외에, 만약 사용자 수요가 길 찾기 수요이면 제어 모듈(130)은 구체적으로 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 지능 로봇의 위치와 목표 위치를 획득하며, 및 주변 지도, 지능 로봇의 위치와 목표 위치에 의거하여 지능 로봇이 방향을 가리키거나 음성 인터랙션을 통하여 방향을 인도하게 제어하기 위한 것일 수도 있다.
도 3은 본 발명의 다른 하나의 실시예에 따른 응용 장면 안내도이다. 도 3에서 도시되는 바와 같이, 사용자는 미리 설정한 음성을 통하여 지능 로봇에 대해 음성 깨움을 행할 수 있다. 예를 들면, 지능 로봇이 사용자가 입력한 음성 신호 "쇼우뚜(小度) 지능 로봇"을 수신했을 때, 지능 로봇은 사용자에 대해 피드백을 행하고 지능 로봇이 음성 명령 감청 모드에 진입하도록 제어할 수 있다. 이 모드에서, 만약 사용자가 "궈항(國航:Air China)은 어디서 체크인 하죠?" 또는 "안전검사는 어디로 가면 되죠?" 또는 "국제선 입구" 등 음성을 입력하면 송신 모듈(120)은 당해 음성에 대응되는 음성 토막을 클라우드 제어 센터로 송신하여 분석을 행할 수 있다. 클라우드 제어 센터는 분석을 통하여 사용자 수요가 "실체의 위치를 지정하는 것"인 수요를 획득하고 결책 엔진으로 피드백한다. 제어 모듈(130)은 "실체의 위치를 지정하는 것"의 수요에 의거하여 명령 배정, 즉 길 안내 프로그램을 호출하여 지능 로봇을 제어하여 사용자에게 길 안내를 행하도록 한다. 구체적으로, 제어 모듈(130)은 위치와 방향에 대해 검측을 행하여 자신의 위치를 확정하고 주변 지도에서 위치 추적을 행하고, 다음 지정 실체와의 상대적 위치에 의거하여 사용자에게 길 안내를 행할 수 있다. 예를 들면, 몸 돌리기와 상지 운동을 통하여 방향을 가리키는 것을 제어하거나, 음성 출력을 통하여 방향을 가리키고 음성 인터랙션을 통하여 사용자를 인도할 수 있다.
본 발명의 다른 하나의 실시예에서, 생성 모듈(110)은 이미지 신호 및 환경 센서 신호 중의 적어도 하나에 의거하여 사용자에 대해 운동 검측을 행하고, 미리 설정한 규칙에 따라 운동 검측 결과를 클라우드 처리 정보로 할 수 있다. 여기서, 생성 모듈(110)은 획득해낸 사용자의 이미지 신호에 의거하여 사용자의 사지 동작, 손짓 동작, 몸매 인식 등을 인식하고 이에 의거하여 사용자에 대해 운동 검측, 예를 들면 몸 뒤척이기, 점핑 등을 행할 수 있다. 그 다음 미리 설정한 규칙에 따라 운동 검측 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신하여 처리를 행한다. 예를 들면, 검측해낸 각각의 운동 및 그에 대응되는 타임스탬프(운동 발생 시간)를 클라우드 처리 센터로 송신한다. 클라우드 제어 센터는 얼마간의 시간내의 운동 검측 결과에 대해 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교하여 대응되는 사용자 수요를 획득하고, 다음 지능 로봇으로 피드백할 수 있다. 제어 모듈(130)은 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다. 구체적으로, 제어 모듈(130)은 사용자 수요에 의거하여 지능 로봇이 미리 설정한 모바일 단말로 제시 정보를 송신하도록 제어할 수 있다.
도 4는 본 발명의 또 하나의 실시예에 따른 응용 장면 안내도이다. 도 4에서 도시하는 바와 같이, 생성 모듈(110)은 사용자(영유아)의 적외선 이미지를 획득하고 목표 운동 검측을 행하여 만약 사용자가 몸 뒤척이기 동작을 행하였다고 검측해내면 감호 프로그램을 호출하여 검측해낸 몸 뒤척이기 동작 및 그에 대응되는 타임스탬프를 클라우드 제어 센터로 송신할 수 있다. 클라우드 제어 센터는 수신한 동작 및 그에 대응되는 타임스탬프에 대해 기록을 행하고 얼마간의 시간의 기록 결과에 의거하여 몸 뒤척이기 빈도를 계산하고 몸 뒤척이기 빈도를 어머니와 아기 지식 베이스와 비교 대조를 행할 수 있다. 만약 비교 대조하여 당해 몸 뒤척이는 빈도가 당해 사용자의 대소변으로 인한 불편에 의해 초래된 것임을 표명하는 것이라고 알아내면 이 결과를 지능 로봇으로 피드백한다. 제어 모듈(130)은 이 결과를 수신한 후 감호 프로그램을 호출하여 미리 설정한 모바일 단말로 "기저귀 갈기" 제시 정보를 송신할 수 있다. 이 외에, 제어 모듈(130)은 지능 로봇이 사용자의 운동에 따라 운동하도록 제어하여 사용자 이미지의 시야를 획득하는 것을 보장하고 사용자의 동작, 행위에 의거하여 지능 로봇에 대해 제어를 행한다. 따라서, 가장이 제때에 영유아에게 기저귀를 갈아주게 할 수 있어, 영유아의 쾌적감을 향상시키는 동시에 가장이 영유아의 상태를 획득하는 것을 편리하게 할 수 있어 가장이 아이를 간호하는 업무량을 줄인다.
이 외에, 클라우드 제어 센터는 영유아의 얼마간의 비교적 긴 시기의 몸 뒤척이기 기록 또는 기타 동작에 의거하여 영유아에게 건강 파일을 작성해주고, 대량 데이터를 수집하는 기초에서 진일보로 빅 데이터 분석, 발굴을 행하여 추세적인 정보를 발견하고, 정확한 정보, 서비스 푸싱 등 업무를 행할 수도 있다.
상기 장면은 단지 본 발명의 실시예에 대한 이해를 편리하게 하기 위한 예시적인 설명일 뿐, 실제 응용에서, 실제 제어 과정에서, 결책 엔진의 각종의 제어 기능과 제어는 실제 제어 수요에 의거하여 호출을 행하고 클라우드 제어 센터의 온라인 처리 결과와 결합을 행할 수 있다는 것으로 이해되어야 한다. 도 5에서 도시하는 바와 같이, 지능 로봇이 온라인 상태에 처하여 있을 때, 결책 엔진은 이미지 신호, 음성 신호 등을 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있고, 클라우드 제어 센터는 온라인 자원, 지식 등에 의거하여 다모드의 입력 신호에 대해 온라인 학습, 정보 검색, 퀴즈 문답을 행하거나 또는 대량 데이터에 대해 학습, 훈련을 행하여 어의 분석, 기계 번역, 감정 분석, 안면 인식, 음성 인식 등(예를 들면, 클라우드 서버를 통하여 동작 인식, 손짓 인식, 몸매 인식, 지도 정보 수집과 전처리 등을 행함)을 행하고, 결책 엔진은 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고, 센서 신호에 의거하여 주변 환경에 대해 감지를 행하고 위치 추적 결과, 환경 감지 결과 및 클라우드 제어 센터가 피드백한 분석결과(예를 들면, 음성에 대응되는 명령, 이미지 인식 결과, 이미지 정보에 의거하여 생성시킨 주변 지도 등)에 의거하여 지능 로봇의 운동 기구에 대해 제어를 행하여 지능 로봇의 장애물 회피, 미행류 제어 등과 같은 운동 제어를 실현할 수 있다. 결책 엔진과 클라우드 제어 센터는 네트워크를 통하여 연결되고 데이터를 전송할 수 있다.
여기서, 결책 엔진은 다모드의 입력 신호에 대해 초보적인 처리를 행하고 처리한 후의 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있다. 예를 들면, 음성 신호를 음성 토막으로 절단하고 음성 토막을 송신하거나 또는 이미지 신호에 대해 안면 인식을 행하고 인식해낸 안면 이미지를 클라우드 제어 센터로 송신하여 안면 인식을 행할 수 있어, 전부의 이미지 신호를 전송할 필요가 없고 전송 데이터량을 줄인다.
이 외에, 지능 로봇이 오프라인 상태에 처하여 있을 때에는, 클라우드 제어 센터와 통신을 행할 수 없다. 이때, 결책 엔진에 의해 내장된 프로그램에 의거하여 다모드의 입력 신호에 대해 음성 인식, 음성 합성, 이미지 인식, 주변 지도 생성, 사용자 동작 인식 등과 같은 처리, 인식과 분석을 행할 수 있다. 지능 로봇이 온라인 상태에 처하여 있는지 아니면 오프라인 상태에 처하여 있는지를 막론하고 모두 그 정상 업무를 제어할 수 있다.
이에 따라, 결책 엔진과 클라우드 제어 센터사이에서 전달되는 것은 데이터 양이 비교적 작은 명령형 음성 토막 및 "따르다"와 같은 추상적이고 규범적인 명령 또는 소부분의 이미지 신호로서, 데이터 양이 작고 전송하기 빠르며 처리하기 쉽다. 이외에, 카메라, 센서 등이 획득한 대량의 이미지 신호와 센서 신호 등 실시간 데이터에 대해서는 결책 엔진으로 처리하는바 데이터 양이 너무 크고 전송 속도가 느려 응답 지연을 초래하는 것을 모면할 수 있으므로 결책 엔진의 신속한 응답과 클라우드 제어 센터의 막강한 처리 능력의 우세를 충분하게 이용할 수 있다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 장치는, 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행할 수 있어, 처리 능력과 응답 속도에 의거하여 로컬과 클라우드 제어 센터에 의해 지능 로봇이 수신한 다모드 신호를 분담 처리하는 것으로, 클라우드 제어 센터를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 처리를 통하여 제때에 신속하게 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있는바, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에, 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
도 7b는 본 발명의 또 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 장치의 구조 안내도이다.
도 7b에서 도시하는 바와 같이, 당해 인공 지능에 기초한 지능 로봇 제어 장치는 도 7a에서 도시하는 것에 기초하여 신분 확정 모듈(140)을 더 포함한다.
구체적으로, 신분 확정 모듈(140)은 이미지 신호에 의거하여 안면 검측을 행하여 만약 이미지 신호가 안면 이미지 신호이면 안면 이미지 신호를 클라우드 제어 센터로 송신하여 안면 인식을 행하고 인식 결과에 의거하여 사용자의 신분 정보를 확정하기 위한 것이다.
본 발명의 일 실시예에서, 당해 방법은, 결책 엔진이 이미지 신호에 의거하여 안면 검측을 행하여 만약 이미지 신호가 안면 이미지 신호이면 안면 이미지 신호를 클라우드 제어 센터로 송신하여 안면 인식을 행하고 인식 결과에 의거하여 사용자의 신분 정보를 확정하는 것을 더 포함할 수 있다.
이 외에, 결책 엔진은 사용자에 대해 성문 인식을 행하여 사용자의 신분을 확정할 수도 있다.
본 발명의 실시예에서 다양한 인식 방식은 단독으로 또는 조합되어 사용되어 정확도가 더 높고 또는 적용 조건이 더 넓으며 더 편리한 사용자 신분 확인을 제공할 수 있다는 것으로 이해되어야 한다. 예를 들면, 광선 조건이 좋지 않아 영상 형성 품질이 떨어지는 것을 초래할 때에는 상응하게 성문 인식의 가중치를 제고시키고, 환경이 시끄러워 픽업 품질이 떨어지는 것을 초래할 때는 상응하게 안면 인식의 가중치를 제고시키며, 불법 사용자가 도용하는 것을 방지할 수 있고 사용자 신분 정보에 의거하여 사용자에게 개인 데이터 베이스를 작성해 줄 수도 있어 사용자에게 개성화된 서비스를 제공한다.
상기 실시예를 실현하기 위하여 본 발명은 다른 하나의 인공 지능에 기초한 지능 로봇 제어 방법을 더 제공한다.
당해 제어 방법은 클라우드 제어 센터에 응용될 수 있다.
인공 지능에 기초한 지능 로봇 제어 방법으로서, 클라우드 제어 센터는 지능 로봇이 송신한 클라우드 처리 정보를 수신하는 단계; 클라우드 제어 센터는 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하는 단계; 클라우드 제어 센터는 사용자 수요를 결책 엔진으로 피드백하는 단계를 포함한다.
도 8은 본 발명의 다른 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 방법의 흐름도이다.
도 8에서 도시되는 바와 같이, 당해 인공 지능에 기초한 지능 로봇 제어 방법은 하기와 같은 단계 S801 내지 S803을 포함한다.
S801: 클라우드 제어 센터가 지능 로봇이 송신한 클라우드 처리 정보를 수신한다.
본 발명의 실시예에서, 클라우드 처리 정보는 지능 로봇 결책 엔진이 다모드의 입력 신호에 의거하여 생성한 것일 수 있다. 클라우드 처리 정보는 결책 엔진이 사용자가 입력한 음성 신호를 분할하여 획득한 복수개의 음성 토막, 이미 검측해낸 안면 이미지, 동작 검측 결과(예를 들면, 손짓 동작, 사지 동작 등)등 일 수 있다. 여기서, 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함한다. 구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라 또는 적외선 센서를 통하여 입력한 것일 수 있으며; 상기 환경 센서 신호는 광센서, 적외선 센서, 온습도 센서, 유독 가스 센서, 오염 미립자 센서, 터치 모듈, 지리적 위치 위치 추적 모듈과 중력 센서 중의 하나 또는 복수개의 센서를 통하여 입력한 신호를 포함한다.
S802: 클라우드 제어 센터가 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득한다.
S803: 클라우드 제어 센터가 사용자 수요를 결책 엔진으로 피드백한다.
본 발명의 일 실시예에서, 만약 클라우드 처리 정보가 복수개의 음성 토막이면 S802는 구체적으로, 상기 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하는 것, 인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 상기 사용자 수요를 획득하는 것을 포함한다.
본 발명의 일 실시예에서, 상기 클라우드 처리 정보가 운동 검측 결과이면 S802는 구체적으로, 상기 운동 검측 결과에 대해 통계 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교하여 상기 사용자 수요를 획득하는 것을 포함한다.
본 발명의 일 실시예에서, 만약 상기 클라우드 처리 정보가 안면 이미지이면 S802는 구체적으로 상기 안면 이미지에 대해 안면 인식을 행하고 안면 인식 결과를 결책 엔진으로 피드백하는 것을 포함한다.
본 발명의 실시예에서, 결책 엔진은 다모드의 입력 신호에 대해 가공과 처리를 행할 수 있다. 예를 들면, 사용자가 입력한 음성 신호에 의거하여 발음체 위치 추적, 성문 인식 등을 행하고 이미지 신호와 환경 센서 정보에 의거하여 주변 지도와 주변 환경을 생성하거나, 또는 이미지 신호에 의거하여 사용자의 사지 동작, 손짓, 몸매 등을 인식한다.
상기 신호의 처리는 특별히 큰 데이터 처리 능력을 필요하지 않고 대량의 온라인 지식 데이터에도 의존하지 않으므로 결책 엔진으로 처리할 수 있다. 하지만, 사용자 수요에 대해 분석을 행하는 것에 대하여 말하자면, 대량의 데이터, 언어 자료, 지식의 처리에 의존해야 하는바, 만약 여전히 결책 엔진으로 처리하면 결책 엔진의 데이터 처리 능력의 제한을 받기 때문에 처리 실패 또는 시간이 오래 걸리는 등 문제를 초래할 수 있다. 예를 들면, 음성 신호의 처리는 음성 인식, 자연어이해, 어의 분석, 기계 번역, 감정 분석을 행하여야 하며, 이는 대량의 언어 자료와 데이터에 대한 훈련을 필요로 하고 사용자와 인터랙션을 하는 과정에 대하여서도 사용자 음성, 동작의 함의에 대해 분석하고, 다음 퀴즈 문답을 통하여 피드백 내용을 확정하는 것을 필요로 한다. 따라서, 이러한 경우에는 클라우드 제어 센터로 음성 신호를 송신하여 클라우드 제어 센터의 막강한 저장, 데이터 처리 능력을 통하여 분석을 행하여 사용자 수요를 획득하는 것이 필요된다. 그 다음 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다.
구체적으로, 도 2 내지 도 4가 제시하는 응용 장면 예시를 참조할 수 있다.
상기 장면은 단지 본 발명의 실시예에 대한 이해를 편리하게 하기 위한 예시적인 설명일 뿐, 실제 응용에서, 실제 제어 과정에서, 결책 엔진의 각종의 제어 기능과 제어는 실제 제어 수요에 의거하여 호출을 행하고 클라우드 제어 센터의 온라인 처리 결과와 결합할 수 있다는 것으로 이해되어야 한다. 도 5에서 도시하는 바와 같이, 지능 로봇이 온라인 상태에 처하여 있을 때, 결책 엔진은 이미지 신호, 음성 신호 등을 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있고 클라우드 제어 센터가 온라인 자원, 지식 등에 의거하여 다모드의 입력 신호에 대해 온라인 학습, 정보 검색, 퀴즈 문답을 행하거나 또는 대량 데이터에 대해 학습, 훈련을 행하여 어의 분석, 기계 번역, 감정 분석, 안면 인식, 음성 인식 등(예를 들면, 클라우드 서버를 통하여 동작 인식, 손짓 인식, 몸매 인식, 지도 정보 수집과 전처리 등을 행함)을 행하고, 결책 엔진은 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고, 센서 신호에 의거하여 주변 환경에 대해 감지를 행하고 위치 추적 결과, 환경 감지 결과 및 클라우드 제어 센터가 피드백한 분석결과(예를 들면, 음성에 대응되는 명령, 이미지 인식 결과, 이미지 정보에 의거하여 생성된 주변 지도 등)에 의거하여 지능 로봇의 운동 기구에 대해 제어를 행하여 지능 로봇의 장애물 회피, 미행류 제어 등과 같은 운동 제어를 실현할 수 있다. 결책 엔진과 클라우드 제어 센터는 네트워크를 통하여 연결되고 데이터를 전송할 수 있다.
여기서, 결책 엔진은 다모드의 입력 신호에 대해 초보적인 처리를 행하고 처리한 후의 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있다. 예를 들면, 음성 신호를 음성 토막으로 절단하고 음성 토막을 송신하거나 또는 이미지 신호에 대해 안면 인식을 행하고 인식해낸 안면 이미지를 클라우드 제어 센터로 송신하여 안면 인식을 행할 수 있어 전부의 이미지 신호를 전송할 필요가 없고 전송 데이터량을 줄인다.
이 외에, 지능 로봇이 오프라인 상태에 처하여 있을 때에는, 클라우드 제어 센터와 통신을 행할 수 없다. 이때, 결책 엔진에 의해 내장된 프로그램에 의거하여 다모드의 입력 신호에 대해 음성 인식, 음성 합성, 이미지 인식, 주변 지도 생성, 사용자 동작 인식 등과 같은 처리, 인식과 분석을 행할 수 있다. 지능 로봇이 온라인 상태에 처하여 있는지 아니면 오프라인 상태에 처하여 있는지를 막론하고 모두 그 정상 업무를 제어할 수 있다.
이에 따라, 결책 엔진과 클라우드 제어 센터 사이에서 전달되는 것은 데이터 양이 비교적 작은 명령형 음성 토막 및 "따르다"와 같은 추상적이고 규범적인 명령 또는 소부분의 이미지 신호로서, 데이터 양이 작고 전송하기 빠르며 처리하기 쉽다. 이 외에, 카메라, 센서 등이 획득하는 대량의 이미지 신호와 센서 신호 등 실시간 데이터에 대해서는 결책 엔진이 처리를 행하여 데이터 양이 너무 크고 전송 속도가 느려 응답 지연을 초래하는 것을 모면할 수 있으므로 결책 엔진의 빠른 응답과 클라우드 제어 센터의 막강한 처리 능력의 우세를 충분하게 이용할 수 있다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 방법은 지능 로봇 결책 엔진이 송신하는 클라우드 처리 정보를 수신하고 분석을 행하여 사용자 수요를 획득하고 나서 결책 엔진으로 피드백하여 결책 엔진이 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하도록 하는 것을 통하여, 당해 제어 장치를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여, 제때에 신속하게, 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있는바, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에, 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
상기 실시예를 실현하기 위하여, 본 발명은 다른 한 종류의 인공 지능에 기초한 지능 로봇 제어 장치를 더 제공한다.
당해 제어 장치는 클라우드 제어 센터에 응용될 수 있다.
인공 지능에 기초한 지능 로봇 제어 장치로서, 지능 로봇이 송신한 클라우드 처리 정보를 수신하기 위한 수신 모듈; 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하기 위한 분석 모듈; 사용자 수요를 결책 엔진으로 피드백하기 위한 피드백 모듈을 포함한다.
도 9는 본 발명의 다른 하나의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 장치의 구조 안내도이다.
도 9에서 도시하는 바와 같이, 본 발명의 실시예에 따른 인공 지능에 기초한 지능 로봇 제어 장치는 수신 모듈(210), 분석 모듈(220)과 피드백 모듈(230)을 포함한다.
구체적으로, 수신 모듈(210)은 지능 로봇이 송신한 클라우드 처리 정보를 수신하기 위한 것이다.
본 발명의 실시예에서, 클라우드 처리 정보는 지능 로봇 결책 엔진이 다모드의 입력 신호에 의거하여 생성한 것일 수 있다. 클라우드 처리 정보는 결책 엔진이 사용자가 입력한 음성 신호를 분할하여 획득한 복수개의 음성 토막, 이미 검측해낸 안면 이미지, 동작 검측 결과(예를 들면, 손짓 동작, 사지 동작 등)등 일 수 있다. 여기서, 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함한다. 구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라 또는 적외선 센서를 통하여 입력한 것일 수 있으며; 상기 환경 센서 신호는 광센서, 적외선 센서, 온습도 센서, 유독 가스 센서, 오염 미립자 센서, 터치 모듈, 지리적 위치 위치 추적 모듈과 중력 센서 중의 하나 또는 복수개의 센서를 통하여 입력한 신호를 포함한다.
분석 모듈(220)은 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하기 위한 것이다.
피드백 모듈(230)은 사용자 수요를 결책 엔진으로 피드백하기 위한 것이다.
본 발명의 일 실시예에서, 만약 클라우드 처리 정보가 복수개의 음성 토막이면 분석 모듈(220)은 구체적으로 상기 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하고, 인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 상기 사용자 수요를 획득하기 위한 것이다.
본 발명의 일 실시예에서, 상기 클라우드 처리 정보가 운동 검측 결과이면 분석 모듈(220)은 구체적으로 상기 운동 검측 결과에 대해 통계 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교하여 상기 사용자 수요를 획득하기 위한 것이다.
본 발명의 일 실시예에서, 만약 상기 클라우드 처리 정보가 안면 이미지이면 분석 모듈(220)은 구체적으로 상기 안면 이미지에 대해 안면 인식을 행하고 안면 인식 결과를 상기 결책 엔진으로 피드백하기 위한 것이다.
본 발명의 실시예에서, 결책 엔진은 다모드의 입력 신호에 대해 가공과 처리를 행할 수 있다. 예를 들면, 사용자가 입력한 음성 신호에 의거하여 발음체 위치 추적, 성문 인식 등을 행하고, 이미지 신호와 환경 센서 정보에 의거하여 주변 지도와 주변 환경을 생성하거나, 또는 이미지 신호에 의거하여 사용자의 사지 동작, 손짓, 몸매 등을 인식한다.
상기 신호의 처리는 특별히 큰 데이터 처리 능력을 필요하지 않고 대량의 온라인 지식 데이터에도 의존하지 않으므로 결책 엔진으로 처리할 수 있다. 하지만, 사용자 수요에 대해 분석을 행하는 것에 대하여 말하자면, 대량의 데이터, 언어 자료, 지식의 처리에 의존해야 하는바, 만약 여전히 결책 엔진으로 처리하면 결책 엔진의 데이터 처리 능력의 제한을 받기 때문에 처리 실패 또는 시간이 오래 걸리는 등 문제를 초래할 수 있다. 예를 들면, 음성 신호의 처리는 음성 인식, 자연어이해, 어의 분석, 기계 번역, 감정 분석을 행하여야 하며, 이는 대량의 언어 자료와 데이터에 대한 훈련을 필요로 하고 사용자와 인터랙션을 하는 과정에 대하여서도 사용자 음성, 동작의 함의에 대해 분석하고, 다음 퀴즈 문답을 통하여 피드백 내용을 확정하는 것을 필요로 한다. 따라서, 이러한 경우에는 클라우드 제어 센터로 음성 신호를 송신하여 클라우드 제어 센터의 막강한 저장, 데이터 처리 능력을 통하여 분석을 행하여 사용자 수요를 획득하는 것이 필요된다. 그 다음 사용자 수요에 의거하여 다모드의 입력 신호를 결부하여 지능 로봇에 대해 제어를 행한다.
구체적으로, 도 2 내지 도 4가 제시하는 응용 장면 예시를 참조할 수 있다.
상기 장면은 단지 본 발명의 실시예에 대한 이해를 편리하게 하기 위한 예시적인 설명일 뿐, 실제 응용에서, 실제 제어 과정에서, 결책 엔진의 각종의 제어 기능과 제어는 실제 제어 수요에 의거하여 호출을 행하고 클라우드 제어 센터의 온라인 처리 결과와 결합할 수 있다는 것으로 이해되어야 한다. 도 5에서 도시하는 바와 같이, 지능 로봇이 온라인 상태에 처하여 있을 때, 결책 엔진은 이미지 신호, 음성 신호 등을 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있고 클라우드 제어 센터가 온라인 자원, 지식 등에 의거하여 다모드의 입력 신호에 대해 온라인 학습, 정보 검색, 퀴즈 문답을 행하거나 또는 대량 데이터에 대해 학습, 훈련을 행하여 어의 분석, 기계 번역, 감정 분석, 안면 인식, 음성 인식 등(예를 들면, 클라우드 서버를 통하여 동작 인식, 손짓 인식, 몸매 인식, 지도 정보 수집과 전처리 등을 행함)을 행하고, 결책 엔진은 음성 신호에 의거하여 사용자에 대해 발음체 위치 추적을 행하고, 센서 신호에 의거하여 주변 환경에 대해 감지를 행하고 위치 추적 결과, 환경 감지 결과 및 클라우드 제어 센터가 피드백한 분석결과(예를 들면, 음성에 대응되는 명령, 이미지 인식 결과, 이미지 정보에 의거하여 생성된 주변 지도 등)에 의거하여 지능 로봇의 운동 기구에 대해 제어를 행하여 지능 로봇의 장애물 회피, 미행류 제어 등과 같은 운동 제어를 실현할 수 있다. 결책 엔진과 클라우드 제어 센터는 네트워크를 통하여 연결되고 데이터를 전송할 수 있다.
여기서, 결책 엔진은 다모드의 입력 신호에 대해 초보적인 처리를 행하고 처리한 후의 결과를 클라우드 처리 정보로 하여 클라우드 제어 센터로 송신할 수 있다. 예를 들면, 음성 신호를 음성 토막으로 절단하고 음성 토막을 송신하거나 또는 이미지 신호에 대해 안면 인식을 행하고 인식해낸 안면 이미지를 클라우드 제어 센터로 송신하여 안면 인식을 행할 수 있어 전부의 이미지 신호를 전송할 필요가 없고 전송 데이터량을 줄인다.
이 외에, 지능 로봇이 오프라인 상태에 처하여 있을 때에는, 클라우드 제어 센터와 통신을 행할 수 없다. 이때, 결책 엔진에 의해 내장된 프로그램에 의거하여 다모드의 입력 신호에 대해 음성 인식, 음성 합성, 이미지 인식, 주변 지도 생성, 사용자 동작 인식 등과 같은 처리, 인식과 분석을 행할 수 있다. 지능 로봇이 온라인 상태에 처하여 있는지 아니면 오프라인 상태에 처하여 있는지를 막론하고 모두 그 정상 업무를 제어할 수 있다.
이에 따라, 결책 엔진과 클라우드 제어 센터사이에서 전달되는 것은 데이터 양이 비교적 작은 명령형 음성 토막 및 "따르다"와 같은 추상적이고 규범적인 명령 또는 소부분의 이미지 신호로서, 데이터 양이 작고 전송하기 빠르며 처리하기 쉽다. 이 외에, 카메라, 센서 등이 획득하는 대량의 이미지 신호와 센서 신호 등 실시간 데이터에 대해서는 결책 엔진이 처리를 행하여 데이터 양이 너무 크고 전송 속도가 느려 응답 지연을 초래하는 것을 모면할 수 있으므로 결책 엔진의 빠른 응답과 클라우드 제어 센터의 막강한 처리 능력의 우세를 충분하게 이용할 수 있다.
본 발명의 실시예의 인공 지능에 기초한 지능 로봇 제어 장치는 지능 로봇 결책 엔진이 송신하는 클라우드 처리 정보를 수신하고 분석을 행하여 사용자 수요를 획득하고 나서 결책 엔진으로 피드백하여 결책 엔진이 사용자 수요 및 다모드의 입력 신호 중의 적어도 하나에 의거하여 지능 로봇에 대해 제어를 행하도록 하여, 당해 제어 장치를 통하여 복잡한 자연어명령, 복잡한 결책, 이미지 인식 등에 대해 고효율적인 처리를 행할 수 있는 동시에 로컬의 결책 엔진을 통하여, 제때에 신속하게, 입력 신호에 의거하여 지능 로봇에 대해 제어를 행할 수 있는바, 온라인 대량 정보를 충분하게 이용하여 지능 로봇의 저장 연산 능력을 제고하여 복잡한 결책을 처리하는 능력을 제고시키는 동시에, 제때에, 신속하게, 지능적으로 사용자 명령에 응답할 수 있어 사용자 체험을 향상시킨다.
본 실시예에서의 지능 로봇은 오픈된 컴퓨팅 플랫폼을 구비하고 지속적으로 자기 업그레이드를 할 수 있다. 또한 지능 로봇은 하나의 오픈된 운영체제 플랫폼을 세트로 지니고 있고, 열린 인터페이스 프로토콜을 통하여 각각의 내용 제공업체들에서는 지능 로봇에게 다양한 내용과 애플리케이션을 개발해 줄 수 있다. 소프트웨어 기능 방면에서, 지능 로봇은 WiFi를 통하여 네트워크에 자동으로 연결되고 끊임없이 자기 소프트웨어 업데이트를 행하게 되고, 클라우드 제어 센터도 쉴 새 없이 인터넷에 있는 대량의 새로운 정보를 획득하게 되어 사용자는 다시는 번거로운 소프트웨어 업그레이드 조작을 행하지 않아도 되며, 이 모든 업데이트와 업그레이드는 모두 지능 로봇의 백그라운드에서 조용히 완성된다.
본 명세서의 설명에서, 참조 용어 "일 실시예", "일부 실시예", "예시", "구체적인 예시" 또는 "일부 예시" 등의 설명은 당해 실시예 또는 예시를 결부하여 설명되는 구체적인 특징, 구조, 재료 또는 특점이 본 발명의 적어도 하나의 실시예 또는 예시에 포함된다는 것을 뜻한다. 본 명세서에서, 상기 용어에 대한 함축적인 표달은 반드시 동일한 실시예 또는 예시를 겨냥하는 것은 아니다. 그리고, 설명의 구체적인 특징, 구조, 재료 또는 특점은 임의의 하나의 또는 복수개의 실시예 또는 예시에서 적합한 방식으로 결합될 수 있다. 이 외에, 서로 모순되지 않는 상황에서, 본 발명이 속하는 분야의 통상의 지식을 가진 자들은 본 명세서에서 설명한 다른 실시예 또는 예시 및 다른 실시예 또는 예시의 특징에 대해 결합과 조합을 행할 수 있다.
이 외에, 용어 "제 1", "제 2"는 단지 설명의 목적인 것일 뿐, 상대적인 중요성을 지시하거나 암시하는 것 또는 지시된 기술 특징의 수량을 함축적으로 제시하는 것으로 이해해서는 안된다. 이에 따라, "제 1", "제 2"로 한정된 특징은 적어도 하나의 당해 특징을 명시하거나 함축적으로 포함할 수 있다. 본 발명의 설명에서, 별도로 명확하게 구체적인 한정을 하지 않는 한 "복수개"의 함의는 두개 또는 두개 이상이다.
흐름도에서 또는 여기에서 기타 방식으로 설명되는 어떠한 과정 또는 방법 설명은 한개 또는 더 많은 수량의 특정 로직 기능이나 과정의 단계를 실현하기 위한 수행가능 명령의 코드의 모듈, 단락 또는 부분을 포함하는 것을 나타내는 것으로 이해할 수 있다. 그리고 본 발명의 바람직한 실시 방식의 범위는 별도의 실현을 포함하는바, 여기서 관련되는 기능은 제시되거나 토론된 순서대로가 아닌, 거의 동시의 방식 또는 상반되는 순서를 포함한 순서에 따라 수행될 수 있는바, 이는 본 발명의 실시예가 속하는 기술 분야의 통상의 지식을 가진 자들에 의해 이해될 수 있다.
흐름도에서 표시되거나 여기서 기타 방식으로 설명되는 로직 및/또는 단계, 예를 들면, 노직 기능을 실현하기 위한 수행가능 명령의 서열 리스트로 여길 수 있으며, 구체적으로 어떠한 컴퓨터 판독가능 매개물에서 실현되어 명령 수행 시스템, 장치 또는 설비(예를 들면, 컴퓨터에 기초한 시스템, 프로세서를 포함한 시스템 또는 기타 명령 수행 시스템, 장치나 설비로부터 명령을 취득하고 명령을 수행할 수 있는 시스템)에 제공되어 사용될 수 있거나 또는 이런 명령 수행 시스템, 장치 또는 설비를 결부하여 사용할 수 있다. 본 명세서에 대해 말하자면, "컴퓨터 판독가능 매개물"은 어떠한 프로그램을 포함, 저장, 통신, 전파 또는 전송하여 명령 수행 시스템, 장치 또는 설비에 제공할 수 있거나 또는 이런 명령 수행 시스템, 장치 또는 설비를 결부하여 사용하는 장치 일 수 있다. 컴퓨터 판독가능 매개물의 더 구체적인 예시(비 전면 리스트임)하기와 같은 것을 포함한다. 하나의 또는 복수개의 배선을 갖는 전기 연결부(전자 장치), 휴대용 컴퓨터 디스크 케이스(자기 장치), 랜덤 액세스 메모리(RAM), 판독 전용 기억 장치(ROM), 소거 프로그램 가능 랜덤 액세스 메모리(EPROM 또는 플래시 메모리), 광섬유 장치 및 시디롬(CDROM). 이 외에, 컴퓨터 판독 가능 매개물은 심지어 그 위에 상기 프로그램을 프린트할 수 있는 종이나 기타 적합한 매개물일 수 있다. 종이 또는 기타 매개물에 대해 광학 스캐닝을 행하고 이어 편집, 해독을 행하거나 필요할 때 기타 적합한 방식으로 처리하는 것을 통하여 전자 방식으로 상기 프로그램을 획득하고, 다음 그를 컴퓨터 메모리에 저장할 수 있기 때문이다.
본 발명의 각 부분은 하드웨어, 소프트웨어, 펌웨어 또는 그들의 조합으로 실현될 수 있다는 것으로 이해되어야 한다. 상기 실시 방식에서, 복수개의 단계나 방법은 메모리에 저장된 적합한 명령 수행 시스템이 수행하는 소프트웨어 또는 펌웨어로 실현할 수 있다. 예를 들면, 만약 하드웨어로 실현한다면 다른 한 실시 방식에서처럼 본 분야에서 공지된 아래에 열거한 기술 중의 어느 한 항 또는 그들의 조합으로 실현할 수 있다. 데이터 신호에 대해 로직 기능을 실현하기 위한 로직 게이트 회로를 구비한 이산 로직 회로, 적합한 조합 로직 게이트 회로를 구비한 전용 집적 회로, 프로그램 가능 게이트 어레이(PGA), 필드 프로그램 가능 게이트 어레이(FPGA)등이다.
본 발명이 속하는 기술 분야의 통상의 지식을 가진 자들은, 상기 실시예 방법이 지닌 전부 또는 일부 단계를 실현하는 것은 프로그램을 통하여 관련 하드웨어를 명령하여 완성할 수 있고, 상기 프로그램은 컴퓨터 판독가능 저장 매개물에 저장될 수 있으며, 당해 프로그램이 수행될 때 방법 실시예의 단계 중의 하나 또는 그 조합을 포함한다는 것을 이해할 수 있다.
이 외에, 본 발명의 각각의 실시예에서 각 기능 유닛은 하나의 처리 모듈에 집적될 수 있고, 각 유닛이 단독으로 물리적으로 존재할 수도 있으며 두개 또는 두개 이상의 유닛이 하나의 모듈에 집적될 수도 있다. 상기 집적된 모듈은 하드웨어의 형식으로 실현될 수도 있고, 소프트웨어 기능 모듈의 형식을 적용하여 실현할 수도 있다. 상기 통합된 모듈이 만약 소프트웨어 기능 모듈의 형식으로 실현되고 독립된 제품으로 판매되거나 사용될 때 하나의 컴퓨터 판독가능 저장 매개물에 저장될 수도 있다.
위에서 언급된 저장 매개물은 읽기 전용 기억 장치, 디스크 또는 CD일 수 있다. 비록 위에서 이미 본 발명의 실시예를 제시하고 설명하였지만 상기 실시예는 예시적인 것이고 본 발명에 대한 한정으로 이해해서는 안되고 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자들은 본 발명의 범위내에서 상기 실시예에 대해 변화, 수정, 대체, 변형을 행할 수 있다는 것을 이해할 수 있다.

Claims (32)

  1. 인공 지능에 기초한 지능 로봇 제어 시스템으로서,
    지능 로봇에 설치되고, 상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하고 상기 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하고, 및 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하기 위한 결책 엔진;
    상기 클라우드 처리 정보를 수신하고 상기 클라우드 처리 정보에 대해 분석을 행하여 상기 사용자 수요를 획득하고 상기 사용자 수요를 상기 결책 엔진으로 피드백하기 위한 클라우드 제어 센터,
    를 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  2. 제1항에 있어서,
    상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함하는,
    것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  3. 제2항에 있어서,
    상기 결책 엔진은 구체적으로,
    상기 사용자가 입력한 음성 신호를 복수개의 음성 토막으로 분할하고 상기 복수개의 음성 토막을 상기 클라우드 처리 정보로 하기 위한 것이고,
    상기 클라우드 제어 센터는 구체적으로,
    상기 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하고 인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 상기 사용자 수요를 획득하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  4. 제3항에 있어서,
    상기 사용자 수요는 운동 제어 수요이고, 상기 결책 엔진은 구체적으로,
    상기 사용자의 위치를 획득하고 상기 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 주변 환경에 대해 감지를 행하며, 및 상기 사용자의 위치, 주변 지도 및 환경 중의 적어도 하나에 의거하여 상기 지능 로봇이 상기 사용자 수요에 따라 운동을 행하도록 제어하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  5. 제3항에 있어서,
    상기 사용자 수요는 길 찾기 수요이고, 상기 결책 엔진은 구체적으로,
    상기 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고, 상기 지능 로봇의 위치와 목표 위치를 획득하며, 및 상기 주변 지도, 상기 지능 로봇의 위치와 목표 위치에 의거하여 상기 지능 로봇이 방향을 가리키거나 음성 인터랙션을 통하여 방향을 인도하도록 제어하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  6. 제2항에 있어서,
    상기 결책 엔진은 구체적으로,
    상기 이미지 신호 및 환경 센서 신호 중의 적어도 하나에 의거하여 사용자에 대해 운동 검측을 행하고, 미리 설정한 규칙에 따라 운동 검측 결과를 상기 클라우드 처리 정보로 하기 위한 것이고,
    상기 클라우드 제어 센터는 구체적으로,
    상기 운동 검측 결과에 대해 통계 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교를 행하여 상기 사용자 수요를 획득하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  7. 제6항에 있어서,
    상기 결책 엔진은 구체적으로,
    상기 사용자 수요에 의거하여 상기 지능 로봇이 미리 설정한 모바일 단말로 제시 정보를 송신하도록 제어하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  8. 제2항에 있어서,
    상기 결책 엔진은 또
    상기 이미지 신호에 의거하여 안면 검측을 행하여 만약 상기 이미지 신호가 안면 이미지 신호이면 상기 안면 이미지 신호를 상기 클라우드 제어 센터로 송신하여 안면 인식을 행하고, 인식 결과에 의거하여 상기 사용자의 신분 정보를 확정하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 시스템.
  9. 인공 지능에 기초한 지능 로봇 제어 방법으로서,
    상기 지능 로봇의 결책 엔진이 상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하는 단계;
    상기 결책 엔진이 상기 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하는 단계;
    상기 결책 엔진이 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하는 단계,
    를 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  10. 제9항에 있어서,
    상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함하는,
    것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  11. 제10항에 있어서,
    상기 결책 엔진이 상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하는 단계는 구체적으로,
    상기 사용자가 입력한 음성 신호를 복수개의 음성 토막으로 분할하고 상기 복수개의 음성 토막을 상기 클라우드 처리 정보로 하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  12. 제11항에 있어서,
    상기 사용자 수요는 운동 제어 수요이고, 상기 결책 엔진이 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하는 단계는 구체적으로,
    상기 결책 엔진이 상기 사용자의 위치를 획득하고, 상기 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하며, 주변 환경에 대해 감지를 행하는 것;
    상기 결책 엔진이 상기 사용자의 위치, 주변 지도 및 환경 중의 적어도 하나에 의거하여 상기 지능 로봇이 상기 사용자 수요에 따라 운동을 행하도록 제어하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  13. 제11항에 있어서,
    상기 사용자 수요는 길 찾기 수요이고, 상기 결책 엔진이 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하는 단계는 구체적으로,
    상기 결책 엔진이 상기 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고, 상기 지능 로봇의 위치와 목표 위치를 획득하는 것;
    상기 결책 엔진이 상기 주변 지도, 상기 지능 로봇의 위치와 목표 위치에 의거하여 상기 지능 로봇이 방향을 가리키거나 음성 인터랙션을 통하여 방향을 인도하도록 제어하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  14. 제10항에 있어서,
    상기 결책 엔진이 상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하는 것은 구체적으로,
    상기 이미지 신호 및 환경 센서 신호 중의 적어도 하나에 의거하여 사용자에 대해 운동 검측을 행하고, 미리 설정한 규칙에 따라 운동 검측 결과를 상기 클라우드 처리 정보로 하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  15. 제14항에 있어서,
    상기 결책 엔진이 상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하는 것은 구체적으로,
    상기 사용자 수요에 의거하여 상기 지능 로봇이 미리 설정한 모바일 단말로 제시 정보를 송신하도록 제어하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  16. 제10항에 있어서,
    상기 결책 엔진이 상기 이미지 신호에 의거하여 안면 검측을 행하여, 만약 상기 이미지 신호가 안면 이미지 신호이면 상기 안면 이미지 신호를 상기 클라우드 제어 센터로 송신하여 안면 인식을 행하고, 인식 결과에 의거하여 상기 사용자의 신분정보를 확정하는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  17. 인공 지능에 기초한 지능 로봇 제어 장치로서,
    상기 지능 로봇이 수신한 다모드의 입력 신호에 의거하여 클라우드 처리 정보를 생성하기 위한 생성 모듈;
    상기 클라우드 처리 정보를 클라우드 제어 센터로 송신하여 분석을 행하여 사용자 수요를 획득하기 위한 송신 모듈;
    상기 사용자 수요 및 상기 다모드의 입력 신호 중의 적어도 하나에 의거하여 상기 지능 로봇에 대해 제어를 행하기 위한 제어 모듈,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  18. 제17항에 있어서,
    상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함하는 것,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  19. 제18항에 있어서,
    상기 생성 모듈은 구체적으로,
    상기 사용자가 입력한 음성 신호를 복수개의 음성 토막으로 분할하고 상기 복수개의 음성 토막을 상기 클라우드 처리 정보로 하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  20. 제19항에 있어서,
    상기 사용자 수요는 운동 제어 수요이고, 상기 제어 모듈은 구체적으로,
    상기 사용자의 위치를 획득하고 상기 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 주변 환경에 대해 감지를 행하고;
    상기 사용자의 위치, 주변 지도와 주변 환경에 의거하여 상기 지능 로봇이 상기 사용자를 따라 운동하도록 제어하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  21. 제19항에 있어서,
    상기 사용자 수요는 길 찾기 수요이고, 상기 제어 모듈은 구체적으로,
    상기 이미지 신호 및 환경 감지 신호 중의 적어도 하나에 의거하여 주변 지도를 생성하고 상기 지능 로봇의 위치와 목표 위치를 획득하고;
    상기 주변 지도, 상기 지능 로봇의 위치와 목표 위치에 의거하여 상기 지능 로봇이 방향을 가리키거나 음성 인터랙션을 통하여 방향을 인도하도록 제어하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  22. 제18항에 있어서,
    상기 생성 모듈은 구체적으로,
    상기 이미지 신호 및 환경 센서 신호 중의 적어도 하나에 의거하여 사용자에 대해 운동 검측을 행하고, 미리 설정한 규칙에 따라 운동 검측 결과를 상기 클라우드 처리 정보로 하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  23. 제22항에 있어서,
    상기 제어 모듈은 구체적으로
    상기 사용자 수요에 의거하여 상기 지능 로봇이 미리 설정한 모바일 단말로 제시 정보를 송신하도록 제어하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  24. 제18항에 있어서,
    상기 이미지 신호에 의거하여 안면 검측을 행하여, 만약 상기 이미지 신호가 안면 이미지 신호이면 상기 안면 이미지 신호를 상기 클라우드 제어 센터로 송신하여 안면 인식을 행하고 인식 결과에 의거하여 상기 사용자의 신분 정보를 확정하기 위한 신분 확정 모듈,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  25. 인공 지능에 기초한 지능 로봇 제어 방법으로서,
    클라우드 제어 센터가 지능 로봇이 송신하는 클라우드 처리 정보를 수신하는 단계;
    상기 클라우드 제어 센터가 상기 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하는 단계;
    상기 클라우드 제어 센터가 상기 사용자 수요를 상기 결책 엔진으로 피드백하는 단계,
    를 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  26. 제25항에 있어서,
    상기 클라우드 처리 정보는 복수개의 음성 토막이고, 상기 클라우드 제어 센터가 상기 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하는 단계는 구체적으로,
    상기 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하는 것,
    인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 상기 사용자 수요를 획득하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  27. 제25항에 있어서,
    상기 클라우드 처리 정보는 운동 검측 결과이고, 상기 클라우드 제어 센터가 상기 클라우드 처리 정보에 대해 분석을 행하는 단계는 구체적으로,
    상기 운동 검측 결과에 대해 통계 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교하여 상기 사용자 수요를 획득하는 단계,
    를 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  28. 제25항에 있어서,
    상기 클라우드 처리 정보는 안면 이미지이고, 상기 클라우드 제어 센터가 상기 클라우드 처리 정보에 대해 분석을 행하는 단계는 구체적으로,
    상기 안면 이미지에 대해 안면 인식을 행하고 안면 인식 결과를 상기 결책 엔진으로 피드백하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 방법.
  29. 인공 지능에 기초한 지능 로봇 제어 장치로서,
    지능 로봇이 송신한 클라우드 처리 정보를 수신하기 위한 수신 모듈;
    상기 클라우드 처리 정보에 대해 분석을 행하여 사용자 수요를 획득하기 위한 분석 모듈;
    상기 사용자 수요를 상기 결책 엔진으로 피드백하기 위한 피드백 모듈,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  30. 제29항에 있어서, 상기 클라우드 처리 정보는 복수개의 음성 토막이고, 상기 분석 모듈이 상기 클라우드 처리 정보에 대해 분석을 행하는 것은 구체적으로,
    상기 복수개의 음성 토막에 대해 따로따로 음성 인식을 행하는 것,
    인식 결과에 대해 자연어이해, 어의 분석, 감정 분석 중의 한가지 또는 여러가지를 행하여 상기 사용자 수요를 획득하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  31. 제29항에 있어서,
    상기 클라우드 처리 정보는 운동 검측 결과이고, 상기 분석 모듈이 상기 클라우드 처리 정보에 대해 분석을 행하는 것은 구체적으로,
    상기 운동 검측 결과에 대해 통계 분석을 행하고 분석 결과를 대응되는 지식 베이스와 비교하여 상기사용자 수요를 획득하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.
  32. 제29항에 있어서,
    상기 클라우드 처리 정보는 안면 이미지이고, 상기 분석 모듈이 상기 클라우드 처리 정보에 대해 분석을 행하는 것은 구체적으로,
    상기 안면 이미지에 대해 안면 인식을 행하고 안면 인식 결과를 상기 결책 엔진으로 피드백하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 지능 로봇 제어 장치.

KR1020150178751A 2015-06-24 2015-12-15 인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치 KR20170000751A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510355436.7 2015-06-24
CN201510355436.7A CN104965426A (zh) 2015-06-24 2015-06-24 基于人工智能的智能机器人控制系统、方法和装置

Publications (1)

Publication Number Publication Date
KR20170000751A true KR20170000751A (ko) 2017-01-03

Family

ID=54219464

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150178751A KR20170000751A (ko) 2015-06-24 2015-12-15 인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치

Country Status (5)

Country Link
US (1) US10223638B2 (ko)
EP (1) EP3109856A1 (ko)
JP (1) JP6700785B2 (ko)
KR (1) KR20170000751A (ko)
CN (1) CN104965426A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212470A1 (ko) * 2017-05-19 2018-11-22 네이버 주식회사 음성요청에 대응하는 정보 제공을 위한 미디어 선택
KR20190119225A (ko) * 2018-04-03 2019-10-22 엘지전자 주식회사 각각의 인공지능을 탑재한 복수의 로봇을 포함하는 로봇 시스템
WO2022054102A1 (en) * 2020-09-12 2022-03-17 Indus International School Pvt. Ltd. Interactive humanoid robot to facilitate teaching in a collaborative classroom learning environment

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699689B (zh) * 2014-01-09 2017-02-15 百度在线网络技术(北京)有限公司 事件知识库的构建方法及装置
CN105045246B (zh) * 2015-08-20 2017-12-29 京东方科技集团股份有限公司 Cim系统及控制方法、生产信息化系统
CN105490918A (zh) * 2015-11-20 2016-04-13 深圳狗尾草智能科技有限公司 一种机器人主动与主人交互的系统及方法
CN105563484B (zh) * 2015-12-08 2018-04-10 深圳达闼科技控股有限公司 一种云机器人系统、机器人和机器人云平台
CN105425648A (zh) * 2016-01-11 2016-03-23 北京光年无限科技有限公司 便携机器人及其数据处理方法和系统
KR102392113B1 (ko) * 2016-01-20 2022-04-29 삼성전자주식회사 전자 장치 및 전자 장치의 음성 명령 처리 방법
CN105740948B (zh) * 2016-02-04 2019-05-21 北京光年无限科技有限公司 一种面向智能机器人的交互方法及装置
CN105824935A (zh) * 2016-03-18 2016-08-03 北京光年无限科技有限公司 面向问答机器人的信息处理方法及系统
CN105843381B (zh) * 2016-03-18 2020-07-28 北京光年无限科技有限公司 用于实现多模态交互的数据处理方法及多模态交互系统
CN105868827B (zh) * 2016-03-25 2019-01-22 北京光年无限科技有限公司 一种智能机器人多模态交互方法和智能机器人
CN107107340A (zh) * 2016-04-15 2017-08-29 深圳前海达闼云端智能科技有限公司 一种云计算机器人控制装置、认知平台及控制方法
CN105930167A (zh) * 2016-05-10 2016-09-07 北京光年无限科技有限公司 一种智能机器人及应用于智能机器人的操作系统
CN106055355A (zh) * 2016-05-25 2016-10-26 北京光年无限科技有限公司 一种智能机器人及应用于智能机器人的操作系统
CN106126493A (zh) * 2016-06-16 2016-11-16 哈尔滨工程大学 一种基于机器人自主行为的自然语言解析方法
CN106003074A (zh) * 2016-06-17 2016-10-12 小船信息科技(上海)有限公司 一种基于云计算的智能交互机器人系统及交互方法
CN106126636B (zh) * 2016-06-23 2019-11-08 北京光年无限科技有限公司 一种面向智能机器人的人机交互方法及装置
CN106096373A (zh) * 2016-06-27 2016-11-09 旗瀚科技股份有限公司 机器人与用户的交互方法及装置
CN106205611B (zh) * 2016-06-29 2020-03-27 北京儒博科技有限公司 一种基于多模态历史响应结果的人机交互方法及系统
CN107590503A (zh) * 2016-07-07 2018-01-16 深圳狗尾草智能科技有限公司 一种机器人情感数据更新方法及系统
CN107618034A (zh) * 2016-07-15 2018-01-23 浙江星星冷链集成股份有限公司 一种机器人的深度学习方法
CN107644255B (zh) * 2016-07-21 2022-05-06 北京和信康科技有限公司 一种人工智能设备的数据处理方法、装置及系统
CN106297782A (zh) * 2016-07-28 2017-01-04 北京智能管家科技有限公司 一种人机交互方法及系统
CN106182027B (zh) * 2016-08-02 2019-03-12 西南科技大学 一种开放式服务机器人系统
CN107696028B (zh) * 2016-08-08 2021-11-02 新沂阿凡达智能科技有限公司 用于智能机器人的控制方法和装置及机器人
CN106295217A (zh) * 2016-08-19 2017-01-04 吕佳宁 一种孕育机器人
CN106408335A (zh) * 2016-09-05 2017-02-15 江苏宾奥机器人科技有限公司 基于物联网的移动机器人信息推送系统
WO2018076191A1 (zh) * 2016-10-26 2018-05-03 深圳前海达闼云端智能科技有限公司 智能巡逻设备、云端控制装置、巡逻方法、控制方法、机器人、控制器及非暂态计算机可读存储介质
CN106648853A (zh) * 2016-11-16 2017-05-10 北京光年无限科技有限公司 一种智能机器人、操作系统及应用生命周期管理方法
CN106681323B (zh) * 2016-12-22 2020-05-19 北京光年无限科技有限公司 一种用于机器人的交互输出方法以及机器人
CN106799733A (zh) * 2016-12-27 2017-06-06 深圳前海勇艺达机器人有限公司 机器人动作方法与系统
CN106625711A (zh) * 2016-12-30 2017-05-10 华南智能机器人创新研究院 一种定位机器人智能互动的方法
CN107066507B (zh) * 2017-01-10 2019-09-17 中国人民解放军国防科学技术大学 一种基于云机器人混合云架构的语义地图构建方法
CN108326875B (zh) * 2017-01-20 2023-03-24 松下知识产权经营株式会社 通信控制方法与装置、远程呈现机器人以及存储介质
CN111844046A (zh) * 2017-03-11 2020-10-30 陕西爱尚物联科技有限公司 一种机器人硬件系统及其机器人
US10929759B2 (en) 2017-04-06 2021-02-23 AIBrain Corporation Intelligent robot software platform
US10963493B1 (en) * 2017-04-06 2021-03-30 AIBrain Corporation Interactive game with robot system
US10810371B2 (en) 2017-04-06 2020-10-20 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system
US11151992B2 (en) 2017-04-06 2021-10-19 AIBrain Corporation Context aware interactive robot
US10839017B2 (en) 2017-04-06 2020-11-17 AIBrain Corporation Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure
JP2018176387A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 ロボット装置及びプログラム
US10529323B2 (en) * 2017-05-19 2020-01-07 UBTECH Robotics Corp. Semantic processing method of robot and semantic processing device
CN107170446A (zh) * 2017-05-19 2017-09-15 深圳市优必选科技有限公司 语义处理服务器及用于语义处理的方法
CN107398912B (zh) * 2017-06-28 2019-08-09 重庆柚瓣家科技有限公司 家庭机器人用户行为统计系统
CN107357292A (zh) * 2017-07-13 2017-11-17 上海斐讯数据通信技术有限公司 一种儿童室内智能看护系统及其看护方法
CN107622300B (zh) * 2017-08-09 2021-07-27 北京光年无限科技有限公司 多模态虚拟机器人的认知决策方法和系统
CN107290975A (zh) * 2017-08-22 2017-10-24 重庆锐纳达自动化技术有限公司 一种家居智能机器人
TWI694904B (zh) * 2017-10-05 2020-06-01 國立交通大學 機器人語音操控系統及方法
US20200334740A1 (en) * 2017-10-06 2020-10-22 Dynamicly Inc. System and method for a hybrid conversational and graphical user interface
CN107680593A (zh) * 2017-10-13 2018-02-09 歌尔股份有限公司 一种智能设备的语音增强方法及装置
CN109859750A (zh) * 2017-11-30 2019-06-07 苏州宝时得电动工具有限公司 自移动设备的语音控制系统、方法和自移动设备
CN107918771B (zh) * 2017-12-07 2023-11-24 河北工业大学 人物识别方法和佩戴式人物识别系统
CN108229365A (zh) * 2017-12-28 2018-06-29 重庆柚瓣家科技有限公司 多回路复合式的适老化交互系统及方法
CN108227713B (zh) * 2018-01-04 2019-07-19 广州供电局有限公司 一种利用巡维机器人实现服务器启停的方法
KR102385263B1 (ko) 2018-01-04 2022-04-12 삼성전자주식회사 이동형 홈 로봇 및 이동형 홈 로봇의 제어 방법
CN108198559A (zh) * 2018-01-26 2018-06-22 上海萌王智能科技有限公司 一种可学习动作的语音控制机器人系统
CN108340377A (zh) * 2018-01-26 2018-07-31 广东工业大学 一种多交互模态的机器人云操作系统
CN108172226A (zh) * 2018-01-27 2018-06-15 上海萌王智能科技有限公司 一种可学习应答语音和动作的语音控制机器人
CN108447477A (zh) * 2018-01-30 2018-08-24 华南理工大学 一种基于自然语言理解的机器人控制方法
CN108594987A (zh) * 2018-03-20 2018-09-28 中国科学院自动化研究所 基于多模态交互的多人机协同行为监控系统及其操控方法
CN109015664A (zh) * 2018-05-31 2018-12-18 芜湖星途机器人科技有限公司 用于机器人的控制系统
US11188810B2 (en) 2018-06-26 2021-11-30 At&T Intellectual Property I, L.P. Integrated assistance platform
CN109240488A (zh) * 2018-07-27 2019-01-18 重庆柚瓣家科技有限公司 一种ai场景定位引擎的实现方法
CN110858096A (zh) * 2018-08-23 2020-03-03 中瑞福宁机器人(沈阳)有限公司 以语义识别为主并辅之以其它方式的机器人人机交互方法
KR20200024068A (ko) * 2018-08-27 2020-03-06 삼성전자주식회사 인텔리전트 서비스를 위해, 복수의 음성 데이터 수신 장치들을 선택적으로 이용하는 방법, 장치, 및 시스템
US11514917B2 (en) * 2018-08-27 2022-11-29 Samsung Electronics Co., Ltd. Method, device, and system of selectively using multiple voice data receiving devices for intelligent service
CN109159130A (zh) * 2018-09-03 2019-01-08 北京云迹科技有限公司 用于机器人的移动位置提示方法及装置、机器人
CN108986816A (zh) * 2018-09-29 2018-12-11 芜湖星途机器人科技有限公司 一种智能门岗
CN109241721A (zh) * 2018-09-30 2019-01-18 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
CN109262628A (zh) * 2018-11-01 2019-01-25 深圳市三宝创新智能有限公司 一种具有前台功能的智能机器人设备及服务方法
CN109567820A (zh) * 2018-11-27 2019-04-05 广州绿桦环保科技有限公司 一种睡眠管理方法、装置及系统
CN111292734B (zh) * 2018-12-06 2024-03-08 阿里巴巴集团控股有限公司 一种语音交互方法和装置
CN109740887A (zh) * 2018-12-24 2019-05-10 上海商然数据服务有限公司 一种基于语音互动的大数据决策辅助系统
CN111429924A (zh) * 2018-12-24 2020-07-17 同方威视技术股份有限公司 语音交互方法、装置、机器人及计算机可读存储介质
CN111360816A (zh) * 2018-12-26 2020-07-03 沈阳新松机器人自动化股份有限公司 一种机器人的控制方法、系统及机器人
CN111376248B (zh) * 2018-12-28 2022-04-15 深圳市优必选科技有限公司 机器人、机器人的决策方法及终端设备
US11393465B2 (en) * 2019-04-17 2022-07-19 Lg Electronics Inc. Artificial intelligence apparatus for speech interaction and method for the same
CN110046715A (zh) * 2019-04-24 2019-07-23 戴文跃 一种线索集成系统基础构成
CN110136713A (zh) * 2019-05-14 2019-08-16 苏州思必驰信息科技有限公司 用户在多模态交互中的对话方法及系统
CN110245031B (zh) * 2019-06-03 2021-07-20 北京百度网讯科技有限公司 一种ai服务开放中台及方法
US11176939B1 (en) 2019-07-30 2021-11-16 Suki AI, Inc. Systems, methods, and storage media for performing actions based on utterance of a command
CN110780786B (zh) * 2019-10-24 2023-01-31 赵振东 一种对电子地图标识进行个性化智能应用的方法
CN110850789A (zh) * 2019-12-09 2020-02-28 常州市小先信息技术有限公司 一种基于边缘计算的机器人能效优化方法
CN112990953A (zh) * 2019-12-16 2021-06-18 上海邸客网络科技有限公司 一种基于人工智能的个人智能决策引擎
CN111444323A (zh) * 2020-02-25 2020-07-24 平安国际智慧城市科技股份有限公司 事故信息快速采集方法、装置、计算机设备及存储介质
CN111482974A (zh) * 2020-04-13 2020-08-04 广东技术师范大学 一种健康检测机器人
CN113705278A (zh) * 2020-05-20 2021-11-26 深圳市看见智能科技有限公司 用于智能眼镜的人体行为识别系统及方法
CN112016604B (zh) * 2020-08-19 2021-03-26 华东师范大学 一种运用视觉信息的零资源机器翻译方法
CN112131023B (zh) * 2020-09-23 2023-08-11 平安科技(深圳)有限公司 应用容器引擎的消息处理系统、方法、设备及存储介质
KR102442064B1 (ko) * 2020-11-30 2022-09-08 네이버랩스 주식회사 서비스 어플리케이션과 연계하여 서비스를 제공하는 로봇을 제어하는 방법 및 클라우드 서버
CN112786044A (zh) * 2020-12-30 2021-05-11 乐聚(深圳)机器人技术有限公司 语音控制方法、装置、主控制器、机器人及存储介质
CN113515050A (zh) * 2021-01-08 2021-10-19 腾讯科技(深圳)有限公司 一种设备控制方法、装置及计算机可读存储介质
CN113127827B (zh) * 2021-05-08 2024-03-08 上海日羲科技有限公司 一种基于ai系统的用户指令处理方法
CN113268352B (zh) * 2021-06-11 2024-03-08 中科院软件研究所南京软件技术研究院 面向通用服务机器人的多指令响应式任务协同管理方法
CN113707143A (zh) * 2021-08-20 2021-11-26 珠海格力电器股份有限公司 语音处理方法、装置、电子设备和存储介质
CN114089741A (zh) * 2021-10-16 2022-02-25 南昌大学 一种自定义语音和智能高效精准循迹的移动装置
CN115795017B (zh) * 2023-01-17 2023-05-02 深圳联友科技有限公司 一种对话系统离线在线融合应用方法及系统
CN116705026B (zh) * 2023-08-02 2023-10-13 江西科技学院 一种人工智能交互方法及系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7941313B2 (en) * 2001-05-17 2011-05-10 Qualcomm Incorporated System and method for transmitting speech activity information ahead of speech features in a distributed voice recognition system
JP2007152443A (ja) 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 片付けロボット
CN201242685Y (zh) * 2008-08-19 2009-05-20 中国人民解放军第二炮兵工程学院 向导机器人
JP5324956B2 (ja) 2009-02-16 2013-10-23 株式会社国際電気通信基礎技術研究所 道案内ロボット
JP2012108262A (ja) 2010-11-16 2012-06-07 Nippon Telegr & Teleph Corp <Ntt> 対話内容抽出装置、対話内容抽出方法、そのプログラム及び記録媒体
US9196028B2 (en) 2011-09-23 2015-11-24 Digimarc Corporation Context-based smartphone sensor logic
KR101568347B1 (ko) * 2011-04-12 2015-11-12 한국전자통신연구원 지능형 로봇 특성을 갖는 휴대형 컴퓨터 장치 및 그 동작 방법
JP5842245B2 (ja) 2011-04-28 2016-01-13 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
US8594845B1 (en) * 2011-05-06 2013-11-26 Google Inc. Methods and systems for robotic proactive informational retrieval from ambient context
CN102722186A (zh) * 2012-06-28 2012-10-10 深圳大学 一种基于语音识别的移动伺服平台及语音控制方法
CN102868740A (zh) * 2012-09-07 2013-01-09 深圳市信利康电子有限公司 基于移动通讯终端及互联网语音交互的玩具控制方法及系统
JP2014106523A (ja) 2012-11-30 2014-06-09 Aisin Aw Co Ltd 音声入力対応装置及び音声入力対応プログラム
US9355368B2 (en) 2013-03-14 2016-05-31 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using a robotic device/platform
JP6151546B2 (ja) 2013-03-29 2017-06-21 株式会社富士通アドバンストエンジニアリング 移動制御方法、移動制御プログラム及び移動制御装置
KR102071575B1 (ko) 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
US9430465B2 (en) 2013-05-13 2016-08-30 Facebook, Inc. Hybrid, offline/online speech translation system
JP6371606B2 (ja) 2013-09-03 2018-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御方法及び音声機器制御システム
US20160228040A1 (en) 2013-09-13 2016-08-11 Konica Minolta, Inc. Notification System
JP2015069443A (ja) 2013-09-30 2015-04-13 株式会社東芝 電子機器および支援方法
KR20150062275A (ko) 2013-11-29 2015-06-08 레드원테크놀러지 주식회사 클라우드 로봇을 이용한 영유아 안전관리 시스템 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018212470A1 (ko) * 2017-05-19 2018-11-22 네이버 주식회사 음성요청에 대응하는 정보 제공을 위한 미디어 선택
KR20180126946A (ko) * 2017-05-19 2018-11-28 네이버 주식회사 음성요청에 대응하는 정보 제공을 위한 미디어 선택
KR20190119225A (ko) * 2018-04-03 2019-10-22 엘지전자 주식회사 각각의 인공지능을 탑재한 복수의 로봇을 포함하는 로봇 시스템
WO2022054102A1 (en) * 2020-09-12 2022-03-17 Indus International School Pvt. Ltd. Interactive humanoid robot to facilitate teaching in a collaborative classroom learning environment

Also Published As

Publication number Publication date
JP2017010518A (ja) 2017-01-12
EP3109856A1 (en) 2016-12-28
US10223638B2 (en) 2019-03-05
JP6700785B2 (ja) 2020-05-27
US20160379121A1 (en) 2016-12-29
CN104965426A (zh) 2015-10-07

Similar Documents

Publication Publication Date Title
KR20170000751A (ko) 인공 지능에 기초한 지능 로봇 제어 시스템, 방법 및 장치
KR102331675B1 (ko) 사용자의 음성을 인식하는 인공 지능 장치 및 그 방법
KR100953902B1 (ko) 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체, 단말 및 서버
KR20190084789A (ko) 전자 장치 및 그 제어 방법
KR102561712B1 (ko) 음성 인식 장치 및 그 동작 방법
KR20200040212A (ko) 웨어러블 멀티미디어 디바이스 및 애플리케이션 에코 시스템을 갖는 클라우드 컴퓨팅 플랫폼
CA2973019C (en) Control system and control method for the behavior of a robot
CN106796570B (zh) 信息处理设备、信息处理方法和计算机程序
KR20210039049A (ko) 음성 인식을 수행하는 인공 지능 장치 및 그 방법
KR20190019401A (ko) 전자 장치 및 그 제어 방법
KR102490916B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
JP6716630B2 (ja) 情報を提供する装置、方法、コンピュータプログラムおよび記録媒体
US11376742B2 (en) Robot and method of controlling the same
KR20210001529A (ko) 로봇, 그와 연결되는 서버, 및 로봇을 이용한 음성 인식 방법
KR20190099167A (ko) 음성 인식을 수행하는 인공 지능 기기
JP2022538275A (ja) パラメータ配置方法及び装置、電子機器並びに記憶媒体
US20210208595A1 (en) User recognition-based stroller robot and method for controlling the same
KR20210066328A (ko) 자연어 이해 모델을 학습시키기 위한 인공 지능 장치
US20170057090A1 (en) Generating control signal for tele-presence robot
KR102314385B1 (ko) 로봇 및 그의 제어 방법
CN110434859B (zh) 一种面向商业办公环境的智能服务机器人系统及其操作方法
CN115691498A (zh) 语音交互方法、电子设备及介质
Rawshan Habib et al. Design and Implementation of voice command-based robotic system
CN113498029A (zh) 交互式广播
Sanket et al. Relative hand movement and voice control based home automation and PC

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101003442; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20180817

Effective date: 20200121