KR20170000752A - 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비 - Google Patents

인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비 Download PDF

Info

Publication number
KR20170000752A
KR20170000752A KR1020150180869A KR20150180869A KR20170000752A KR 20170000752 A KR20170000752 A KR 20170000752A KR 1020150180869 A KR1020150180869 A KR 1020150180869A KR 20150180869 A KR20150180869 A KR 20150180869A KR 20170000752 A KR20170000752 A KR 20170000752A
Authority
KR
South Korea
Prior art keywords
user
intention
information
human
computer interaction
Prior art date
Application number
KR1020150180869A
Other languages
English (en)
Inventor
지아린 리
쿤 징
씽페이 그어
화 우
치엔 쒸
하이펑 왕
원위 순
티엔 우
다이송 관
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20170000752A publication Critical patent/KR20170000752A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G06F17/30681
    • G06F17/3087
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

본 발명은 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비를 제공한다. 당해 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법은 다모드의 입력 신호 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -를 수신하는 단계; 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계; 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계를 포함한다. 본 발명은 양호한 휴먼 컴퓨터 인터랙션기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능적인 휴먼 컴퓨터 인터랙션을 실현할 수 있다.

Description

인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비{HUMAN-COMPUTER INTERACTIVE METHOD AND APPARATUS BASED ON ARTIFICIAL INTELLIGENCE, AND TERMINAL DEVICE}
본 발명은 지능단말 기술 분야에 관한 것으로, 더욱 상세하게는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비에 관한 것이다.
중국 사회가 날로 노령화, 저출산 및 도시화 추세를 나타내면서 아래와 같은 문제점을 야기하고 있다.
1. 젊은 사람의 업무 스트레스가 날로 늘어나고, 몸 뺄 도리가 없으며, 집에 있는 노인과 아이랑 함께 있을 시간이 충분하지 않다.
2. 부모와 자식이 서로 타향살이 하는 경우가 갈수록 보편적이 되어 가고, 가족, 친지가 다른 곳에 별거하고, 가족간의 소통 원가가 크게 증가되며, 다정하고도 효과적이며 편리한 소통 방식이 부족하다.
3. 나이 든 노인과 어린이는 더 많은 사랑과 감정, 의사소통, 교육, 정보 획득 협조가 필요하나, 이러한 것들은 자식이나 부모가 집에 없을 경우에는 모두 획득하기가 어렵다.
4. 젊은 세대들이 밖에서 일할 경우, 언제 어디서나 자신의 "집"(각종의 가전제품 제어를 포함), "식구"(윗세대 부모, 차세대 아이를 포함)와 연락을 행하는 것이 필요하고, 이런 연락 방식은 식구들을 위해 봉사하는 것이기 때문에, 보다 낮은 사용기준과 훨씬 높은 친밀도를 필요로 한다.
5. 서로 타향에서 별거하는 가족사이에는 더욱 밀접하고 편리한 연락 수단이 필요되는바, 중국의 전통적인 가정 관념상, 자신도 어찌할 수 없이 식구와 각지에 떨어져 있을 때 누구나 다 어떤 방식으로 수시로 "한자리에 모이"수 있기를 갈망한다.
6. 나이 든 노인과 어린이는 모두 중점적으로 일상적인 간호, 감정의 동반 및 각종의 도움이 필요한 군체이지만, "간호, 동반, 도움, 교육"의 직책을 짊어진 젊은 세대들은 가중한 작업 임무를 감당해야 하는바, 노인과 아이 곁을 동반할 수 없다.
하지만, 종래의 기술에서는 상기 문제에 대한 해결방안을 제공한 바 없어 기능성과 동반성이 다 뛰어난 지능 휴먼 컴퓨터 인터랙션(human-computer interaction)을 실현하지 못하므로 사용자의 수요를 만족시키지 못하고 사용자 체험이 비교적 낮다.
본 발명의 목적은 적어도 일정한 정도에서 관련 기술의 기술 문제점 중의 하나를 해결하고저 한다.
이를 위해서, 본 발명의 첫번쩨 목적은 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법을 제공하는데 있다. 당해 방법은 양호한 휴먼 컴퓨터 인터랙션 기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능휴먼 컴퓨터 인터랙션을 실현할 수 있다.
본 발명의 두번째 목적은 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치를 제공하는데 있다.
본 발명의 세번째 목적은 단말 설비를 제공하는데 있다.
상기 목적을 실현하기 위하여, 본 발명의 제1측면의 실시예의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법은, 다모드의 입력 신호 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -를 수신하는 단계; 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계; 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계를 포함한다.
본 발명의 실시예의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법은 다모드의 입력 신호를 수신한 후, 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하고, 다음 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백함으로써 양호한 휴먼 컴퓨터 인터랙션 기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능 휴먼 컴퓨터 인터랙션을 실현할 수 있으며 나아가 사용자 체험을 향상시킬 수 있다.
상기 목적을 실현하기 위하여, 본 발명의 두번째 측면의 실시예의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치는, 다모드의 입력 신호 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -를 수신하기 위한 수신 모듈; 상기 수신 모듈이 수신한 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하기 위한 의도 판단 모듈; 상기 의도 판단 모듈이 확정한 상기 사용자의 의도에 대해 처리를 행하고 처리 결과를 상기 사용자에게 피드백하기 위한 처리 모듈을 포함한다.
본 발명의 실시예의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치는 수신 모듈이 다모드의 입력 신호를 수신한 후, 의도 판단 모듈이 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하고, 다음 처리 모듈이 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백함으로써 양호한 휴먼 컴퓨터 인터랙션 기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능휴먼 컴퓨터 인터랙션을 실현할 수 있으며, 나아가 사용자 체험을 향상시킬 수 있다.
상기 목적을 실현하기 위하여, 본 발명의 세번째 측면의 실시예의 단말 설비는, 수신기, 프로세서, 메모리, 회로판 및 전원 회로를 포함하고, 여기서 상기 회로판은 하우징으로 둘러싸인 공간 내부에 배치되고, 상기 프로세서와 상기 메모리는 회로판 상에 설치되어 있으며; 상기 전원 회로는 상기 단말 설비의 각각의 회로 또는 부품에 전력을 공급하기 위한 것이고; 상기 메모리는 수행 가능 프로그램 코드를 저장하기 위한 것이며; 상기 수신기는 다모드의 입력 신호 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -를 수신하기 위한 것이고; 상기 프로세서는 상기 메모리에 저장된 수행 가능 프로그램 코드를 판독하는 것을 통하여 수행 가능 프로그램 코드에 대응되는 프로그램을 수행하여, 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계; 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계를 수행하기 위한 것이다.
본 발명의 실시예의 단말 설비는 수신기가 다모드의 입력 신호를 수신한 후, 프로세서가 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하고, 다음 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백함으로써 양호한 휴먼 컴퓨터 인터랙션 기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능 휴먼 컴퓨터 인터랙션을 실현할 수 있으며, 나아가 사용자 체험을 향상시킬 수 있다.
본 발명의 부가된 방면과 장점은 아래의 설명에서 부분적으로 제시되고, 일부는 아래의 설명에서 뚜렷해지거나 본 발명의 실천을 통하여 요해된다.
본 발명의 상기 및/또는 부가된 방면과 장점은 아래에서 첨부 도면을 결부한 실시예에 대한 설명으로부터 뚜렷해지거나 이해하기 용이해진다. 여기서,
도 1은 본 발명의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법의 일 실시예의 플로차트이다;
도 2는 본 발명의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치의 일 실시예의 구조 설명도이다;
도 3은 본 발명의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치의 다른 한 실시예의 구조 설명도이다;
도 4는 본 발명의 단말 설비의 일 실시예의 구조 설명도이다;
도 5는 본 발명의 지능로봇의 일 실시예의 설명도이다;
도 6은 본 발명의 지능로봇의 스크린 인터랙션의 일 실시예의 설명도이다.
아래에서는 본 발명의 실시예를 상세하게 설명하기로 한다. 상기 실시예의 예시는 첨부된 도면에서 제시되고, 여기서 처음부터 끝까지 동일하거나 유사한 번호는 동일하거나 유사한 구성 요소나 동일하거나 유사한 기능을 갖는 구성 요소를 나타낸다. 아래에서 첨부된 도면을 참조하는 것을 통하여 설명되는 실시예는 예시적인 것으로, 본 발명을 해석하기 위한 것일 뿐, 본 발명에 대한 한정으로 이해해서는 안된다. 반대로, 본 발명의 실시예는 청구범위의 취지와 내포된 의미 범위내에 있는 모든 변화, 수정과 균등물을 포함한다.
종래의 기술에 존재하는 기능성과 동반성이 다 뛰어난 지능 휴먼 컴퓨터 인터랙션을 행하지 못하는 문제점을 해결하기 위하여, 본 발명은 인공 지능에 기초하여 기능성과 동반성이 다 뛰어난 지능적인 휴먼 컴퓨터 인터랙션을 실현하는바, 인공 지능(Artificial Intelligence, 약칭: AI)은 인간의 지능을 모의, 심화 및 확장을 하기 위한 이론, 방법, 기술 및 응용 시스템을 연구, 개발하는 새로운 기술 과학의 한 과목이다. 인공 지능은 컴퓨터 과학의 한 분과로서, 지능의 실질을 요해하고 인류 지능에 유사한 방식으로 반응을 할 수 있는 새로운 지능로봇을 생산해내는 것을 꾀하고 있는데, 당해 분야의 연구는 로봇, 언어 인식, 이미지 인식, 자연 언어 처리와 전문가 시스템 등을 포함한다.
인공 지능은 인간의 의식, 사유의 정보 과정에 대한 모의이다. 인공 지능은 인간의 지능이 아니지만 인간처럼 사고할 수 있고 인간의 지능을 능가할 수 도 있다. 인공 지능은 매우 광범한 과학을 포함하는바, 다른 분야, 예를 들어 기계 학습, 컴퓨터 시각 등등으로 구성되는데, 전반적으로 말하자면, 인공 지능 연구의 하나의 주요 목적은 기계가 통상적으로 인간의 지능이 있어야만 완성할 수 있는 복잡한 일을 감당하도록 하는 것이다.
도 1은 본 발명의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법의 일 실시예의 플로차트로서, 도 1이 도시하는 바와 같이, 당해 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법은 아래와 같은 단계 101내지 단계 103을 포함할 수 있다.
단계 101: 다모드의 입력 신호 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -를 수신한다.
구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라를 통하여 입력한 것일 수 있으며; 상기 환경 센서 신호는 광센서, 온습도 센서, 유독 가스 센서, 미세 먼지 오염 센서, 터치 모듈, 지리 위치 위치 추적 모듈 및 중력 센서 중의 하나 또는 여러개의 센서를 통하여 입력한 신호를 포함한다.
단계102: 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정한다.
단계103: 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백한다.
구체적으로, 처리 결과를 상기 사용자에게 피드백하는 것은 처리 결과를 이미지, 텍스트, 목소리, 로봇 사지 동작 및 로봇 등불 등 방식 중의 적어도 하나로 사용자에게 피드백하는 것을 포함할 수 있는바, 본 실시예는 처리 결과의 피드백 방식에 대해 한정하지 않는다.
본 실시예의 일 실현 방식에서, 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계는, 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 이미지 신호 및 센서 신호 중의 적어도 하나를 결부하여 상기 사용자의 의도를 확정하는 것일 수 있다.
또는, 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계는, 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 발음체 위치 추적을 통하여 디스플레이 스크린을 상기 사용자가 소재하는 방향으로 돌리고, 카메라 안면 인식 보조기능을 통하여 상기 사용자의 개인 정보를 인식하고, 음성 인식의 결과, 상기 사용자의 개인 정보 및 저장한 상기 사용자의 선호 정보에 의거하여 상기 사용자의 의도를 확정하는 것일 수 있다. 여기서, 상기 사용자의 개인 정보는 사용자의 성명, 연령 및 성별 등 정보를 포함하고, 상기 사용자의 선호 정보는 사용자의 일상적인 행위 취향 등 정보를 포함한다.
본 실현 방식에서, 사용자의 의도에 대해 처리를 행하고, 처리 결과를 사용자에게 피드백하는 것은: 상기 사용자의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 상기 사용자에게 적합한 추천정보를 획득하고, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 것일 수 있다. 여기서, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 것은 상기 사용자에게 적합한 추천정보를 상기 사용자에게 음성으로 브로드캐스팅하는 것, 또는 상기 사용자에게 적합한 추천정보를 텍스트의 형식으로 디스플레이 스크린에 디스플레이하는 것일 수 있는바, 본 실시예는 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 방식에 대해 한정하지 않는다.
나아가, 상기 추천정보가 주소 정보를 포함할 수 있으면, 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 사용자에게 피드백하는 것은 상기 사용자 소재지로부터 상기 주소 정보가 가리키는 지점까지의 교통 경로를 획득하고, 상기 사용자의 외출습관에 의거하여 상기 사용자에게 적합한 외출방식을 획득하며, 상기 외출방식을 상기 사용자에게 추천하는 것일 수 있다. 여기서, 상기 외출방식을 상기 사용자에게 추천하는 것은 상기 외출방식을 상기 사용자에게 음성으로 브로드캐스팅하는 것, 또는 상기 외출방식을 텍스트의 형식으로 디스플레이 스크린에 디스플레이하는 것일 수 있는바, 본 실시예는 상기 외출방식을 상기 사용자에게 추천하는 방식에 대해 한정하지 않는다.
바꾸어 말하자면, 본 실시예는 사람과 여러 차례 대화와 컴뮤니케이션 기능을 행하는 것을 실현할 수 있고, 자연 언어와 표정으로 인간과 컴뮤니케이션을 행할 수 있으며, 개성화된 학습 능력을 구비하고 있어 지능 클라우드 서버에 연결하는 것을 통하여 관련 지식을 획득하고 목표성있게 사용자에게 제공할 수 있다.
예를 든 장면: 집에 계시는 노인이 밖으로 나가 이벤트에 참석하려 하는데, 근처에 어떤 재미있는 이벤트가 열리고 있는지 모른다고 할 때, 만약 본 실시예가 제공하는 방법이 없이 범상적인 해결방안대로라면 노인은 자식에게 전화로 문의하거나, 밖으로 나가 이웃집이나 주민 위원회에 가서 문의할 수 밖에 없다.
하지만 만약 본 실시예가 제공하는 방법이 있으면, 노인은 본 실시예가 제공하는 방법을 실현할 수 있는 단말 설비, 예를 들어 지능로봇에 대해 "쇼유뚜(小度)로봇, 근처에 나에게 어울리는 이벤트가 어떤 것들이 있을가?"라고 말할 수 있다.
지능로봇은 발음체 위치 추적을 통하여 지능로봇의 디스플레이 스크린(예컨대 지능로봇의 얼굴)을 노인이 소재하는 방향으로 돌려 고화질 카메라의 안면 인식 보조기능을 통하여 말하는 자의 개인 정보, 예를 들어 말하는 자의 성명, 연령 및 성별 등를 정확하게 인식하고, 말하는 자의 일상적인 행위 취향, 연령과 성별 등 정보에 의거하여 말하는 자가 입력한 음성의 의도를 확정하고, 다음 입력한 음성의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 말하는 자에게 가장 적합한 추천정보를 선별해내고, 당해 추천정보 음성을 상기 말하는 자에게 "쇼유뚜(小度)가 당신을 위해 당신이 좋아하실 수 있는 이벤트를 찾아냈어요. 당신과 800미터 거리에 있는 남호공원에서 오늘 오후 두시에 노인 사교 댄스 파티가 열리는데 어떠세요?"라고 브로드캐스팅하게 되며, 여기서 당해 추천정보에는 주소정보인 "남호공원"이 포함된다.
만약 사용자가 "아주 좋아. 난 이 이벤트가 맘에 들어. 내가 어떻게 가면 되지?"라고 회답하면, 사용자가 입력한 음성을 수신한 후, 지능로봇은 상기 사용자가 입력한 음성에 대해 음성 인식을 행할 수 있고, 음성 인식의 결과에 의거하여 사용자의 의도가 "남호공원"에 가고 싶어한다는 것을 확정하게 되면, 지능로봇은 지리 위치 위치 추적 모듈이 입력한 신호에 의거하여 사용자가 소재하는 위치를 확정하고, 사용자가 소재하는 위치에서 남호공원까지의 교통 경로를 자동으로 검색하고, 상기 사용자의 일상적인 외출습관에 의거하여, 지능적으로 상기 사용자에게 적합한 외출방식을 획득하고 "여기에서 남호공원까지 800미터거리이고, 보행으로 15분간의 시간 소요되는 것으로 예상되며, 이미 당신을 위해 보행 지도 경로를 계획해두었습니다."라고 외출방식을 사용자에게 추천한다.
본 실시예의 다른 한가지 실현 방식에서, 상기 사용자의 의도가 시간정보를 포함하고, 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 것은, 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고 설정결과를 상기 사용자에게 피드백하는 것일 수 있다. 여기서, 설정결과를 상기 사용자에게 피드백하는 것은 설정결과 음성을 사용자에게 브로드캐스팅하는 것, 또는 설정결과를 문자의 형식으로 사용자에게 디스플레이하는 것일 수 있고, 물론 기타 피드백 방식을 적용하는 것일 수도 있는바 본 발명은 이에 대해 한정하지 않는다.
나아가, 설정결과를 상기 사용자에게 피드백한 후, 사용자에게 알림을 행하고, 상기 사용자의 음성 메모 정보를 기록하고, 상기 알람시계의 알림정보의 시각에 도달했을 경우 알람시계의 알림을 행하고, 상기 사용자의 음성 메모 정보를 브로드캐스팅할 수도 있다.
예를 든 장면: 아침7시, 엄마가 일찍 일어나 출장을 가야 하는데 집안의 어린이 두두(豆豆) 아직도 깊이 잠들어 있다. 집을 나설 때 엄마는 지능로봇에 대해 "쇼유뚜(小度)로봇, 8시에 날 도와 두두를 깨울 수 있겠니?"라고 말하면, 음성을 수신한 후 지능로봇은 음성 인식결과에 의거하여 사용자의 의도에는 시간 정보가 포함됨을 확정한다. 그리하여 지능로봇은 사용자의 의도 중의 시간 정보에 의거하여 알람시계의 알림정보를 설정하고 설정결과를 상기 사용자에게 피드백하고, 설정결과를 상기 사용자에게 피드백한 후 사용자에게 알림을 행할 수도 있다. 그리하여 지능로봇은 "그러죠. 이미 당신을 도와 알람시계의 알림을 설정해두었습니다. 한시간 후, 8시 정각에 두두를 깨우겠습니다. 두두가 일어나면 대신 전해드릴 메모라도 있으십니까?"라고 대답한다.
엄마는 "고마워, 쇼유뚜(小度)야. 아침밥은 해서 전자레인지에 넣어두었고, 그리고 오늘은 걔 생일이니 생일 축하한다고 전해주렴."라고 말한다. 이때, 지능로봇은 사용자의 메모를 기록하고, 상기 알람시계의 알림정보의 시각에 도달했을 경우, 알람시계의 알림을 행하고 상기 사용자의 음성 메모 정보를 플레이하게 된다.
본 실시예의 또 한가지 실현 방식에서, 다모드의 입력 신호를 수신하기 전에 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 수신하고, 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알릴 수도 있다. 여기서, 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알리는 것은 음성 알림일 수도 있고 문자 알림일 수도 있으며 또는 기타 알림 방식일 수도 있는바 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알리는 기능을 실현할 수만 있으면 된다.
만약 상기 사용자의 의도가 상기 멀티미디어정보를 플레이를 동의하는 것이면, 사용자의 의도에 대해 처리를 행하는 것은 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이하는 것일 수 있다.
나아가, 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이한 후 사용자가 송신하는 음성을 수신하고 상기 음성을 사용자와 관련되는 다른 사용자에게 송신할 수도 있다. 여기서, 상기 음성을 사용자와 관련되는 다른 사용자에게 송신하는 것은, 음성을 사용자와 관련되는 다른 사용자가 사용하는 지능 단말에 장착된 애플리케이션(Application, 아래 App로 약칭함)으로 직접 송신하거나 또는 음성을 문자로 전환시켜 사용자와 관련되는 다른 사용자가 사용하는 지능 단말에 장착된 App로 송신하는 것일 수도 있다.
예를 든 장면: 점심 12시, 두두가 집에서 점심을 먹고 있다.
지능로봇은 사용자(두두)와 관련되는 다른 사용자(두두의 엄마)가 송신한 멀티미디어정보(예컨대 동영상 정보)를 수신하였다. 이때 지능로봇은 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알린다. 그리하여 지능로봇은 "Hi, 두두, 쇼유뚜(小度)는 엄마가 보내주신 동영상 정보를 하나 받았는데, 지금 보실래요?"라고 브로드캐스팅한다.
두두는 "지금 바로 플레이해주세요."라고 회답한다. 두두가 입력한 음성을 수신한 후 지능로봇은 음성 인식을 행하고 음성 인식결과에 의거하여 사용자의 의도는 상기 동영상 정보를 플레이하는 것을 동의함으로 확정하게 된다. 그리하여, 지능로봇 얼굴에 있는 스크린에는 엄마가 출장가신 도시에서 녹화한 생일 축하 동영상이 자동으로 플레이된다.
엄마께서 송신한 동영상 정보를 플레이한 후 두두가 보낸 음성인 "쇼유뚜(小度), 엄마에게 '축복 고마워요, 엄마 사랑해요, 여행길이 순조롭기를 바랄게요. 그리고 빨리 귀가하세요'라고 답장해줘."를 더 수신할 수 있다.
이때 지능로봇은 두두가 답장한 음성을 문자로 자동으로 전환시켜 엄마의 휴대폰에 장착된 App로 회답하게 된다.
본 실시예의 다른 한가지 실현 방식에서, 사용자의 의도는 멀티미디어정보를 플레이할 것을 요청하는것일 수 있는바, 그러면 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 것은 무선 네트워크를 통하여 클라우드 서버로부터 상기 사용자가 플레이할 것을 요청한 멀티미디어정보를 획득하고, 획득한 멀티미디어정보를 플레이하는 것일 수 있다.
나아가, 다모드의 입력 신호를 수신하기 전에 또 상기 사용자와 관련되는 다른 사용자가 송신한 통화 요청을 수신하고, 상기 사용자가 통화를 받을지 받지 않을지를 알릴 수 있다. 만약 상기 사용자의 의도가 통화를 받는 것이면, 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 것은, 사용자와 상기 사용자와 관련되는 다른 사용자를 위해 통화연결을 행하고, 통화과정에서 카메라가 상기 사용자 중 말하는 자의 방위를 식별하게 하고, 카메라가 말하는 자를 향해 돌게 제어하며; 사용자와 관련되는 다른 사용자가 상기 다른 사용자가 사용하는 지능 단말에 장착된 애플리케이션을 통하여 상기 다른 사용자가 주목하는 안면을 클릭한 후 동영상 안면 추적기능을 작동하여 카메라가 상기 다른 사용자가 주목하는 안면을 추적하게 하는 것일 수 있다.
예를 든 장면: 밤 9시, 두두는 집에서 어린 친구들과 생일 파티를 열고 있다.
두두는 지능로봇에게 "쇼유뚜(小度), 오늘은 저의 생일이에요. 우리에게 생일 축하 송를 한곡 플레이해주세요."라고 말하면 지능로봇은 상기 음성을 수신한 후, 음성 인식결과에 의거하여 두두가 입력한 음성의 의도가 멀티미디어정보(예컨대 오디오 정보 "생일 축하 송")를 플레이하는 요청임을 확정한다.
그리하여 지능로봇은 무선 네트워크(Wireless Fidelity; 아래 WiFi로 약칭함)를 통하여 지능적으로 클라우드 서버로부터 생일 축하 곡을 검색해내어 로컬에 자동으로 다운로딩하고 플레이를 행할 것이며 사용자에게 "그러죠. 바로 플레이를 시작하겠습니다."라는 처리 결과를 피드백한다.
플레이가 완성된 후, 지능 로봇은 두두의 엄마가 송신한 동영상 통화 요청을 수신한다. 그리하여 지능로봇은 두두에게 "동영상 통화 요청을 한통 수신했어요. 어머님께서 두두와 동영상 통화를 행할 것을 요청하시는데 받아보실래요?"라고 알린다.
두두가 "바로 받으세요."라고 말하면 두두가 입력한 이 음성을 수신한 후, 지능로봇은 두두가 입력한 이 음성의 의도가 통화를 받는 것임을 확정할 수 있다. 그리하여 지능로봇은 먼 타향에서 출장 중인 엄마가 사용하는 지능 단말에 장착된 App와 지능로봇의 고화질 동영상 카메라를 연결시켜, 엄마를 두두, 어린이들과 동영상 통화를 행하도록 하고, 동영상 통화 과정에서 지능로봇은 자신의 카메라가 자동으로 말하는 자의 방위를 식별하게 하고 카메라가 말하는 자를 향해 돌수 있게 제어할 수 있다. 카메라가 회전하는 과정에서, 지능적인 듀얼 카메라 렌즈가 전환되는 계산법은 카메라 화면 안정을 보장할 수 있어 흔들림이 발생하지 않는다. 엄마는 사용하는 지능 단말에 장착된 App을 통하여 동영상에서의 안면을 클릭하여 동영상 안면 추적 기능을 작동시켜 지능로봇의 카메라가 줄곧 엄마가 주목하고 싶어하는 안면을 추적하게 할 수 있다.
바꾸어 말하자면, 본 실시예가 제공하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법은 수시로 식구와 연락하는 것을 실현할 수 있고, 참신한 지능 인터랙션 방식을 구비하며, 상기 방법의 단말 설비가 식구간의 소통, 돕기, 알림의 다리로 될 수 있는 것을 실현한다.
본 실시예의 다른 한가지 실현 방식에서, 상기 환경 센서 신호는 처한 환경의 환경정보를 가리키기 위한 것인바, 다모드의 입력 신호를 수신한 후, 상기 환경 정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때 위험 경보를 행하고, 위험을 처리하는 방식을 출력하며, 및 카메라를 켜서 촬영을 행한다. 여기서, 상기 조기 경보 역치는 상기 환경정보의 각 항의 지표에 대해 따로따로 설정할 수 있는바 본 실시예는 조기 경보 역치의 크기에 대해 한정하지 않는다.
바꾸어 말하자면, 상기 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법은 식구들을 상처 받지 않도록 보호할 수도 있다.
예를 든 장면: 본 실시예가 제공하는 방법을 실현하는 단말 설비, 예를 들어 지능로봇에 탑재한 PM2.5 미립자 센서, 유독 가스 센서 및 온습도 센서 등 센서 중의 적어도 하나는 지능로봇이 처한 환경의 환경정보를 획득할 수 있는 것으로, 수시로 주택 환경의 건강도를 감시할 수 있다. 상기 환경 정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때, 예를 들어 집에 유독 가스 누설(예컨대 가스 누설)이 발생하였을 경우, 바로 위험 경보를 울려 음성을 통하여 위험 경고를 행하고, 위험 처리 방식을 알리며, 위험한 경우를 식구들 휴대폰에 송신하고, 경계 상태에 자동으로 진입하여 카메라를 켜 방 전체 촬영 기록을 행하게 된다.
나아가, 상기 환경 정보에 포함되는 각 항의 지표 중 상태 전환 역치에 도달한 지표가 존재할 경우, 지능 주택 제어 플랫폼을 통하여 상기 상태 전환 역치에 도달한 지표에 대응되는 가전제품의 상태를 제어함으로써, 가전제품에 대한 관리를 실현할 수도 있다. 여기서, 상기 상태 전환 역치도 마찬가지로 상기 환경정보의 각 항 지표에 대해 따로따로 설정할 수 있는바, 본 실시예는 조기 경보 역치의 크기에 대해 한정하지 않는다.
예를 든 장면: 본 실시예가 제공하는 방법을 실현하는 단말 설비, 예를 들어 지능로봇에 탑재된 PM2.5 미립자 센서, 유독 가스 센서 및 온습도 센서 등 센서 중의 적어도 하나는 지능 로봇이 처한 환경의 환경정보, 예를 들어, 집안의 대기질량 상황과 온습도 상황 등을 획득할 수 있다. 공기 질량이 나빠져 공기 질량의 상태 전환 역치에 도달했을 경우, 지능로봇은 블루투스 지능 주택 제어 플랫폼을 통하여 공기 청정기를 자동으로 켜고; 방안 온도가 너무 높거나 너무 낮아 온도의 상태 전환 역치에 도달 했을 경우, 에어컨을 자동으로 작동하며; 집에 아무도 없지만 전등 끄는 것을 잊어버려 전등의 상태 전환 역치에 도달했을 경우, 전등을 자동으로 끄게 된다.
본 실시예의 다른 한가지 실현 방식에서, 상기 사용자의 의도가 질문의 답을 획득하는 것인바, 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 것은 사용자가 입력한 음성에 포함되는 질문에 대해 검색을 행하고, 상기 질문에 대응되는 답을 획득하고, 상기 답안을 사용자에게 출력하는 것 일 수 있다. 여기서, 상기 답안을 사용자에게 출력하는 것은 상기 답안 음성을 사용자에게 브로드캐스팅하는 것일 수 있고, 상기 답을 텍스트의 형식으로 사용자에게 디스플레이하는 것일 수도 있다.
나아가, 상기 답안을 사용자에게 출력한 후, 사용자가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하여 상기 추천정보를 사용자에게 출력할 수도 있다. 여기서, 상기 추천정보를 사용자에게 출력하는 것은 상기 추천정보 음성을 사용자에게 브로드캐스팅하는 것일 수 있고, 상기 추천정보를 텍스트의 형식으로 사용자에게 디스플레이하는 것일 수도 있다.
예를 든 장면: 학습 성장 단계에 처한 어린이들은 전 세계에 대해 항상 탐색하고 싶어하는 호기심으로 충만되어 어린이들은 늘 자신의 엄마 아빠에게 "이게 뭐에요?" 또는 "이건 왜 그런 거죠?"라는 질문을 하곤 하는데 본 실시예가 제공하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법을 실현하는 단말 설비, 예를 들어 지능로봇이 없을 경우에 가장들은 자신의 지식 방면의 원인으로 흔히 대답하지 못하거나, 난처하여 어쩌할 바를 모르며 답해 줄 수 없거나, 아니면 컴퓨터를 켜고 관련 검색을 행하게 되는데, 느리고 불편하다. 하지만 만약 지능로봇의 동반이 있다면 어린이들은 직접 자신의 여러가지 질문을 지능 로봇에게 물어볼 수 있는바, 예를 들어 "쇼유뚜(小度), 잎은 왜 모두 녹색이야?"라고 물으면, 지능로봇은 어린이가 입력한 상기 음성을 수신한 후, 상기 음성에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 어린이가 입력한 상기 음성의 의도가 질문의 답을 획득하는 것임을 확정한다. 그리하여 지능로봇은 어린이가 입력한 음성에 포함되는 질문에 대해 즉시 클라우드 지능 검색을 행하고 대량의 인터넷 정보에서 최적 결과를 선별해내어 어린이에게 "잎이 녹색인 것은 엽록소가 존재하기 때문입니다. 엽록소는 식물세포의 엽록체에 존재하는 한가지 중요한 녹색 색소로서, 물, 공기 및 햇빛을 이용해 식물이 필요하는 영양분을 제작할 수 있습니다. 엽록소가 녹색이므로 식물의 잎도 녹색인 것입니다."이란 답안 음성을 브로드캐스팅하게 된다.
어린이의 질문에 해답한 후, 지능로봇은 또 어린이가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하여 상기 추천정보를 어린이에게 출력할 수 있는데, 구체적으로, 지능로봇은 자동적으로 어린이가 했던 상기 질문에 의거하여 확산적인 교육과 계발, 예를 들어 "엽록소에 대해 알고나서 두두는 왜 가을이 되면 잎이 시드는줄 아시나요?"......을 행할 수도 있다.
기타 교육장면, 예를 들어 어린이를 도와 글을 익히게 하는 것, 영어 단어를 배우게 하는 것, 어린이에게 이야기 해주기 등등 여러가지가 더 있다.
어린이들은 3살 내지 5살 때 언어가 쾌속으로 발달하게 되고, 쉴새 없이 사람들과 대화를 하면서 성장하는 과정에서, 지능로봇은 하루종일 쉬지 않고 어린이와 채팅 할수 있고, 어린이의 언어 시스템의 성장에 도움이 된다. 지능로봇의 동반의 존재함으로 하여 아동 교육이 참신한 시대로 진입하게 된다.
상기 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법에서, 다모드의 입력 신호를 수신한 후 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하고, 다음 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백함으로써 양호한 휴먼 컴퓨터 인터랙션기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능 휴먼 컴퓨터 인터랙션을 실현할 수 있으며 나아가 사용자 체험을 향상시킬 수 있다.
도 2는 본 발명의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치의 일 실시예의 구조 설명도인바, 본 실시예에서의 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치는 단말 설비 또는 단말 설비의 일 부분으로서 본 발명의 도 1이 도시하는 실시예의 과정을 실현할 수 있다. 도 2가 도시하는 바와 같이, 상기 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치는 수신 모듈(21), 의도 판단 모듈(22) 및 처리 모듈(23)을 포함할 수 있다.
여기서, 수신 모듈(21)은 다모드의 입력 신호를 수신하기 위한 것이고 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함한다.
구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라를 통하여 입력한 것일 수 있으며; 상기 환경 센서 신호는 광센서, 온습도 센서, 유독 가스 센서, 미세 먼지 오염 센서, 터치 모듈, 지리 위치 위치 추적 모듈 및 중력 센서 중의 하나 또는 여러개의 센서를 통하여 입력한 신호를 포함한다.
의도 판단 모듈(22)은 수신 모듈(21)이 수신한 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하기 위한 것이다.
처리 모듈(23)은 의도 판단 모듈(22)이 확정한 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하기 위한 것이다.
구체적으로, 처리 모듈(23)이 처리 결과를 상기 사용자에게 피드백하는 것은 처리 모듈(23)이 처리 결과를 이미지, 텍스트, 목소리, 로봇 사지 동작 및 로봇 등불 등 방식 중의 적어도 하나로 사용자에게 피드백하는 것을 포함할 수 있는바, 본 실시예는 처리 결과의 피드백 방식에 대해 한정하지 않는다.
본 실시예의 일 실현 방식에서, 의도 판단 모듈(22)은 구체적으로 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 이미지 신호 및 센서 신호 중의 적어도 하나를 결부하여 상기 사용자의 의도를 확정하기 위한 것이다.
또는, 의도 판단 모듈(22)은 구체적으로 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 발음체 위치 추적을 통하여 디스플레이 스크린을 사용자가 소재하는 방향으로 돌리고 카메라의 안면 인식 보조기능을 통하여 상기 사용자의 개인 정보를 인식하고; 음성 인식의 결과, 상기 사용자의 개인 정보 및 저장한 상기 사용자의 선호정보에 의거하여 상기 사용자의 의도를 확정하기 위한 것이다. 여기서, 상기 사용자의 개인 정보는 사용자의 성명, 연령 및 성별 등 정보를 포함하고, 상기 사용자의 선호정보는 사용자의 일상적인 행위 취향 등 정보를 포함한다.
본 실현 방식에서, 처리 모듈(23)은 구체적으로 상기 사용자의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 상기 사용자에게 적합한 추천정보를 획득하고, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하기 위한 것이다. 여기서, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 것은 처리 모듈(23)이 상기 사용자에게 적합한 추천정보를 상기 사용자에게 음성으로 브로드캐스팅 하는 것, 또는 상기 사용자에게 적합한 추천정보를 텍스트의 형식으로 디스플레이 스크린에 디스플레이하는 것일 수 있는바, 본 실시예는 처리 모듈(23)이 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 방식에 대해 한정하지 않는다.
나아가, 상기 추천정보가 주소정보를 포함할 수 있으면, 처리 모듈(23)은 구체적으로 상기 사용자의 소재지로부터 상기 주소정보가 가리키는 지점까지의 교통경로를 획득하고, 상기 사용자의 외출습관에 의거하여 상기 사용자에게 적합한 외출방식을 획득하며 상기 외출방식을 상기 사용자에게 추천하기 위한 것이다. 여기서, 처리 모듈(23)이 상기 외출방식을 상기 사용자에게 추천하는 것은 처리 모듈(23)이 상기 외출방식을 상기 사용자에게 음성으로 브로드캐스팅하는 것, 또는 상기 외출방식을 텍스트의 형식으로 디스플레이 스크린에 디스플레이하는 것일 수 있는바, 본 실시예는 처리 모듈(23)이 상기 외출방식을 상기 사용자에게 추천하는 방식에 대해 한정하지 않는다.
바꾸어 말하자면, 본 실시예의 휴먼 컴퓨터 인터랙션 장치는 사람과 여러 차례 대화와 컴뮤니케이션을 행하는 기능을 실현할 수 있고, 자연 언어와 표정으로 사람들과 컴뮤니케이션을 행할 수 있으며, 개성화된 학습 능력을 구비하고 있어 지능 클라우드 서버에 연결하는 것을 통하여 관련 지식을 획득하고 목표성있게 사용자에게 제공할 수 있다.
예를 든 장면: 집에 계시는 노인이 밖으로 나가 이벤트에 참석하고 싶어하시는데 어떤 재미있는 이벤트가 열리고 있는지 모른다고 할 때, 만약 본 실시예가 제공하는 장치가 없이 범상적인 해결방안대로라면 노인은 자식에게 전화로 문의하거나, 밖으로 나가 이웃집이나 주민 위원회에 가서 문의할 수 밖에 없다.
하지만 만약 본 실시예가 제공하는 휴먼 컴퓨터 인터랙션 장치가 있으면 노인은 본 실시예가 제공하는 휴먼 컴퓨터 인터랙션 장치에 대해 "쇼유뚜(小度)로봇, 근처에 나에게 어울리는 이벤트가 어떤 것들이 있을가?"라고 말할 수 있다.
수신 모듈(21)이 상기 음성을 수신한 후, 의도 판단 모듈(22)은 발음체 위치 추적을 통하여 디스플레이 스크린(예컨대 지능로봇의 얼굴)을 노인이 소재하는 방향으로 돌려 고화질 카메라의 안면 인식 보조기능을 통하여 말하는 자의 개인 정보, 예를 들어 말하는 자의 성명, 연령 및 성별 등을 정확하게 인식하게 하고, 말하는 자의 일상적인 행위 취향, 연령 및 성별 등 정보에 의거하여 말하는 자가 입력한 음성의 의도를 확정한 후, 처리 모듈(23)이 입력된 음성의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 말하는 자에게 가장 적합한 추천정보를 선별해내고, 당해 추천정보 음성을 상기 말하는 자에게 "쇼유뚜(小度)가 당신을 위해 당신이 좋아하실 수 있는 이벤트를 찾아냈어요. 당신과 800미터 거리에 있는 남호공원에서 오늘 오후 두시에 노인 사교 댄스 파티가 열리는데 어떠세요?"라고 브로드캐스팅하게 되며, 여기서, 당해 추천정보에는 주소정보인 "남호공원"이 포함된다.
만약 사용자가 "아주 좋아. 난 이 이벤트가 맘에 들어. 내가 어떻게 가면 되지?"라고 회답하면, 사용자가 입력한 음성을 수신한 후 의도 판단 모듈(22)이 상기 사용자가 입력한 음성에 대해 음성 인식을 행할 수 있고, 음성 인식의 결과에 의거하여 사용자의 의도가 "남호공원"에 가고 싶어한다는 것을 확정하면, 처리 모듈(23)이 지리 위치 위치 추적 모듈이 입력한 신호에 의거하여 사용자가 소재하는 위치를 확정하고 사용자가 소재하는 위치에서 남호공원까지의 교통 경로를 자동으로 검색하고, 상기 사용자의 일상적인 외출습관에 의거하여 지능적으로 상기 사용자에게 적합한 외출방식을 획득하고, "여기에서 남호공원까지 800미터거리이고, 보행으로 15분간의 시간이 소요되는 것으로 예상되며, 이미 당신을 위해 보행 지도 경로를 계획해두었습니다."라고 외출방식을 사용자에게 추천한다.
도 3은 본 발명의 휴먼 컴퓨터 인터랙션 장치의 다른 하나의 실시예의 구조 설명도로서, 도 2가 도시하는 휴먼 컴퓨터 인터랙션 장치와 비교할 때, 차이점은 도 3이 도시하는 휴먼 컴퓨터 인터랙션 장치는 알림 모듈(24)과 기록 모듈(25)을 더 포함할 수 있다는 것이다.
본 실시예의 일종 실현 방식에서, 상기 사용자의 의도가 시간정보를 포함하고, 처리 모듈(23)은 구체적으로 상기 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고, 설정결과를 상기 사용자에게 피드백하기 위한 것이다. 여기서, 처리 모듈(23)이 설정결과를 상기 사용자에게 피드백하는 것은 처리 모듈(23)이 설정결과 음성을 사용자에게 브로드캐스팅하는 것, 또는 처리 모듈(23)이 설정결과를 문자의 형식으로 사용자에게 디스플레이하는 것일 수 있고, 물론 기타 피드백 방식을 적용하는 것일 수도 있는바 본 발명은 이에 대해 한정하지 않는다.
알림 모듈(24)은 처리 모듈(23)이 설정결과를 상기 사용자에게 피드백한 후, 상기 사용자에게 알림을 행하기 위한 것이다.
기록 모듈(25)은 상기 사용자의 음성 메모 정보를 기록하기 위한 것이다.
알림 모듈(24)은 또 상기 알람시계의 알림정보의 시각에 도달했을 때 알람시계의 알림을 행하기 위한 것이다.
처리 모듈(23)은 또 기록 모듈(25)이 기록한 사용자의 메모 정보를 브로드캐스팅하기 위한 것이다.
예를 든 장면: 아침 7시, 엄마가 일찍 일어나 출장가야 하는데 집안의 어린이 두두는 아직도 깊이 잠들어 있다. 집을 나설 때 엄마는 휴먼 컴퓨터 인터랙션 장치에게 "쇼유뚜(小度)로봇, 8시에 나를 도와 두두를 깨울 수 있겠니?"라고 말하면, 수신 모듈(21)이 음성을 수신한 후 의도 판단 모듈(22)이 음성 인식결과에 의거하여 사용자의 의도에는 시간정보가 포함됨을 확정한다. 그리하여 처리 모듈(23)은 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고, 설정결과를 상기 사용자에게 피드백하고, 설정결과를 상기 사용자에게 피드백한 후 알림 모듈(24)은 사용자에게 알림을 행할 수도 있는바, "그러죠. 이미 당신을 도와 알람시계의 알림을 설정해두었습니다. 한시간 후, 8시 정각에 두두를 깨우겠습니다. 두두가 일어나면 대신 전해드릴 메모라도 있으십니까?"라고 대답한다.
엄마는 "고마워, 쇼유뚜(小度)야. 아침밥은 해서 전자레인지에 넣어두었고, 그리고 오늘은 걔 생일이니 생일 축하한다고 전해주렴."라고 말한다. 이때, 기록 모듈(25)이 사용자의 메모를 기록하고, 알림 모듈(24)에 의해 상기 알람시계의 알림정보의 시각에 도달했을 때 알람시계의 알림을 행하고, 처리 모듈(23)에 의해 상기 사용자의 메모 정보를 플레이하게 된다.
본 실시예의 다른 한가지 실현 방식에서, 수신 모듈(21)은 또 다모드의 입력 신호를 수신하기 전에 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 수신하기 위한 것이다.
알림 모듈(24)은 상기 사용자가 상기 멀티미디어정보를 브로드캐스팅해야 하는지를 알리기 위한 것이다. 여기서, 알림 모듈(24)이 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알리는 것은 음성 알림일 수도 있고 문자 알림 또는 기타 알림 방식일 수도 있는바, 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알리는 기능을 실현할 수만 있으면 된다.
만약 상기 사용자의 의도가 상기 멀티미디어정보를 플레이를 동의하는 것이면 처리 모듈(23)은 구체적으로 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이하기 위한 것이다.
나아가, 상기 휴먼 컴퓨터 인터랙션 장치는 송신 모듈(26)을 더 포함할 수 있다.
수신 모듈(21)은 처리 모듈(23)이 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이한 후, 상기 사용자가 송신하는 음성을 수신하기 위한 것이다.
송신 모듈(26)은 수신 모듈(21)이 수신한 음성을 상기 사용자와 관련되는 다른 사용자에게 송신하기 위한 것이다. 여기서, 송신 모듈(26)이 상기 음성을 사용자와 관련되는 다른 사용자에게 송신하는 것은 송신 모듈(26)이 음성을 사용자와 관련되는 다른 사용자가 사용하는 지능단말에 장착된App로 직접 송신하거나 또는 음성을 문자로 전환시켜 사용자와 관련되는 다른 사용자가 사용하는 지능 단말에 장착된 App로 송신하는 것일 수 있다.
예를 든 장면: 점심 12시, 두두가 집에서 점심을 먹고 있다.
수신 모듈(21)은 사용자(두두)와 관련되는 다른 사용자(두두의 엄마)가 송신하는 멀티미디어정보(예컨대 동영상 정보)를 수신하였다. 이때 알림 모듈(24)은 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알린다. 그리하여 "Hi, 두두, 쇼유뚜(小度)는 엄마가 보내주신 동영상 정보를 한통 받았는데 지금 보실래요?"라고 브로드캐스팅한다.
두두는 "바로 플레이해주세요."라고 회답한다. 수신 모듈(21)이 두두가 입력한 음성을 수신한 후 의도 판단 모듈(22)은 음성 인식을 행하고 음성 인식결과에 의거하여 사용자의 의도가 상기 동영상 정보를 플레이하는 것을 동의함으로 확정하게 된다. 그리하여, 처리 모듈(23)은 디스플레이 스크린에 엄마가 출장가신 도시에서 녹화한 생일 축하 동영상을 자동으로 플레이한다.
엄마께서 송신한 동영상 정보를 플레이한 후, 수신 모듈(21)은 두두가 보낸 음성인 "쇼유뚜(小度), 엄마에게 '엄마, 축복 고마워요. 엄마 사랑해요. 여행길이 순조롭기를 바랄게요. 그리고 빨리 귀가하세요'라고 답장해줘."를 더 수신할 수 있다.
이때 송신 모듈(26)은 두두가 답장한 음성을 문자로 자동으로 전환시켜 엄마의 휴대폰에 장착된 App로 회답하게 된다.
본 실시예의 다른 한가지 실현 방식에서, 사용자의 의도는 멀티미디어정보를 플레이할 것을 요청하는 것일 수 있는바, 그러면 처리 모듈(23)은 구체적으로 무선 네트워크를 통하여 클라우드 서버로부터 상기 사용자가 플레이할 것을 요청한 멀티미디어정보를 획득하고, 획득한 멀티미디어정보를 플레이하기 위한 것이다.
나아가, 수신 모듈(21)은 또 다모드의 입력 신호를 수신하기 전에 상기 사용자와 관련되는 다른 사용자가 송신한 통화 요청을 수신하기 위한 것이다.
알림 모듈(24)은 상기 사용자가 통화를 받을지 받지 않을지를 알리기 위한 것이다.
만약 상기 사용자의 의도가 통화를 받는 것이면, 처리 모듈(23)은 구체적으로 상기 사용자와 상기 사용자와 관련되는 다른 사용자를 위해 통화연결을 행하고, 통화 과정에서 카메라가 상기 사용자 중 말하는 자의 방위를 식별하게 하고, 상기 카메라가 말하는 자를 향해 돌도록 제어하며; 상기 사용자와 관련되는 다른 사용자가 상기 다른 사용자가 사용하는 지능 단말에 장착된 애플리케이션을 통하여 상기 다른 사용자가 주목하는 안면을 클릭한 후, 동영상 안면 추적기능 작동하여 상기 카메라가 상기 다른 사용자가 주목하는 안면을 추적하게 하기 위한 것이다.
예를 든 장면: 밤 9시, 두두가 집에서 어린 친구들과 생일 파티를 열고 있다.
두두는 지능로봇에게 "쇼유뚜(小度), 오늘은 저의 생일이에요. 우리에게 생일 축하 송를 한곡 플레이해주세요."라고 말하면, 수신 모듈(21)이 상기 음성을 수신한 후, 의도 판단 모듈(22)이 음성 인식결과에 의거하여 두두가 입력한 음성의 의도가 멀티미디어정보(예컨대 오디오정보 "생일 축하 송")를 플레이하는 요청임을 확정한다.
그리하여 처리 모듈(23)은 WiFi를 통하여 지능적으로 클라우드 서버로부터 생일 축하 곡을 검색해내어 로컬에 자동으로 다운로딩하고 플레이를 행할 것이며, 사용자에게 "그러죠. 바로 플레이를 시작하겠습니다."라는 처리결과를 피드백한다.
플레이가 완성된 후, 수신 모듈(21)은 두두의 엄마가 송신한 동영상 통화 요청을 수신한다. 그리하여 알림 모듈(24)이 두두에게 "동영상 통화 요청을 한 통 수신했어요. 어머님께서 두두와 동영상 통화를 행하기를 요청하시는데, 받아보실래요?"라고 알린다.
두두가 "바로 받으세요."라고 말하면 수신 모듈(21)이 두두가 입력한 이 음성을 수신한 후, 의도 판단 모듈(22)이 두두가 입력한 이 음성의 의도가 통화를 받는 것임을 확정할 수 있다. 그리하여 처리 모듈(23)은 먼 타향에서 출장 중인 엄마가 사용하는 지능 단말에 장착된 App와 지능로봇의 고화질 동영상 카메라를 연결시켜 엄마를 두두, 어린이들과 동영상 통화를 행하도록 하고, 동영상 통화 과정에서 과정 처리 모듈(23)이 자신의 카메라가 자동적으로 말하는 자의 방위를 식별하고 카메라를 말하는 자를 향해 돌도록 제어할 수 있다. 카메라가 회전하는 과정에서, 지능적인 듀얼 카메라 렌즈가 전환되는 계산법은 카메라 화면 안정을 보장할 수 있어 흔들림이 발생하지 않는다. 엄마는 사용하는 지능 단말에 장착된 App를 통하여 동영상에서의 안면을 클릭하여 동영상 안면 추적기능을 작동시켜 지능로봇의 카메라가 줄곧 엄마가 주목하고 싶어하는 안면을 추적하게 할 수 있다.
바꾸어 말하자면, 본 실시예가 제공하는 휴먼 컴퓨터 인터랙션 장치는 수시로 식구와 연락하는 것을 실현할 수 있고, 참신한 지능인터랙션 방식을 구비하며 상기 방법의 단말 설비가 식구간의 소통, 돕기, 알림의 다리로 될 수 있는 것을 실현한다.
본 실시예의 다른 한가지 실현 방식에서, 상기 환경 센서 신호는 사용자가 처한 환경의 환경 정보를 가리키기 위한 것이다.
처리 모듈(23)은 또 상기 환경 정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때 위험 경보를 행하고, 위험을 처리하는 방식을 출력하며, 및 카메라를 켜서 촬영을 행하기 위한 것이다. 여기서, 상기 조기 경보 역치는 상기 환경정보의 각 항의 지표에 대해 따로따로 설정할 수 있는바, 본 실시예는 조기 경보 역치의 크기에 대해 한정하지 않는다.
바꾸어 말하자면, 상기 휴먼 컴퓨터 인터랙션 장치는 식구들을 상처 받지 않도록 보호할 수도 있다.
예를 든 장면: 휴먼 컴퓨터 인터랙션 장치 중의 센서는 PM2.5미립자 센서, 유독 가스 센서 및 온습도 센서 등 센서 중의 적어도 하나를 포함할 수 있다. 상기 센서의 신호는 지능로봇이 처한 환경의 환경정보를 가리켜, 수시로 주택 환경의 건강도를 감시할 수 있도록 하기 위한 것이다. 상기 환경정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때, 예를 들어, 집에 유독 가스 누설(예컨대 가스 누설)이 발생하였을 경우, 처리 모듈(23)은 바로 위험 경보를 울려 음성을 통하여 위험 경고를 행하고, 위험 처리 방식을 알리며, 위험한 경우를 식구들 휴대폰에 자동으로 송신하고, 경계 상태에 자동으로 진입하여 카메라를 켜 방 전체 촬영 기록을 행하게 된다.
나아가, 처리 모듈(23)은 또 상기 환경 정보에 포함되는 각 항의 지표 중 상태 전환 역치에 도달한 지표가 존재할 경우, 지능 주택 제어 플랫폼을 통하여 상기 상태 전환 역치에 도달한 지표에 대응되는 가전제품의 상태를 제어하기 위한 것으로, 가전제품에 대한 관리를 실현할 수 있다. 여기서, 상기 상태 전환 역치도 마찬가지로 상기 환경정보의 각 항 지표에 대해 따로따로 설정할 수 있는바, 본 실시예는 조기 경보 역치의 크기에 대해 한정하지 않는다.
예를 든 장면: 상기 휴먼 컴퓨터 인터랙션 장치중의 센서는 PM2.5미립자 센서, 유독 가스 센서 및 온습도 센서 등 센서 중의 적어도 하나를 포함할 수 있다. 상기 센서의 신호는 처한 환경의 환경정보, 예를 들어, 집안의 공기 질량 상황 및 온습도 상황 등을 가리키기 위한 것이다. 공기 질량이 나빠져 공기 질량의 상태 전환 역치에 도달했을 경우, 처리 모듈(23)은 블루투스 지능 주택 제어 플랫폼을 통하여 공기 청정기를 자동으로 켜고; 방안 온도가 너무 높거나 너무 낮아 온도의 상태 전환 역치에 도달 했을 경우, 처리 모듈(23)은 에어컨을 자동으로 작동하며; 집에 아무도 없지만 전등 끄는 것을 잊어버려 전등의 상태 전환 역치에 도달했을 경우, 처리 모듈(23)은 자동으로 전등을 끄게 된다.
본 실시예의 다른 한가지 실현 방식에서, 상기 사용자의 의도는 질문의 답을 획득하는 것인바, 처리 모듈(23)은 구체적으로 상기 사용자가 입력한 음성에 포함되는 질문에 대해 검색을 행하고, 상기 질문에 대응되는 답을 획득하고 상기 답안을 사용자에게 출력하기 위한 것이다. 여기서, 처리 모듈(23)이 상기 답안을 사용자에게 출력하는 것은 상기 답안 음성을 사용자에게 브로드캐스팅하는 것일 수 있고, 상기 답안을 텍스트의 형식으로 사용자에게 디스플레이하는 것일 수도 있다.
나아가, 처리 모듈(23)은 또 상기 답안을 상기 사용자에게 출력한 후, 상기 사용자가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하고, 상기 추천정보를 사용자에게 출력하기 위한 것이다. 여기서, 처리 모듈(23)이 상기 추천정보를 사용자에게 출력하는 것은 상기 추천정보 음성을 사용자에게 브로드캐스팅하는 것일 수 있고, 상기 추천정보를 텍스트의 형식으로 사용자에게 디스플레이하는 것일 수도 있다.
예를 든 장면: 학습 성장 단계에 처한 어린이들은 전 세계에 대해 항상 탐색하고싶어하는 호기심으로 충만되어 어린이들은 늘 자신의 엄마 아빠에게 "이게 뭐에요?" 또는 "이건 왜 그런 거죠?"라는 질문을 하곤 한다. 본 실시예가 제공하는 휴먼 컴퓨터 인터랙션 장치가 없을 경우에 가장들은 자신의 지식 방면의 원인으로 흔히 대답하지 못하거나, 난처하여 어쩌할 바를 모르며 답해 줄 수 없다고하거나, 아니면 컴퓨터를 켜고 관련 검색을 행하게 되는데, 느리고 불편하다. 하지만 만약 본 실시예가 제공하는 휴먼 컴퓨터 인터랙션 장치가 있다면 어린이는 직접 자신의 여러가지 질문을 수시로 휴먼 컴퓨터 인터랙션 장치에게 물어볼 수 있는바, 예를 들어 "쇼유뚜(小度), 왜 잎은 모두 녹색이야?"라고 물으면, 수신 모듈(21)이 어린이가 입력한 상기 음성을 수신한 후, 의도 판단 모듈(22)이 상기 음성에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 어린이가 입력한 상기 음성의 의도가 질문의 답을 획득하는 것임을 확정한다. 그리하여 처리 모듈(23)은 어린이가 입력한 음성 중에 포함되는 질문에 대해 즉시 클라우드 지능 검색을 행하고, 대량의 인터넷 정보에서 최적 결과를 선별해내어 어린이에게 "잎이 녹색인 것은 엽록소가 존재하기 때문입니다. 엽록소는 식물세포의 엽록체에 존재하는 한가지 중요한 녹색 색소로서, 물, 공기 및 햇빛을 이용해 식물이 필요하는 영양분을 제작할 수 있습니다. 엽록소가 녹색이므로 식물의 잎도 녹색입니다." 이란 답안 음성을 브로드캐스팅하게 된다.
어린이의 질문에 해답한 후, 처리 모듈(23)은 또 어린이가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하여 상기 추천정보를 어린이에게 출력할 수 있는데, 구체적으로 처리 모듈(23)은 자동적으로 어린이가 제출한 상기 질문에 의거하여 확산적인 교육과 계발, 예를 들어 "엽록소에 대해 알고나서 두두는 왜 가을이 되면 잎이 시드는줄 아시나요?"......을 행할 수도 있다.
기타 교육장면, 예를 들어 어린이를 도와 글을 익히게 하는것, 영어 단어를 배우게 하는것, 어린이에게 이야기 해주기 등등 여러가지가 더 있다.
어린이들은 3살 내지 5살 때 언어가 쾌속으로 발달하게 되고, 쉴새 없이 사람들과 대화를 하면서 성장해야 하는 과정에서, 지능로봇은 하루종일 쉬지 않고 어린이와 채팅할 수 있고, 어린이의 언어 시스템의 성장에 도움이 된다. 지능로봇의 동반의 존재함으로 하여 아동 교육이 참신한 새대로 진입하게 된다.
상기 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치에서, 수신 모듈(21)이 다모드의 입력 신호를 수신한 후, 상기 다모드의 입력 신호에 의거하여 의도 판단 모듈(22)이 상기 사용자의 의도를 확정하고, 다음 처리 모듈(23)이 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백함으로써 양호한 휴먼 컴퓨터 인터랙션기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능휴먼 컴퓨터 인터랙션을 실현할 수 있으며, 나아가 사용자 체험을 향상시킬 수 있다.
도 4는 본 발명의 단말 설비의 일 실시예의 구조 설명도인바, 본 실시예에서의 단말 설비는 본 발명의 도 1이 도시하는 실시예의 과정을 실현할 수 있다. 도 4가 도시하는바와 같이, 당해 단말 설비는 수신기(41), 프로세서(42), 메모리(43), 회로판(44)과 전원 회로(45)를 포함할 수 있다. 여기서, 회로판(44)는 하우징으로 둘러싸인 공간 내부에 배치되고, 프로세서(42)와 메모리(43)는 회로판(44)에 설치되고; 전원 회로(45)는 상기 단말 설비의 각각의 회로나 부품에 전력을 공급하기 위한 것이고; 메모리(43)는 수행 가능한 프로그램 코드를 저장하기 위한 것이다.
수신기(41)는 다모드의 입력 신호를 수신하기 위한 것이고, 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함한다.
구체적으로, 사용자가 입력한 음성 신호는 사용자가 마이크를 통하여 입력한 것일 수 있고; 상기 이미지 신호는 카메라를 통하여 입력한 것일 수 있으며; 상기 환경 센서 신호는 광센서, 온습도 센서, 유독 가스 센서, 미세 먼지 오염 센서, 터치 모듈, 지리 위치 위치 추적 모듈 및 중력 센서 중의 하나 또는 여러개의 센서를 통하여 입력한 신호를 포함한다.
프로세서(42)는 메모리(43)에 저장된 수행 가능 프로그램 코드를 판독하는 것을 통하여 수행 가능 프로그램 코드에 대응되는 프로그램을 수행하여, 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계; 상기 사용자의 의도에 대해 처리를 행하고 처리 결과를 상기 사용자에게 피드백하는 단계를 수행하기 위한 것이다.
구체적으로, 프로세서(42)가 처리 결과를 상기 사용자에게 피드백하는 것은 프로세서(42)가 처리 결과를 이미지, 텍스트, 목소리, 로봇 사지 동작 및 로봇 등불 등 방식 중의 적어도 하나로 사용자에게 피드백하는 것을 포함할 수 있는바 본 실시예는 처리 결과의 피드백 방식에 대해 한정하지 않는다.
본 실시예의 일 실현 방식에서, 프로세서(42)는 구체적으로 상기 사용자가 입력한 음성에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 이미지 신호 및 센서 신호 중의 적어도 하나를 결부하여 상기 사용자의 의도를 확정하기 위한 것이다.
또는, 상기 단말 설비는 카메라(46)를 더 포함할 수 있고 프로세서(42)는 구체적으로 상기 사용자가 입력한 음성에 대해 음성 인식을 행하고, 발음체 위치 추적을 통하여 디스플레이 스크린을 상기 사용자가 소재하는 방향으로 돌리고, 카메라(46)의 안면 인식 보조기능을 통하여 상기 사용자의 개인 정보를 인식하고; 음성 인식의 결과, 상기 사용자의 개인 정보 및 저장한 상기 사용자의 선호정보에 의거하여 상기 사용자의 의도를 확정하기 위한 것이다. 여기서, 상기 사용자의 개인 정보는 사용자의 성명, 연령 및 성별 등 정보를 포함하고; 상기 사용자의 선호정보는 사용자의 일상적인 행위 취향 등 정보를 포함한다.
본 실현 방식에서, 프로세서(42)는 구체적으로 상기 사용자의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 상기 사용자에게 적합한 추천정보를 획득하고, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하기 위한 것이다. 여기서, 프로세서(42)가 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 것은 상기 사용자에게 적합한 추천정보를 상기 사용자에게 음성으로 브로드캐스팅하는 것, 또는 상기 사용자에게 적합한 추천정보를 텍스트의 형식으로 디스플레이 스크린에 디스플레이하는 것일 수 있는바, 본 실시예는 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 방식에 대해 한정하지 않는다.
나아가, 상기 추천정보는 주소정보를 포함할 수 있고, 프로세서(42)는 구체적으로 상기 사용자의 소재지로부터 상기 주소정보가 가리키는 지점까지의 교통경로를 획득하고, 상기 사용자의 외출습관에 의거하여 상기 사용자에게 적합한 외출방식을 획득하고, 상기 외출방식을 상기 사용자에게 추천하기 위한 것이다. 여기서, 프로세서(42)가 상기 외출방식을 상기 사용자에게 추천하는 것은 상기 외출방식을 상기 사용자에게 음성으로 브로드캐스팅하는 것, 또는 상기 외출방식을 텍스트의 형식으로 디스플레이 스크린에 디스플레이하는것일 수 있는바, 본 실시예는 상기 외출방식을 상기 사용자에게 추천하는 방식에 대해 한정하지 않는다.
바꾸어 말하자면, 본 실시예에서의 단말 설비는 사람들과 여러 차례 대화와 컴뮤니케이션을 행하는 기능을 실현할 수 있고, 자연 언어와, 표정으로 사람들과 컴뮤니케이션을 행할 수 있으며, 개성화된 학습 능력을 구비하고 있어 지능 클라우드 서버에 연결하는 것을 통하여 관련 지식을 획득하고 목표성있게 사용자에게 제공할 수 있다.
예를 든 장면: 집에 계시는 노인이 밖으로 나가 활동에 참석하고 싶어하시는데 어떤 재밌는 이벤트가 열리고있는지 모른다고 할 때, 본 실시예가 제공하는 단말 설비가 없이 범상적인 해결방안대로라면 노인은 자식에게 전화로 문의하거나 밖으로 나가 이웃집이나 주민 위원회에 가셔서 문의할 수 밖에 없다.
하지만 만약 본 실시예가 제공하는 단말 설비가 있으면, 노인은 단말 설비에게 "쇼유뚜(小度)로봇, 근처에 나에게 어울리는 이벤트가 어떤 것들이 있을가?"라고 말할 수 있다.
수신기(41)가 상기 음성을 수신한 후, 프로세서(42)는 발음체 위치 추적을 통하여 단말 설비의 디스플레이 스크린(예컨대 지능로봇의 얼굴)을 노인이 소재하는 방향으로 돌려 고화질 카메라(46)의 안면 인식 보조기능을 통하여 말하는 자의 개인 정보, 예를 들어, 말하는 자의 성명, 연령 및 성별 등을 정확하게 인식하고, 말하는 자의 일상적인 행위 취향, 연령 및 성별 등 정보에 의거하여 말하는 자가 입력한 음성의 의도를 확정한 후, 입력된 음성의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 말하는 자에게 가장 적합한 추천정보를 선별해내고, 당해 추천정보 음성을 상기 말하는 자에게 "쇼유뚜(小度)가 당신을 위해 당신이 좋아하실 수 있는 이벤트를 찾아냈어요. 당신과 800미터 거리에 있는 남호공원에서 오늘 오후 두시에 노인 사교 댄스 파티가 열리는데 어떠세요?"라고 브로드캐스팅하게 되며, 여기서, 당해 추천정보에는 주소정보인 "남호공원"이 포함된다.
만약 사용자가 "아주 좋아. 난 이 이벤트가 맘에 들어, 내가 어떻게 가면 되지?"라고 회답하면, 수신기(41)가 사용자가 입력한 음성을 수신한 후, 프로세서(42)가 상기 사용자가 입력한 음성에 대해 음성 인식을 행할 수 있고, 음성 인식의 결과에 의거하여 사용자의 의도가 "남호공원"에 가고 싶어한다는 것을 확정하면 프로세서(42)이 지리 위치 위치 추적 모듈이 입력한 신호에 의거하여 사용자가 소재하는 위치를 확정하고, 사용자가 소재하는 위치에서 남호공원까지의 교통 경로를 자동으로 검색하고, 상기 사용자의 일상적인 외출습관에 의거하여 지능적으로 상기 사용자에게 적합한 외출방식을 획득하고, "여기에서 남호공원까지 800미터거리이고, 보행으로 15분간의 시간이 소요되는 것으로 예상되며, 이미 당신을 위해 보행 지도 경로를 계획해두었습니다."라고 외출방식을 사용자에게 추천한다.
본 실시예의 다른 한가지 실현 방식에서, 상기 사용자의 의도가 시간정보를 포함할 수 있고, 프로세서(42)는 구체적으로 상기 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고, 설정결과를 상기 사용자에게 피드백하기 위한 것이다. 여기서, 프로세서(42)가 설정결과를 상기 사용자에게 피드백하는 것은 프로세서(42)가 설정결과 음성을 사용자에게 브로드캐스팅하는 것, 또는 설정결과를 문자의 형식으로 사용자에게 디스플레이하는 것일 수 있고, 물론 기타 피드백 방식을 적용하는 것일 수도 있는바 본 발명은 이에 대해 한정하지 않는다.
나아가, 프로세서(42)는 또 설정결과를 상기 사용자에게 피드백한 후 상기 사용자에게 알림을 행하고, 상기 사용자의 음성 메모 정보를 기록하고, 상기 알람시계의 알림정보의 시각에 도달했을 경우에 알람시계의 알림을 행하고, 상기 사용자의 음성 메모 정보를 브로드캐스팅하기 위한 것이다.
예를 든 장면: 아침 7시, 엄마가 아침 일찍 일어나 출장가야 하는데 집안의 어린이 두두는 아직도 깊이 잠들어 있다. 집을 나설 때 엄마는 단말기 설비에 "쇼유뚜(小度)로봇, 8시에 나를 도와 두두를 깨울 수 있겠니?"라고 말하면, 수신기(41)가 음성을 수신한 후, 프로세서(42)는 음성 인식결과에 의거하여 사용자의 의도에는 시간 정보가 포함됨을 확정할 수 있다. 그리하여 프로세서(42)는 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고, 설정결과를 상기 사용자에게 피드백하고, 설정결과를 상기 사용자에게 피드백한 후 사용자에게 알림을 행할 수도 있는바, "그러죠. 이미 당신을 도와 알람시계의 알림을 설정해두었습니다. 한시간 후, 8시 정각에 두두를 깨우겠습니다. 두두가 일어나면 대신 전해드릴 메모라도 있으십니까?"라고 대답한다.
엄마는 "고마워, 쇼유뚜(小度)야. 아침밥은 해서 전자레인지에 넣어두었고, 그리고 오늘은 걔 생일이니 생일 축하한다고 전해주렴."라고 말한다. 이때, 프로세서(42)는 사용자의 메모를 기록하고 상기 알람시계의 알림정보의 시각에 도달했을 때 알람시계의 알림을 행하고, 상기 사용자의 음성 메모 정보를 플레이하게 된다.
본 실시예의 다른 한가지 실현 방식에서, 수신기(41)는 또 다모드의 입력 신호를 수신하기 전에 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 수신하기 위한 것이다.
프로세서(42)는 또 상기 사용자가 상기 멀티미디어정보를 브로드캐스팅해야 하는지를 알리기 위한 것이다. 여기서, 프로세서(42)가 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알리는 것은 음성 알림일 수 있고, 문자 알림 또는 기타 알림 방식일 수도 있는바, 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알리는 기능을 실현할 수만 있으면 된다.
만약 상기 사용자의 의도가 상기 멀티미디어정보를 플레이를 동의하는 것이면, 프로세서(42)는 구체적으로 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이하기 위한 것이다.
나아가, 상기 단말 설비는 송신기(47)를 더 포함할 수 있다.
수신기(41)는 또 프로세서(42)가 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이한 후에 상기 사용자가 송신하는 음성을 수신하기 위한 것이다.
송신기(47)은 상기 음성을 상기 사용자와 관련되는 다른 사용자에게 송신하기 위한 것이다. 여기서, 송신기(47)가 상기 음성을 사용자와 관련되는 다른 사용자에게 송신하는 것은 송신기(47)가 음성을 사용자와 관련되는 다른 사용자가 사용하는 지능단말에 장착된 App로 직접 송신하거나 또는 음성을 문자로 전환시켜 사용자와 관련되는 다른 사용자가 사용하는 지능 단말에 장착된 App로 송신하는 것일 수 있다.
예를 든 장면: 점심 12시, 두두가 한창 집에서 점심을 먹고 있다.
수신기(41)는 사용자(두두)와 관련되는 다른 사용자(두두의 엄마)가 송신하는 멀티미디어정보(예컨대 동영상 정보)를 수신하였다. 이때 프로세서(42)는 사용자에게 멀티미디어정보를 플레이하는지 하지 않는지를 알린다. 그리하여 "Hi, 두두, 쇼유뚜(小度)는 어머님께서 보내주신 동영상 정보를 한통 받았는데 지금 보실래요?"라고 브로드캐스팅한다.
두두는 "바로 플레이해주세요."라고 회답한다. 수신기(41)가 두두가 입력한 음성을 수신한 후, 프로세서(42)는 음성 인식을 행하고, 음성 인식결과에 의거하여 사용자의 의도가 상기 동영상 정보를 플레이하는 것을 동의함으로 확정하게 된다. 그리하여, 프로세서(42)는 디스플레이 스크린을 통하여 엄마가 출장가신 도시에서 녹화한 생일 축하 동영상을 자동으로 플레이한다.
엄마께서 송신한 동영상 정보를 플레이한 후에 수신기(41)는 두두가 보낸 음성인 "쇼유뚜(小度), 엄마에게 '엄마, 축복 고마워요. 엄마 사랑해요. 여행길이 순조롭기를 바랄게요. 그리고 빨리 귀가하세요'라고 답장해줘."를 더 수신할 수 있다.
이때 송신기(47)는 두두가 답장한 음성을 문자로 자동으로 전환시켜 엄마의 휴대폰에 장착된 App로 회답하게 된다.
본 실시예의 또 한가지 실현 방식에서, 사용자의 의도는 멀티미디어정보를 플레이할 것을 요청하는 것일 수 있는바, 이때 프로세서(42)는 구체적으로 무선 네트워크를 통하여 클라우드 서버로부터 상기 사용자가 플레이할 것을 요청한 멀티미디어정보를 획득하고, 획득한 멀티미디어정보를 플레이하기 위한 것이다.
나아가, 수신기(41)는 또 다모드의 입력 신호를 수신하기 전에 상기 사용자와 관련되는 다른 사용자가 송신한 통화 요청을 수신하기 위한 것이다.
프로세서(42)는 또 상기 사용자가 통화를 받을지 받지 않을지를 알리기 위한 것이다.
만약 상기 사용자의 의도가 통화를 받는 것이면 프로세서(42)는 구체적으로 사용자와 상기 사용자와 관련되는 다른 사용자를 위해 통화연결을 행하고, 통화 과정에서 카메라가 상기 사용자 중 말하는 자의 방위를 식별하게 하고, 카메라(46)가 말하는 자를 향해 돌도록 제어하며; 상기 사용자와 관련되는 다른 사용자가 상기 다른 사용자가 사용하는 지능 단말에 장착된 애플리케이션을 통하여 당해 다른 사용자가 주목하는 안면을 클릭한 후, 동영상 안면 추적기능을 작동하여 카메라(46)가 상기 다른 사용자가 주목하는 안면을 추적하게 하기 위한 것이다.
예를 든 장면: 밤 9시, 두두가 집에서 어린 친구들과 생일 파티를 열고 있다.
두두는 단말 설비에게 "쇼유뚜(小度), 오늘은 저의 생일이에요. 우리에게 생일 축하 송를 한곡 플레이해주세요."라고 말하면, 수신기(41)가 상기 음성을 수신한 후, 프로세서(42)는 음성 인식결과에 의거하여 두두가 입력한 음성의 의도가 멀티미디어정보(예컨대 오디오 정보 "생일 축하 송")를 플레이하는 요청임을 확정한다.
그리하여 프로세서(42)는 WiFi를 통하여 지능적으로 클라우드 서버로부터 생일 축하 곡을 검색해내어 로컬에 자동으로 다운로딩하고 플레이를 행할 것이며, 사용자에게 "그러죠. 바로 플레이를 시작하겠습니다."라고 처리 결과를 피드백한다.
플레이가 완성된 후에 수신기(41)는 두두의 엄마가 송신한 동영상 통화 요청을 수신한다. 그리하여 프로세서(42)는 두두에게 "동영상 통화 요청을 한 통 수신했어요. 어머님께서 두두와 동영상 통화를 행하기를 요청하시는데, 받아보실래요?"라고 알린다.
두두가 "바로 받으세요."라고 말하면, 수신기(41)가 두두가 입력한 이 음성을 수신한 후, 프로세서(42)가 두두가 입력한 이 음성의 의도가 통화를 받는 것임을 확정할 수 있다. 그리하여 프로세서(42)는 먼 타향에서 출장 중인 엄마가 사용하는 지능 단말에 장착된 App와 지능로봇의 고화질 동영상 카메라를 연결시켜 엄마를 두두, 어린이들과 위해 동영상 통화를 행하게 되고, 동영상 통화 과정에서 프로세서(42)는 자신의 카메라(46)가 자동적으로 말하는 자의 방위를 식별하고, 카메라(46)가 말하는 자를 향해 돌도록 제어할 수 있다. 카메라(46)가 회전하는 과정에서 지능적인 듀얼 카메라 렌즈가 전환되는 계산법은 카메라 화면 안정을 보장할 수 있어 흔들림이 발생하지 않는다. 엄마는 사용하는 지능 단말에 장착된 App를 통하여 동영상에서의 안면을 클릭하여 동영상 안면 추적 기능을 작동시켜 카메라(46)가 줄곧 엄마가 주목하고 싶어하는 안면을 추적하게 할 수 있다.
바꾸어 말하자면, 본 실시예가 제공하는 단말 설비는 수시로 식구와 연락하는 것을 실현할 수 있고 참신한 지능 인터랙션 방식을 구비하여 상기 단말 설비는 식구간의 소통, 돕기, 알림의 다리로 될 수 있다.
본 실시예의 다른 한가지 실현 방식에서, 상기 단말 설비는 센서(48)를 더 포함할 수 있다. 센서(48)가 획득한 환경 센서 신호는 처한 환경의 환경정보를 가리키기 위한 것이다.
프로세서(42)는 또 상기 환경 정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때 위험 경보를 행하고, 위험을 처리하는 방식을 출력하며, 및 카메라를 켜서 촬영을 행하기 위한 것이다. 여기서, 상기 조기 경보 역치는 상기 환경정보의 각 항의 지표에 대해 따로따로 설정할 수 있는바, 본 실시예는 조기 경보 역치의 크기에 대해 한정하지 않는다.
바꾸어 말하자면, 상기 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 단말 설비는 식구들을 상처 받지 않도록 보호할 수도 있다.
예를 든 장면: 센서(48)는 PM2.5 미립자 센서, 유독 가스 센서 및 온습도 센서 등 센서 중의 적어도 하나를 포함할 수 있다. 센서(48)가 획득한 환경 센서 신호는 처한 환경의 환경 정보를 가리키는데 사용됨으로써 수시로 주택 환경의 건강도를 감시할 수 있도록 하기 위한 것이다. 상기 환경 정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때, 예를 들어, 집에 유독 가스 누설(예컨대 가스 누설)이 발생했을 경우, 프로세서(42)는 바로 위험 경보를 울려 음성을 통하여 위험 경고를 행하고, 위험 처리 방식을 알리며, 위험한 경우를 식구들 휴대폰에 자동으로 송신하고, 경계 상태에 자동으로 진입하여 카메라를 켜 방 전체 촬영 기록을 행하게 된다.
나아가, 프로세서(42)는 또 상기 환경 정보에 포함되는 각 항의 지표 중 상태 전환 역치에 도달하는 지표가 존재할 때, 지능 주택 제어 플랫폼을 통하여 상기 상태 전환 역치에 도달한 지표에 대응되는 가전제품의 상태를 제어하기 위한 것으로 가전제품에 대한 관리를 실현할 수도 있다. 여기서, 상기 상태 전환 역치도 마찬가지로 상기 환경 정보의 각 항 지표에 대해 따로따로 설정할 수 있는바, 본 실시예는 조기 경보 역치의 크기에 대해 한정하지 않는다.
예를 든 장면: 센서(48)는 PM2.5 미립자 센서, 유독 가스 센서 및 온습도 센서 등 센서 중의 적어도 하나를 포함할 수 있다. 센서(48)가 획득한 환경 센서 신호는 처한 환경의 환경정보, 예를 들어 집안의 공기 질량 상황 및 온습도 상황 등을 가리키기 위한 것이다. 공기 질량이 나빠져 공기 질량의 상태 전환 역치에 도달했을 경우에 프로세서(42)는 블루투스 지능 주택 제어 플랫폼을 통하여 공기 청정기를 자동으로 켜고; 방안 온도가 너무 높거나 너무 낮아 온도의 상태 전환 역치에 도달 했을 경우에 프로세서(42)는 에어컨을 자동으로 작동하며; 집에 아무도 없지만 전등 끄는 것을 잊어버려 전등의 상태 전환 역치에 도달했을 경우에 프로세서(42)는 자동적으로 전등을 끄게 된다.
본 실시예의 또 한가지 실현 방식에서, 상기 사용자의 의도가 질문의 답을 획득하는 것이고, 프로세서(42)는 구체적으로 상기 사용자가 입력한 음성에 포함되는 질문에 대해 검색을 행하고, 상기 질문에 대응되는 답을 획득하고, 상기 답안을 상기 사용자에게 출력하기 위한 것이다. 여기서, 프로세서(42)가 상기 답안을 사용자에게 출력하는 것은 상기 답안 음성을 사용자에게 브로드캐스팅하는 것일 수 있고, 상기 답안을 텍스트의 형식으로 사용자에게 디스플레이하는 것일 수도 있다.
나아가, 프로세서(42)는 또 상기 답안을 사용자에게 출력한 후, 상기 사용자가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하고, 상기 추천정보를 사용자에게 출력하기 위한 것이다. 여기서, 프로세서(42)가 상기 추천정보를 사용자에게 출력하는 것은 프로세서(42)가 상기 추천정보 음성을 사용자에게 브로드캐스팅하는 것일 수 있고, 상기 추천정보를 텍스트의 형식으로 사용자에게 디스플레이하는 것일 수도 있다.
예를 든 장면: 학습 성장 단계에 처한 어린이들은 전 세계에 대해 항상 탐색하고 싶어하는 호기심으로 충만되어 어린이들은 늘 자신의 엄마아빠에게 "이게 뭐에요?" 또는 "이건 왜 그런거죠?"라는 질문을 하곤 한다. 본 실시예가 제공하는 단말 설비가 없을 경우에 가장들은 자신의 지식 방면의 원인으로 흔히 대답하지 못하거나, 난처하여 어쩌할 바를 모르며 답해 줄 수 없다고 하거나, 아니면 컴퓨터를 켜고 관련 검색을 행하게 되는데, 느리고 불편하다. 하지만 만약 상기 단말 설비의 동반이 있다면 어린이는 직접 자신의 여러가지 질문을 수시로 단말 설비에게 물어볼 수 있는바, "쇼유뚜(小度), 왜 잎은 모두 녹색이야?"라고 물으면, 수신기(41)가 어린이가 입력한 상기 음성을 수신한 후, 프로세서(42)가 상기 음성에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 어린이가 입력한 상기 음성의 의도가 질문의 답을 획득하는 것임을 확정하게 된다. 그리하여 프로세서(42)는 어린이가 입력한 음성 중에 포함되는 질문에 대해 즉시 클라우드 지능 검색을 행하고, 대량의 인터넷 정보에서 최적 결과를 선별해내어 어린이 에게 "잎이 녹색인 것은 엽록소가 존재하기 때문입니다. 엽록소는 식물세포의 엽록체에 존재하는 한가지 중요한 녹색 색소로서, 물, 공기 및 햇빛을 이용해 식물이 필요하는 영양분을 제작할 수 있습니다. 엽록소가 녹색이므로 식물의 잎도 녹색인 것입니다.?이란 답안 음성을 브로드캐스팅하게 된다.
어린이의 질문에 해답하고나서, 프로세서(42)는 또 어린이가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하여 상기 추천정보를 어린이에게 출력할 수 있는데, 구체적으로 프로세서(42)는 자동적으로 어린이가 제출한 상기 질문에 의거하여 확산적인 교육과 계발, 예를 들어 "엽록소에 대해 알고나서 두두는 왜 가을이 되면 잎이 시드는줄 아시나요?"......라고 확산적인 교육과 계발을 더 행할 수도 있다.
기타 교육장면, 예를 들어 어린이를 도와 글 익히게 하는것, 영어 단어를 배우게 하는것, 어린이에게 이야기 해주기 등등 여러가지가 더 있다.
어린이들은 3살 내지 5살 때 언어가 쾌속으로 발달하게 되고, 쉴새 없이 사람들과 대화를 하면서 성장해야 하는 과정에서, 지능로봇은 하루종일 쉬지 않고 어린이와 채팅할 수 있고, 어린이의 언어 시스템의 성장에 도움이 된다. 지능로봇의 동반의 존재함으로 하여 아동 교육이 참신한 새대로 진입하게 된다.
상기 단말 설비에서, 수신기(41)가 다모드의 입력 신호를 수신한 후, 프로세서(42)가 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하고, 다음 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백함으로써 양호한 휴먼 컴퓨터 인터랙션기능을 실현할 수 있고, 기능성과 동반성이 다 뛰어난 지능 휴먼 컴퓨터 인터랙션을 실현할 수 있으며, 나아가 사용자 체험을 향상시킬 수 있다.
도 4가 도시하는 단말 설비의 구체적인 형태는 한대의 지능로봇일 수 있다. 도 5는 본 발명의 지능로봇의 일 실시예의 설명도로서, 당해 지능 로봇은 한대의 머리, 몸 3자유도(3-DOF)를 구비하는 대스크톱 로봇 제품(몸은 360도 수평으로 회전할 수 있고, 머리는 180도 수평으로 회전할 수 있는 동시에 머리는 플러스 마이너스 60도내에서 부앙할 수 있으며 보행 능력을 구비하거나 구비하지 않)일 수 있다. 도 5가 도시하는 바와 같이 지능로봇은 고품질 스테레오스피커, 카메라(고해상도를 가지며 안면 인식과 자동 초점 조절 등 기능을 실현함), 고해상도 디스플레이 스크린, 고속 중앙 처리 장치(Central Processing Unit; 아래 CPU로 약칭함)와 접촉식 충전 플러그, 및 풍부한 센서, 네트워크 모듈 집적을 갖추고 있다. 여기서, 지능로봇에 탑재된 센서는 습도 센서, 온도 센서, 미세 먼지 오염(PM2.5)센서 및 유독 가스 센서(예컨대 가스 센서)등을 포함할 수 있고, 네트워크 모듈은 적외선, WiFi 및 블루투스 등 모듈을 포함할 수 있다.
이 외에, 상기 지능로봇은 참신한 다모드 정보 인터랙션 방식(시각, 청각, 촉각, 후각 및 자연 음성 컴뮤니케이션 피드백 중의 적어도 하나)을 구비한다. 아울러 가정 장면을 위해 봉사하고 가정 사용자, 지능 설비, 정보 및 서비스를 연결하는 지능 다리로 되며, 그 주요 기능은 가정내부의 소통 연락, 감정 동반, 보호, 정보 제공 협조와 교육 등 수요를 만족시킬 수 있으며 참신한 다모드 정보 인터랙션 방식을 구비한다. 도 6은 본 발명의 지능로봇 스크린 인터랙션의 일 실시예의 설명도로서, 도 6이 도시하는 바와 같이, 지능로봇은 동영상 통화, 감정 컴뮤니케이션, 정보 전달 및 멀티미디어 브로드캐스팅(예컨대: 뮤직 브로드캐스팅)등 중의 적어도 하나인 다모드 정보의 인터랙션을 행할 수 있다.
게다가, 지능로봇은 세트로 된 App를 갖추고 있어 집을 나선 후의 원격 소통과 동영상 연락을 행할 수 있다.
본 실시예에서의 지능로봇은 오픈된 시스템 플랫폼을 갖추고 있어 지속적으로 끊임없이 자기 업그레이드를 행할 수 있다. 지능로봇은 오픈된 조작 시스템 플랫폼을 세트로 갖추고 있다. 오픈된 인터페이스 프로토콜을 통하여 각각의 내용 공급업자는 지능로봇을 위해 여러가지 내용과 애플리케이션을 개발할 수 있다. 소프트기능 방면에서, WiFi를 통하여 자동적으로 네트워크에 연결되어, 지능로봇이 끊임없이 자아 소프트웨어 업데이트 및 업그레이드를 행하게 되고, 클라우드 시스템도 24시간 멈추지 않고 인터넷에 있는 대량의 새로운 정보를 획득하게 되어 사용자가 더이상 번거로운 소프트웨어 업그레이드 조작을 행할 필요가 없게 되는데, 이 모든 업데이트와 업그레이드는 모두 지능로봇의 백그라운드에서 조용하게 완성된다.
해석해야 할 것은, 본 발명의 설명에서, 용어 "제 1", "제 2"등은 설명을 하기 위한 것 일 뿐, 상대적인 중요성을 가리키커나 암시하는 것으로 이해해서는 안된다. 이외에, 본 발명의 설명에서, 별도로 명확하게 구체적인 한정을 하지 않는 한, "복수개"의 의미는 두개 또는 두개 이상이다.
플로차트에서 또는 여기에서 기타 방식으로 설명되는 어떠한 과정 또는 방법 설명은 한개 또는 더 많은 수량의 특정 로직 기능이나 과정의 단계를 실현하기 위한 수행가능 명령의 코드의 모듈, 단락 또는 부분을 포함하는 것을 나타내는 것으로 이해할 수 있다. 그리고 본 발명의 바람직한 실시 방식의 범위는 별도의 실현을 포함하는바, 여기서 관련되는 기능은 제시되거나 토론된 순서대로가 아닌, 거의 동시의 방식 또는 상반되는 순서를 포함한 순서에 따라 수행될 수 있는바, 이는 본 발명의 실시예가 속하는 기술 분야의 통상의 지식을 가진 자들에 의해 이해될 수 있다.
본 발명의 각 부분은 하드웨어, 소프트웨어, 펌웨어 또는 그들의 조합으로 실현될 수 있다는 것으로 이해되어야 한다. 상기 실시 방식에서, 복수개의 단계나 방법은 메모리에 저장된 적합한 명령으로 시스템 실행을 실행하는 소프트웨어 또는 펌웨어로 실현할 수 있다. 예를 들어, 만약 하드웨어로 실현한다면 다른 한 실시 방식에서처럼 본 분야에서의 데이터 신호에 대해 로직 기능을 실현하기 위한 로직 게이트 회로를 구비한 이산 로직 회로, 적합한 조합 로직 게이트 회로를 구비한 전용 집적 회로, 프로그램 가능 게이트 어레이(Programmable Gate Array; PGA이라고 약칭함), 필드 프로그램 가능 게이트 어레이(랴딩 Programmable Gate Array; FPGA이라고 약침함)등 공지된 기술 중의 어느 하나 또는 그들의 조합으로 실현할 수 있다.
본 기술분야의 통상의 지식을 가진 자들은 상기 실시예의 방법이 지니는 전부 또는 일부 단계를 실현하는 것은, 프로그램으로 관련 하드웨어를 명령하는 것을 통하여 완성할 수 있고 상기의 프로그램은 컴퓨터 판독 가능 저장 매개물에 저장될 수 있고 당해 프로그램이 실행될 때 방법 실시예의 단계 중의 하나 또는 그 조합을 포함한다는 것을 이해할 수 있다.
이외에, 본 발명의 각 실시예에서의 각 기능 유닛은 하나의 처리 모듈에 집적될 수 있고 각 유닛의 단독적 물리 존재일 수도 있으며 둘 또는 둘 이상의 유닛이 한 모듈에 집적될 수도 있다. 상기 집적된 모듈은 하드웨어의 형식을 적용하여 실현할 수 있고 소프트웨어 기능 모듈의 형식을 적용하여 실현할 수도 있다. 상기 집적된 모듈이 만약 소프트웨어 기능 모듈의 형식으로 실현되고 독립된 제품으로 판매되거나 사용될 경우에 컴퓨터 판독 가능 저장 매개물에 저장될 수도 있다.
상기 저장 매개물은 읽기 전용 기억 장치, 디스크 또는 CD등 일 수 있다.
본 명세서의 설명에서 참조 용어 "일 실시예", "일부 실시예", "예시", "구체적 예시" 또는 "일부 예시"등의 설명은 당해 실시예 또는 예시를 결부하여 설명하는 구체적인 특징, 구조, 재료 또는 특점이 본 발명의 적어도 하나의 실시예 또는 예시에 포함된다는 것을 의미한다. 본 명세서에서 상기 용어에 대한 함축적인 표달이 반드시 동일한 실시예 또는 예시를 가리키는 것은 아니다. 그리고, 설명된 구체적 특징, 구조, 재료 또는 특점은 임의의 하나 또는 복수의 실시예 또는 예시에서 적합한 방식으로 결합될 수 있다.
비록 위에서 이미 본 발명의 실시예를 제시하고 설명하였지만 상기 실시예는 예시적인 것 일 뿐, 본 발명에 대한 한정으로 이해해서는 안된다는 것을 이해할 수 있다. 본 기술 분야의 통상의 지식을 가진 자들은 본 발명의 범위내에서 본 발명의 범위내에서 상기 실시예에 대해 변화, 수정, 대체와 변형을 행할 수 있다.

Claims (51)

  1. 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법으로서,
    다모드의 입력 신호 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -를 수신하는 단계;
    상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계;
    상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계,
    를 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  2. 제1항에 있어서,
    상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계는,
    상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 이미지 신호 및 센서 신호 중의 적어도 하나를 결부하여 상기 사용자의 의도를 확정하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  3. 제1항에 있어서,
    상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계는,
    상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 및 발음체 위치 추적을 통하여 디스플레이 스크린을 상기 사용자가 소재하는 방향으로 돌리고, 카메라 안면 인식 보조기능을 통하여 상기 사용자의 개인 정보를 인식하는 것;
    음성 인식의 결과, 상기 사용자의 개인 정보 및 저장한 상기 사용자의 선호 정보에 의거하여 상기 사용자의 의도를 확정하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계는,
    상기 사용자의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 상기 사용자에게 적합한 추천정보를 획득하고, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  5. 제4항에 있어서,
    상기 추천정보는 주소정보를 포함하고, 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계는,
    상기 사용자의 소재지로부터 상기 주소정보가 가리키는 지점까지의 교통경로를 획득하고, 상기 사용자의 외출습관에 의거하여 상기 사용자에게 적합한 외출방식을 획득하고, 상기 외출방식을 상기 사용자에게 추천해주는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  6. 제2항 또는 제3항에 있어서,
    상기 사용자의 의도가 시간정보를 포함하고, 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계는,
    상기 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고, 설정결과를 상기 사용자에게 피드백해주는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  7. 제6항에 있어서,
    상기 설정결과를 상기 사용자에게 피드백한 후,
    상기 사용자에게 알림을 행하고, 상기 사용자의 메모 정보를 기록하고, 상기 알람시계의 알림정보의 시각에 도달했을 때 알람시계의 알림을 행하고, 상기 사용자의 메모 정보를 플레이하는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  8. 제2항 또는 제3항에 있어서,
    상기 다모드의 입력 신호를 수신하기 전에,
    상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 수신하고, 상기 사용자에게 상기 멀티미디어정보를 플레이하는지 하지 않는지를 알리는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  9. 제8항에 있어서,
    상기 사용자의 의도가 상기 멀티미디어정보를 플레이하는 것을 동의하는 것이고;
    상기 사용자의 의도에 대해 처리를 행하는 것은 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이하는 것을 포함하는 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  10. 제9항에 있어서,
    상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이한 후,
    상기 사용자가 송신하는 음성을 수신하고, 상기 음성을 상기 사용자와 관련되는 다른 사용자에게 송신하는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  11. 제2항 또는 제3항에 있어서,
    상기 사용자의 의도가 멀티미디어정보를 플레이하는 것을 요청하는 것이고;
    상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계는,
    무선 네트워크을 통하여 클라우드 서버로부터 상기 사용자가 플레이하는 것을 요청하는 멀티미디어정보를 획득하고, 획득한 멀티미디어정보를 플레이하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  12. 제2항 또는 제3항에 있어서, 상기 다모드의 입력 신호를 수신하기 전에,
    상기 사용자와 관련되는 다른 사용자가 송신한 통화 요청을 수신하고, 상기 사용자가 통화를 받을지 받지 않을지를 알리는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  13. 제12항에 있어서,
    상기 사용자의 의도가 통화를 받는 것이고;
    상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계는,
    상기 사용자와 상기 사용자와 관련되는 다른 사용자를 위해 통화연결을 행하고, 통화 과정에서 카메라가 상기 사용자 중의 말하는 자의 방위를 식별하게 하고, 상기 카메라가 말하는 자를 향해 돌도록 제어하는 것;
    상기 사용자와 관련되는 다른 사용자가 상기 다른 사용자가 사용하는 지능단말에 장착된 애플리케이션을 통하여 상기 다른 사용자가 주목하는 안면을 클릭한 후, 동영상 안면추적 기능을 작동하여 상기 카메라가 상기 다른 사용자가 주목하는 안면을 추적하게 하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  14. 제1항에 있어서,
    상기 환경 센서 신호는 처한 환경의 환경정보를 가리키기 위한 것이고;
    상기 다모드의 입력 신호를 수신한 후,
    상기 환경 정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때, 위험 경보를 행하고, 위험을 처리하는 방식을 출력하고, 카메라를 켜서 촬영을 행하는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  15. 제14항에 있어서,
    상기 다모드의 입력 신호를 수신한 후,
    상기 환경정보에 포함되는 각 항의 지표 중 상태 전환 역치에 도달하는 지표가 존재할 때, 지능 주택 제어 플랫폼을 통하여 상기 상태 전환 역치에 도달한 지표에 대응되는 가전제품의 상태를 제어하는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  16. 제2항 또는 제3항에 있어서,
    상기 사용자의 의도가 질문의 답을 획득하는 것이고;
    상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계는,
    상기 사용자가 입력한 음성에 포함되는 질문에 대해 검색을 행하고, 상기 질문에 대응되는 답안을 획득하고, 상기 답안을 상기 사용자에게 출력하는 것,
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  17. 제16항에 있어서,
    상기 답안을 상기 사용자에게 출력한 후,
    상기 사용자가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하고,
    상기 추천정보를 상기 사용자에게 출력하는 것,
    을 더 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법.
  18. 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치로서,
    다모드의 입력 신호 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -를 수신하기 위한 수신 모듈;
    상기 수신 모듈이 수신한 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하기 위한 의도 판단 모듈;
    상기 의도 판단 모듈이 확정한 상기 사용자의 의도에 대해 처리를 행하고 처리 결과를 상기 사용자에게 피드백하기 위한 처리 모듈;
    을 포함하는 것을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  19. 제18항에 있어서,
    상기 의도 판단 모듈은 구체적으로 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 이미지 신호 및 센서 신호 중의 적어도 하나를 결부하여 상기 사용자의 의도를 확정하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  20. 제18항에 있어서,
    상기 의도 판단 모듈은 구체적으로 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 및 발음체 위치 추적을 통하여 디스플레이 스크린을 상기 사용자가 소재하는 방향으로 돌리고, 카메라 안면 인식 보조기능을 통하여 상기 사용자의 개인 정보를 인식하고; 음성 인식의 결과, 상기 사용자의 개인 정보 및 저장한 상기 사용자의 선호정보에 의거하여 상기 사용자의 의도를 확정하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  21. 제19항 또는 제20항에 있어서,
    상기 처리 모듈은 구체적으로 상기 사용자의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 상기 사용자에게 적합한 추천정보를 획득하고, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  22. 제21항에 있어서,
    상기 추천정보는 주소정보를 포함하고, 상기 처리 모듈은 구체적으로 상기 사용자의 소재지로부터 상기 주소정보가 가리키는 지점까지의 교통경로를 획득하고, 상기 사용자의 외출습관에 의거하여 상기 사용자에게 적합한 외출방식을 획득하며, 상기 외출방식을 상기 사용자에게 추천하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  23. 제19항 또는 제20항에 있어서,
    상기 사용자의 의도가 시간정보를 포함하고, 상기 처리 모듈은 구체적으로 상기 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고, 설정결과를 상기 사용자에게 피드백하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  24. 제23항에 있어서,
    알림 모듈 및 기록 모듈을 더 포함하는바,
    상기 알림 모듈은 상기 처리 모듈이 설정결과를 상기 사용자에게 피드백한 후, 상기 사용자에게 알림을 행하기 위한 것이고;
    상기 기록 모듈은 상기 사용자의 메모 정보를 기록하기 위한 것이며;
    상기 알림 모듈은 또 상기 알람시계의 알림정보의 시각에 도달했을 때 알람시계의 알림을 행하기 위한 것이고;
    상기 처리 모듈은 또 상기 기록 모듈이 기록한 사용자의 메모정보를 플레이하기 위한 것임,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  25. 제19항 또는 제20항에 있어서,
    알림 모듈을 더 포함하고;
    상기 수신 모듈은 또 다모드의 입력 신호를 수신하기 전에, 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 수신하기 위한 것이고;
    상기 알림 모듈은 또 상기 사용자에게 상기 멀티미디어정보를 플레이해야 하는지 하지 않는지를 알리기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  26. 제25 항에 있어서,
    상기 사용자의 의도가 상기 멀티미디어정보를 플레이하는 것을 동의하는 것이고;
    상기 처리 모듈은 구체적으로 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  27. 제26 항에 있어서,
    송신 모듈을 더 포함하고;
    상기 수신 모듈은 또 상기 처리 모듈이 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이한 후, 상기 사용자가 송신하는 음성을 수신하기 위한 것이고;
    상기 송신 모듈은 상기 수신 모듈이 수신한 음성을 상기 사용자와 관련되는 다른 사용자에게 송신하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  28. 제19항 또는 제20항에 있어서,
    상기 사용자의 의도가 멀티미디어정보를 플레이하는 것을 요청하는 것이고;
    상기 처리 모듈은 구체적으로 무선 네트워크을 통하여 클라우드 서버로부터 상기 사용자가 플레이할 것을 요청하는 멀티미디어정보를 획득하고, 획득한 멀티미디어정보를 플레이하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  29. 제19항 또는 제20항에 있어서,
    알림 모듈을 더 포함하고;
    상기 수신 모듈은 또 다모드의 입력 신호를 수신하기 전에 상기 사용자와 관련되는 다른 사용자가 송신한 통화 요청을 수신하기 위한 것이고;
    상기 알림 모듈은 상기 사용자에게 통화를 받을지 받지 않을지를 알리기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  30. 제29 항에 있어서,
    상기 사용자의 의도가 통화를 받는 것이고;
    상기 처리 모듈은 구체적으로 상기 사용자와 상기 사용자와 관련되는 다른 사용자를 위해 통화연결을 행하고, 통화 과정에서 카메라가 상기 사용자 중의 말하는 자의 방위를 식별하게 하고, 상기 카메라가 말하는 자를 향해 돌도록 제어하고; 상기 사용자와 관련되는 다른 사용자가 상기 다른 사용자가 사용하는 지능 단말에 장착된 애플리케이션을 통하여 상기 다른 사용자가 주목하는 안면을 클릭한 후 동영상 안면 추적기능을 작동하여 상기 카메라가 상기 다른 사용자가 주목하는 안면을 추적하도록 하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  31. 제18항에 있어서,
    상기 환경 센서 신호는 처한 환경의 환경정보를 가리키기 위한 것이고;
    상기 처리 모듈은 또 상기 환경정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때 위험 경보를 행하고, 위험을 처리하는 방식을 출력하고, 카메라를 켜서 촬영을 행하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  32. 제31항에 있어서,
    상기 처리 모듈은 또 상기 환경정보에 포함되는 각 항의 지표 중 상태 전환 역치에 도달하는 지표가 존재할 때 지능 주택 제어 플랫폼을 통하여 상기 상태 전환 역치에 도달한 지표에 대응되는 가전제품의 상태를 제어하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  33. 제19항 또는 제20항에 있어서,
    상기 사용자의 의도가 질문의 답을 획득하는 것이고;
    상기 처리 모듈은 구체적으로 상기 사용자가 입력한 음성에 포함되는 질문에 대해 검색을 행하고, 상기 질문에 대응되는 답안을 획득하고, 상기 답안을 상기 사용자에게 출력하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  34. 제33항에 있어서,
    상기 처리 모듈은 또 상기 답안을 상기 사용자에게 출력한 후, 상기 사용자가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하고, 상기 추천정보를 상기 사용자에게 출력하기 위한 것,
    을 특징으로 하는 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 장치.
  35. 단말 설비로서,
    수신기, 프로세서, 메모리, 회로판 및 전원 회로를 포함하고, 여기서 상기 회로판은 하우징으로 둘러싸인 공간 내부에 배치되고, 상기 프로세서와 상기 메모리는 회로판 상에 설치되어 있으며;
    상기 전원 회로는 상기 단말 설비의 각각의 회로 또는 부품에 전력을 공급하기 위한 것이고;
    상기 메모리는 수행 가능 프로그램 코드를 저장하기 위한 것이며;
    상기 수신기는 다모드의 입력 신호를 수신 하기 위한 것이고 - 상기 다모드의 입력 신호는 사용자가 입력한 음성 신호, 이미지 신호 및 환경 센서 신호 중의 적어도 하나를 포함함 -;
    상기 프로세서는 상기 메모리에 저장된 수행 가능 프로그램 코드를 판독하는 것을 통하여 수행 가능 프로그램 코드에 대응되는 프로그램을 수행하여, 상기 다모드의 입력 신호에 의거하여 상기 사용자의 의도를 확정하는 단계; 상기 사용자의 의도에 대해 처리를 행하고, 처리 결과를 상기 사용자에게 피드백하는 단계를 수행하기 위한 것임,
    을 특징으로 하는 단말 설비.
  36. 제35항에 있어서,
    상기 프로세서는 구체적으로 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 음성 인식의 결과에 의거하여 이미지 신호 및 센서 신호 중의 적어도 하나를 결부하여 상기 사용자의 의도를 확정하기 위한 것,
    을 특징으로 하는 단말 설비.
  37. 제35 항에 있어서,
    카메라를 더 포함하고;
    상기 프로세서는 구체적으로 상기 사용자가 입력한 음성 신호에 대해 음성 인식을 행하고, 및 발음체 위치 추적을 통하여 디스플레이 스크린을 상기 사용자가 소재하는 방향으로 돌리고, 상기 카메라 안면 인식 보조기능을 통하여 상기 사용자의 개인 정보를 인식하고; 음성 인식의 결과, 상기 사용자의 개인 정보 및 저장한 상기 사용자의 선호정보에 의거하여 상기 사용자의 의도를 확정하기 위한 것,
    을 특징으로 하는 단말 설비.
  38. 제36항 또는 제37항에 있어서,
    상기 프로세서는 구체적으로 상기 사용자의 의도에 의거하여 클라우드 데이터 베이스에서 개성화된 데이터 매칭을 행하여 상기 사용자에게 적합한 추천정보를 획득하고, 상기 사용자에게 적합한 추천정보를 상기 사용자에게 출력하기 위한 것,
    을 특징으로 하는 단말 설비.
  39. 제38 항에 있어서,
    상기 추천 정보는 주소정보를 포함하고, 상기 프로세서는 구체적으로 상기 사용자 소재지로부터 상기 주소정보가 가리키는 지점까지의 교통 경로를 획득하고, 상기 사용자의 외출습관에 의거하여 상기 사용자에게 적합한 외출방식을 획득하며, 상기 외출방식을 상기 사용자에게 추천하기 위한 것,
    을 특징으로 하는 단말 설비.
  40. 제36 항 또는 제37항에 있어서,
    상기 사용자의 의도가 시간정보를 포함하고, 상기 프로세서는 구체적으로 상기 사용자의 의도 중의 시간정보에 의거하여 알람시계의 알림정보를 설정하고, 설정결과를 상기 사용자에게 피드백하기 위한 것,
    을 특징으로 하는 단말 설비.
  41. 제40항에 있어서,
    상기 프로세서는 설정결과를 상기 사용자에게 피드백한 후, 상기 사용자에게 알림을 행하고, 상기 사용자의 메모 정보를 기록하며, 상기 알람시계의 알림정보의 시각에 도달했을 때 알람시계의 알림을 행하고, 상기 사용자의 메모 정보를 플레이하기 위한 것,
    을 특징으로 하는 단말 설비.
  42. 제36 항 또는 제37항에 있어서,
    상기 수신기는 또 다모드의 입력 신호를 수신하기 전에 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 수신하기 위한 것이고;
    상기 프로세서는 또 상기 사용자에게 상기 멀티미디어정보를 플레이해야 하는지 하지 않는지 를 알리기 위한 것,
    을 특징으로 하는 단말 설비.
  43. 제42항에 있어서,
    상기 사용자의 의도가 상기 멀티미디어정보를 플레이하는 것을 동의하는 것이고;
    상기 프로세서는 구체적으로 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이하기 위한 것,
    을 특징으로 하는 단말 설비.
  44. 제43항에 있어서,
    송신기를 더 포함하고;
    상기 수신기는 또 상기 프로세서가 상기 사용자와 관련되는 다른 사용자가 송신하는 멀티미디어정보를 플레이한 후에 상기 사용자가 송신하는 음성을 수신하기 위한 것이고;
    상기 송신기는 상기 음성을 상기 사용자와 관련되는 다른 사용자에게 송신하기 위한 것,
    을 특징으로 하는 단말 설비.
  45. 제36항 또는 제37항에 있어서,
    상기 사용자의 의도가 멀티미디어정보를 플레이하는 것을 요청하는 것이고;
    상기 프로세서는 구체적으로 무선 네트워크를 통하여 클라우드 서버로부터 상기 사용자 플레이할 것을 요청하는 멀티미디어정보를 획득하고, 획득한 멀티미디어정보를 플레이하기 위한 것,
    을 특징으로 하는 단말 설비.
  46. 제36항 또는 제37항에 있어서,
    상기 수신기는 또 다모드의 입력 신호를 수신하기 전에, 상기 사용자와 관련되는 다른 사용자가 송신한 통화 요청을 수신하기 위한 것이고;
    상기 프로세서는 또 상기 사용자에게 통화를 받을지 받지 않을지를 알리기 위한 것,
    을 특징으로 하는 단말 설비.
  47. 제46항에 있어서,
    카메라를 더 포함하고;
    상기 사용자의 의도가 통화를 받는 것인 것;
    상기 프로세서는 구체적으로 상기 사용자와 상기 사용자와 관련되는 다른 사용자를 위해 통화연결을 행하고, 통화 과정에서 카메라가 상기 사용자 중의 말하는 자의 방위를 식별하게 하고, 상기 카메라가 말하는 자를 향해 돌도록 제어하고; 상기 사용자와 관련되는 다른 사용자가 상기 다른 사용자가 사용하는 지능 단말에 장착된 애플리케이션을 통하여 상기 다른 사용자가 주목하는 안면을 클릭한 후, 동영상 안면 추적기능을 작동하여 상기 카메라가 상기 다른 사용자가 주목하는 안면을 추적하도록 하기 위한 것,
    을 특징으로 하는 단말 설비.
  48. 제35 항에 있어서,
    센서를 더 포함하고;
    상기 환경 센서 신호는 처한 환경의 환경정보를 가리키기 위한 것이고;
    상기 프로세서는 또 상기 환경정보에 포함되는 각 항의 지표 중 조기 경보 역치를 초과하는 지표가 존재할 때 위험 경보를 행하고, 위험을 처리하는 방식을 출력하고, 카메라를 켜서 촬영을 행하기 위한 것,
    을 특징으로 하는 단말 설비.
  49. 제48항에 있어서,
    상기 프로세서는 또 상기 환경정보에 포함되는 각 항의 지표 중 상태 전환 역치에 도달하는 지표가 존재할 때, 지능 주택 제어 플랫폼을 통하여 상기 상태 전환 역치에 도달한 지표에 대응되는 가전제품의 상태를 제어하기 위한 것,
    을 특징으로 하는 단말 설비.
  50. 제36항 또는 제37항에 있어서,
    상기 사용자의 의도가 질문의 답을 획득하는 것이고;
    상기 프로세서는 구체적으로 상기 사용자가 입력한 음성에 포함되는 질문에 대해 검색을 행하고, 상기 질문에 대응되는 답안을 획득하고, 상기 답안을 상기 사용자에게 출력하기 위한 것,
    을 특징으로 하는 단말 설비.
  51. 제50 항에 있어서,
    상기 프로세서는 또 상기 답안을 상기 사용자에게 출력한 후, 상기 사용자가 입력한 음성에 포함되는 질문과 관련되는 추천정보를 획득하고, 상기 추천정보를 상기 사용자에게 출력하기 위한 것,
    을 특징으로 하는 단말 설비.
KR1020150180869A 2015-06-24 2015-12-17 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비 KR20170000752A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510355757.7A CN104951077A (zh) 2015-06-24 2015-06-24 基于人工智能的人机交互方法、装置和终端设备
CN201510355757.7 2015-06-24

Publications (1)

Publication Number Publication Date
KR20170000752A true KR20170000752A (ko) 2017-01-03

Family

ID=54165774

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150180869A KR20170000752A (ko) 2015-06-24 2015-12-17 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비

Country Status (5)

Country Link
US (1) US20160379107A1 (ko)
EP (1) EP3109800A1 (ko)
JP (1) JP6625418B2 (ko)
KR (1) KR20170000752A (ko)
CN (1) CN104951077A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180125241A (ko) * 2017-05-15 2018-11-23 네이버 주식회사 사용자의 발화 위치에 따른 디바이스 제어
KR20180138301A (ko) 2017-06-21 2018-12-31 주식회사 고퀄 사용자와의 인터랙션이 가능한 기기를 위한 중계 장치 및 이를 이용한 중계 방법
KR20190024333A (ko) * 2017-08-31 2019-03-08 엘지전자 주식회사 전자 장치 및 그 제어 방법
KR20190134879A (ko) * 2018-05-03 2019-12-05 손영욱 클라우드 기반 인공지능 음성인식을 이용한 맞춤형 스마트팩토리 생산관리 통합 서비스 제공 방법
US11593678B2 (en) 2020-05-26 2023-02-28 Bank Of America Corporation Green artificial intelligence implementation
WO2023238150A1 (en) * 2022-06-07 2023-12-14 Krishna Kodey Bhavani An ai based device configured to electronically create and display desired realistic character

Families Citing this family (231)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
CN106570443A (zh) 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
CN105426436B (zh) * 2015-11-05 2019-10-15 百度在线网络技术(北京)有限公司 基于人工智能机器人的信息提供方法和装置
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
CN105446146B (zh) * 2015-11-19 2019-05-28 深圳创想未来机器人有限公司 基于语义分析的智能终端控制方法、系统及智能终端
CN105487663B (zh) * 2015-11-30 2018-09-11 北京光年无限科技有限公司 一种面向智能机器人的意图识别方法和系统
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
CN105425970B (zh) * 2015-12-29 2019-02-26 深圳微服机器人科技有限公司 一种人机互动的方法、装置及机器人
CN105446156B (zh) * 2015-12-30 2018-09-07 百度在线网络技术(北京)有限公司 基于人工智能的家用电器的控制方法、装置和系统
CN106972990B (zh) * 2016-01-14 2020-06-02 芋头科技(杭州)有限公司 基于声纹识别的智能家居设备
CN105739688A (zh) * 2016-01-21 2016-07-06 北京光年无限科技有限公司 一种基于情感体系的人机交互方法、装置和交互系统
CN108475404B (zh) * 2016-01-25 2023-02-10 索尼公司 通信系统和通信控制方法
CN105740948B (zh) * 2016-02-04 2019-05-21 北京光年无限科技有限公司 一种面向智能机器人的交互方法及装置
WO2017145929A1 (ja) * 2016-02-25 2017-08-31 シャープ株式会社 姿勢制御装置、ロボット及び姿勢制御方法
CN105844329A (zh) * 2016-03-18 2016-08-10 北京光年无限科技有限公司 面向智能机器人的思维数据处理方法及系统
CN105843382B (zh) * 2016-03-18 2018-10-26 北京光年无限科技有限公司 一种人机交互方法及装置
KR102537543B1 (ko) 2016-03-24 2023-05-26 삼성전자주식회사 지능형 전자 장치 및 그 동작 방법
CN105868827B (zh) * 2016-03-25 2019-01-22 北京光年无限科技有限公司 一种智能机器人多模态交互方法和智能机器人
CN105893771A (zh) * 2016-04-15 2016-08-24 北京搜狗科技发展有限公司 一种信息服务方法和装置、一种用于信息服务的装置
CN106411834A (zh) * 2016-04-18 2017-02-15 乐视控股(北京)有限公司 基于陪伴设备的会话方法、设备及系统
CN105894405A (zh) * 2016-04-25 2016-08-24 百度在线网络技术(北京)有限公司 基于人工智能的点餐交互系统和方法
CN105957525A (zh) * 2016-04-26 2016-09-21 珠海市魅族科技有限公司 一种语音助手的交互方法以及用户设备
CN105898487B (zh) * 2016-04-28 2019-02-19 北京光年无限科技有限公司 一种面向智能机器人的交互方法和装置
CN105912128B (zh) * 2016-04-29 2019-05-24 北京光年无限科技有限公司 面向智能机器人的多模态交互数据处理方法及装置
KR101904453B1 (ko) * 2016-05-25 2018-10-04 김선필 인공 지능 투명 디스플레이의 동작 방법 및 인공 지능 투명 디스플레이
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
CN107490971B (zh) * 2016-06-09 2019-06-11 苹果公司 家庭环境中的智能自动化助理
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
CN106157949B (zh) * 2016-06-14 2019-11-15 上海师范大学 一种模块化机器人语音识别算法及其语音识别模块
CN106663160B (zh) * 2016-06-28 2019-10-29 苏州狗尾草智能科技有限公司 一种技能包的搜索与定位方法、系统及机器人
CN106003047B (zh) * 2016-06-28 2019-01-22 北京光年无限科技有限公司 一种面向智能机器人的危险预警方法和装置
WO2018000267A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
WO2018000268A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
WO2018000266A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
WO2018000260A1 (zh) * 2016-06-29 2018-01-04 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
CN106078743B (zh) * 2016-07-05 2019-03-01 北京光年无限科技有限公司 智能机器人,应用于智能机器人的操作系统及应用商店
WO2018006375A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种虚拟机器人的交互方法、系统及机器人
WO2018006372A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种基于意图识别控制家电的方法、系统及机器人
CN106471444A (zh) * 2016-07-07 2017-03-01 深圳狗尾草智能科技有限公司 一种虚拟3d机器人的交互方法、系统及机器人
CN106203050A (zh) * 2016-07-22 2016-12-07 北京百度网讯科技有限公司 智能机器人的交互方法及装置
CN106250533B (zh) * 2016-08-05 2020-06-02 北京光年无限科技有限公司 一种面向智能机器人的富媒体播放数据处理方法和装置
CN106239506B (zh) * 2016-08-11 2018-08-21 北京光年无限科技有限公司 智能机器人的多模态输入数据处理方法及机器人操作系统
CN107734213A (zh) * 2016-08-11 2018-02-23 漳州立达信光电子科技有限公司 智能家用电子装置与系统
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
GB2553840B (en) 2016-09-16 2022-02-16 Emotech Ltd Robots, methods, computer programs and computer-readable media
CN106331841B (zh) * 2016-09-19 2019-09-17 海信集团有限公司 网速信息指示方法及装置
US10510088B2 (en) 2016-10-07 2019-12-17 Bank Of America Corporation Leveraging an artificial intelligence engine to generate customer-specific user experiences based on real-time analysis of customer responses to recommendations
US10476974B2 (en) 2016-10-07 2019-11-12 Bank Of America Corporation System for automatically establishing operative communication channel with third party computing systems for subscription regulation
US10614517B2 (en) 2016-10-07 2020-04-07 Bank Of America Corporation System for generating user experience for improving efficiencies in computing network functionality by specializing and minimizing icon and alert usage
US10621558B2 (en) 2016-10-07 2020-04-14 Bank Of America Corporation System for automatically establishing an operative communication channel to transmit instructions for canceling duplicate interactions with third party systems
US10460383B2 (en) 2016-10-07 2019-10-29 Bank Of America Corporation System for transmission and use of aggregated metrics indicative of future customer circumstances
TW201814554A (zh) * 2016-10-12 2018-04-16 香港商阿里巴巴集團服務有限公司 搜索方法、裝置、終端設備和操作系統
US10650055B2 (en) * 2016-10-13 2020-05-12 Viesoft, Inc. Data processing for continuous monitoring of sound data and advanced life arc presentation analysis
CN106426203A (zh) * 2016-11-02 2017-02-22 旗瀚科技有限公司 一种主动触发机器人交流的系统及方法
CN106774837A (zh) * 2016-11-23 2017-05-31 河池学院 一种智能机器人的人机交互方法
CN106598241A (zh) * 2016-12-06 2017-04-26 北京光年无限科技有限公司 一种用于智能机器人的交互数据处理方法及装置
TWI656523B (zh) * 2016-12-16 2019-04-11 群邁通訊股份有限公司 語音控制裝置、系統及控制方法
KR101962151B1 (ko) * 2017-01-02 2019-03-27 엘지전자 주식회사 커뮤니케이션 로봇
KR101961376B1 (ko) * 2017-01-02 2019-03-22 엘지전자 주식회사 커뮤니케이션 로봇
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN106737750A (zh) * 2017-01-13 2017-05-31 合肥优智领英智能科技有限公司 一种人机交互式智能机器人
JP2018126810A (ja) * 2017-02-06 2018-08-16 川崎重工業株式会社 ロボットシステム及びロボット対話方法
KR20180096078A (ko) * 2017-02-20 2018-08-29 엘지전자 주식회사 모듈형 가정용 로봇
JP6751536B2 (ja) * 2017-03-08 2020-09-09 パナソニック株式会社 装置、ロボット、方法、及びプログラム
CN107122040A (zh) * 2017-03-16 2017-09-01 杭州德宝威智能科技有限公司 一种人工智能机器人与智能显示终端间的交互系统
CN107038220B (zh) * 2017-03-20 2020-12-18 北京光年无限科技有限公司 用于生成备忘录的方法、智能机器人及系统
CN107015781B (zh) * 2017-03-28 2021-02-19 联想(北京)有限公司 语音识别方法和系统
US11153234B2 (en) 2017-03-31 2021-10-19 Microsoft Technology Licensing, Llc Providing new recommendation in automated chatting
CN106990782A (zh) * 2017-04-13 2017-07-28 合肥工业大学 一种移动式智能家居控制中心
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
CN107331390A (zh) * 2017-05-27 2017-11-07 芜湖星途机器人科技有限公司 机器人语音识别召唤者的主动跟随系统
CN107065815A (zh) * 2017-06-16 2017-08-18 深圳市新太阳数码有限公司 一种老年人情感智能控制系统
KR102060775B1 (ko) * 2017-06-27 2019-12-30 삼성전자주식회사 음성 입력에 대응하는 동작을 수행하는 전자 장치
CN109202922B (zh) * 2017-07-03 2021-01-22 北京光年无限科技有限公司 用于机器人的基于情感的人机交互方法及装置
CN107423950B (zh) * 2017-07-07 2021-07-23 北京小米移动软件有限公司 闹钟设置方法和装置
CN107562850A (zh) * 2017-08-28 2018-01-09 百度在线网络技术(北京)有限公司 音乐推荐方法、装置、设备及存储介质
CN108304434B (zh) * 2017-09-04 2021-11-05 腾讯科技(深圳)有限公司 信息反馈方法和终端设备
CN107553505A (zh) * 2017-10-13 2018-01-09 刘杜 自主移动讲解系统平台机器人及讲解方法
CN107770380B (zh) * 2017-10-25 2020-12-08 百度在线网络技术(北京)有限公司 信息处理方法和装置
US11113608B2 (en) 2017-10-30 2021-09-07 Accenture Global Solutions Limited Hybrid bot framework for enterprises
CN108040264B (zh) * 2017-11-07 2021-08-17 苏宁易购集团股份有限公司 一种用于电视节目选台的音箱语音控制方法及设备
CN107918653B (zh) * 2017-11-16 2022-02-22 百度在线网络技术(北京)有限公司 一种基于喜好反馈的智能播放方法和装置
CN107992543B (zh) * 2017-11-27 2020-11-17 上海智臻智能网络科技股份有限公司 问答交互方法和装置、计算机设备及计算机可读存储介质
CN108115691A (zh) * 2018-01-31 2018-06-05 塔米智能科技(北京)有限公司 一种机器人交互系统及方法
CN108393898A (zh) * 2018-02-28 2018-08-14 上海乐愚智能科技有限公司 一种智能陪伴方法、装置、机器人及存储介质
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
KR102635811B1 (ko) * 2018-03-19 2024-02-13 삼성전자 주식회사 사운드 데이터를 처리하는 시스템 및 시스템의 제어 방법
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
CN108429997A (zh) * 2018-03-28 2018-08-21 上海与德科技有限公司 一种信息播报方法、装置、存储介质及智能音箱
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
CN110609943A (zh) * 2018-05-28 2019-12-24 九阳股份有限公司 一种智能设备的主动交互方法及服务机器人
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US11188810B2 (en) 2018-06-26 2021-11-30 At&T Intellectual Property I, L.P. Integrated assistance platform
CN108920639B (zh) * 2018-07-02 2022-01-18 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
CN108762512A (zh) * 2018-08-17 2018-11-06 浙江核聚智能技术有限公司 人机交互装置、方法及系统
CN109117856B (zh) * 2018-08-23 2021-01-29 中国联合网络通信集团有限公司 基于智能边缘云的人及物追踪方法、装置及系统
CN109036565A (zh) * 2018-08-29 2018-12-18 上海常仁信息科技有限公司 一种基于机器人的智慧家庭生活管理系统
KR101992380B1 (ko) * 2018-09-12 2019-06-24 엘지전자 주식회사 커뮤니케이션 로봇
KR102090636B1 (ko) * 2018-09-14 2020-03-18 엘지전자 주식회사 로봇, 로봇 시스템 및 그 동작 방법
US10832676B2 (en) 2018-09-17 2020-11-10 International Business Machines Corporation Detecting and correcting user confusion by a voice response system
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
TWI725340B (zh) * 2018-09-28 2021-04-21 威鋒電子股份有限公司 可攜式通訊裝置的座體及其操作方法
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN109283851A (zh) * 2018-09-28 2019-01-29 广州智伴人工智能科技有限公司 一种基于机器人的智能家居系统
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
CN109445288B (zh) * 2018-09-28 2022-04-15 深圳慧安康科技有限公司 一种智慧家庭普及应用的实现方法
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN111105792A (zh) 2018-10-29 2020-05-05 华为技术有限公司 语音交互处理方法及装置
CN109040324A (zh) * 2018-10-30 2018-12-18 上海碧虎网络科技有限公司 车载数据服务推广方法、装置及计算机可读存储介质
CN109376228B (zh) * 2018-11-30 2021-04-16 北京猎户星空科技有限公司 一种信息推荐方法、装置、设备及介质
CN109686365B (zh) * 2018-12-26 2021-07-13 深圳供电局有限公司 一种语音识别方法和语音识别系统
CN109726330A (zh) * 2018-12-29 2019-05-07 北京金山安全软件有限公司 一种信息推荐方法及相关设备
EP3906508B1 (en) * 2018-12-31 2024-03-13 Intel Corporation Securing systems employing artificial intelligence
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
CN109933272A (zh) * 2019-01-31 2019-06-25 西南电子技术研究所(中国电子科技集团公司第十研究所) 多模态深度融合机载座舱人机交互方法
CN109948153A (zh) * 2019-03-07 2019-06-28 张博缘 一种涉及视频和音频多媒体信息处理的人机交流系统
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109979462A (zh) * 2019-03-21 2019-07-05 广东小天才科技有限公司 一种结合上下文语境获取意图的方法和系统
CN109949723A (zh) * 2019-03-27 2019-06-28 浪潮金融信息技术有限公司 一种通过智能语音对话进行产品推荐的装置及方法
CN109889643A (zh) * 2019-03-29 2019-06-14 广东小天才科技有限公司 一种语音留言播报方法和装置,及存储介质
CN110009943A (zh) * 2019-04-02 2019-07-12 徐顺球 一种便于多种模式调节的教育机器人
CN111805550A (zh) * 2019-04-11 2020-10-23 广东鼎义互联科技股份有限公司 用于行政服务大厅办事咨询、排队取号的机器人系统
DE102019205205B3 (de) * 2019-04-11 2020-09-03 BSH Hausgeräte GmbH Interaktionseinrichtung
CN110059250A (zh) * 2019-04-18 2019-07-26 广东小天才科技有限公司 信息推荐方法、装置、设备和存储介质
CN110091336A (zh) * 2019-04-19 2019-08-06 阳光学院 一种智能语音机器人
CN110000791A (zh) * 2019-04-24 2019-07-12 深圳市三宝创新智能有限公司 一种桌面机器人的运动控制装置及方法
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
CN111949773A (zh) * 2019-05-17 2020-11-17 华为技术有限公司 一种阅读设备、服务器以及数据处理的方法
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
TWI769383B (zh) * 2019-06-28 2022-07-01 國立臺北商業大學 具擬真回覆之通話系統及方法
KR20210024861A (ko) 2019-08-26 2021-03-08 삼성전자주식회사 대화 서비스를 제공하는 방법 및 전자 디바이스
CN110569806A (zh) * 2019-09-11 2019-12-13 上海软中信息系统咨询有限公司 一种人机交互系统
CN110599127A (zh) * 2019-09-12 2019-12-20 花豹科技有限公司 智能提醒方法及计算机设备
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN110865705B (zh) * 2019-10-24 2023-09-19 中国人民解放军军事科学院国防科技创新研究院 多模态融合的通讯方法、装置、头戴设备及存储介质
CN110909036A (zh) * 2019-11-28 2020-03-24 珠海格力电器股份有限公司 功能模块的推荐方法及装置
US10860059B1 (en) * 2020-01-02 2020-12-08 Dell Products, L.P. Systems and methods for training a robotic dock for video conferencing
KR102355713B1 (ko) * 2020-01-20 2022-01-28 주식회사 원더풀플랫폼 인공지능형 멀티미디어장치 제어 방법 및 시스템
CN110928521A (zh) * 2020-02-17 2020-03-27 恒信东方文化股份有限公司 一种智能语音交流方法及其交流系统
US11290834B2 (en) 2020-03-04 2022-03-29 Apple Inc. Determining head pose based on room reverberation
CN113556649B (zh) * 2020-04-23 2023-08-04 百度在线网络技术(北京)有限公司 智能音箱的播报控制方法和装置
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
CN111931036A (zh) * 2020-05-21 2020-11-13 广州极天信息技术股份有限公司 一种多模态融合交互系统、方法、智能机器人及存储介质
CN111767371B (zh) * 2020-06-28 2024-03-12 微医云(杭州)控股有限公司 一种智能问答方法、装置、设备及介质
CN111835923B (zh) * 2020-07-13 2021-10-19 南京硅基智能科技有限公司 一种基于人工智能的移动式语音交互对话系统
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN111918133A (zh) * 2020-07-27 2020-11-10 深圳创维-Rgb电子有限公司 辅导和监督学生写作业的方法、电视机和存储介质
CN112099630B (zh) * 2020-09-11 2024-04-05 济南大学 一种多模态意图逆向主动融合的人机交互方法
CN112308530A (zh) * 2020-11-09 2021-02-02 珠海格力电器股份有限公司 提示信息的生成方法和装置、存储介质、电子装置
CN114760331A (zh) * 2020-12-28 2022-07-15 深圳Tcl新技术有限公司 一种基于物联网的事件处理方法、系统、终端及存储介质
CN114762981B (zh) * 2020-12-30 2024-03-15 广州富港生活智能科技有限公司 交互方法及相关装置
CN112966193B (zh) * 2021-03-05 2023-07-25 北京百度网讯科技有限公司 出行意图推断方法、模型训练方法、相关装置及电子设备
US20230032760A1 (en) * 2021-08-02 2023-02-02 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot
WO2023017732A1 (ja) * 2021-08-10 2023-02-16 本田技研工業株式会社 読み聞かせ情報作成装置、読み聞かせロボット、読み聞かせ情報作成方法、プログラム
CN113645346B (zh) * 2021-08-11 2022-09-13 中国联合网络通信集团有限公司 功能触发方法、装置、服务器及计算机可读存储介质
CN113746833B (zh) * 2021-09-02 2023-06-16 上海商汤智能科技有限公司 通信方法及装置、电子设备和存储介质
CN114285930B (zh) * 2021-12-10 2024-02-23 杭州逗酷软件科技有限公司 交互方法、装置、电子设备以及存储介质
CN115545960B (zh) * 2022-12-01 2023-06-30 江苏联弘信科技发展有限公司 一种电子信息数据交互系统及方法
CN116208712A (zh) * 2023-05-04 2023-06-02 北京智齿众服技术咨询有限公司 一种提升用户意向的智能外呼方法、系统、设备及介质
CN117029863B (zh) * 2023-10-10 2023-12-22 中汽信息科技(天津)有限公司 一种反馈式交通路径规划方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1122038A4 (en) * 1998-06-23 2009-06-17 Sony Corp ROBOT AND INFORMATION PROCESSING SYSTEM
JP2002000574A (ja) * 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd 介護支援用ロボットおよび介護支援システム
JP2004214895A (ja) * 2002-12-27 2004-07-29 Toshiba Corp 通信補助装置
JP2004357915A (ja) * 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd センシング玩具
JP4600736B2 (ja) * 2004-07-22 2010-12-15 ソニー株式会社 ロボット制御装置および方法、記録媒体、並びにプログラム
JP2008233345A (ja) * 2007-03-19 2008-10-02 Toshiba Corp インタフェース装置及びインタフェース処理方法
CN102081403B (zh) * 2009-12-01 2012-12-19 张越峰 具有智能多媒体播放功能的自动引导车
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US8532921B1 (en) * 2012-02-27 2013-09-10 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for determining available providers
CA2904359A1 (en) * 2013-03-15 2014-09-25 JIBO, Inc. Apparatus and methods for providing a persistent companion device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180125241A (ko) * 2017-05-15 2018-11-23 네이버 주식회사 사용자의 발화 위치에 따른 디바이스 제어
KR20180138301A (ko) 2017-06-21 2018-12-31 주식회사 고퀄 사용자와의 인터랙션이 가능한 기기를 위한 중계 장치 및 이를 이용한 중계 방법
KR20190024333A (ko) * 2017-08-31 2019-03-08 엘지전자 주식회사 전자 장치 및 그 제어 방법
KR20190134879A (ko) * 2018-05-03 2019-12-05 손영욱 클라우드 기반 인공지능 음성인식을 이용한 맞춤형 스마트팩토리 생산관리 통합 서비스 제공 방법
US11593678B2 (en) 2020-05-26 2023-02-28 Bank Of America Corporation Green artificial intelligence implementation
WO2023238150A1 (en) * 2022-06-07 2023-12-14 Krishna Kodey Bhavani An ai based device configured to electronically create and display desired realistic character

Also Published As

Publication number Publication date
EP3109800A1 (en) 2016-12-28
CN104951077A (zh) 2015-09-30
JP2017010516A (ja) 2017-01-12
US20160379107A1 (en) 2016-12-29
JP6625418B2 (ja) 2019-12-25

Similar Documents

Publication Publication Date Title
KR20170000752A (ko) 인공 지능에 기초한 휴먼 컴퓨터 인터랙션 방법, 장치 및 단말 설비
US11363999B2 (en) Voice controlled assistance for monitoring adverse events of a user and/or coordinating emergency actions such as caregiver communication
US11179648B2 (en) Educational device
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
JP6174543B2 (ja) アプリケーションによる人形の制御方法及び対話型人形の操作方法、並びに人形の制御および操作のための装置
US20150230022A1 (en) Wearable electronic system
US20150172878A1 (en) Acoustic environments and awareness user interfaces for media devices
CN105409197A (zh) 用于提供持久伙伴装置的设备和方法
US11074491B2 (en) Emotionally intelligent companion device
CN109287511B (zh) 训练宠物控制设备的方法、装置和宠物用的可穿戴设备
CN105528074A (zh) 智能信息交互方法、装置及用户终端
US20130159400A1 (en) User device, server, and operating conditions setting system
CN105808716A (zh) 闹钟提醒方法、装置及终端
CN107027340A (zh) 可穿戴电子系统
CN111339881A (zh) 基于情绪识别的宝宝成长监护方法及系统
TW201501766A (zh) 操作互動式玩偶之方式及裝置
WO2020054361A1 (ja) 情報処理システム、情報処理方法、および記録媒体
TW202123189A (zh) 包含機器人之互動平台
CN105278477A (zh) 操作互动式玩偶的方式及装置
Orlov The Future of Voice First Technology and Older Adults
CN112643650A (zh) 基于机器人的儿童任务托管方法、装置、设备及存储介质
CN113676824A (zh) 一种助听器适应性训练方法及装置
JP2002359701A (ja) 携帯端末を用いた配信システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
AMND Amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2017101005014; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20171017

Effective date: 20190520