KR20090013842A - 정보 처리용 로봇 - Google Patents

정보 처리용 로봇 Download PDF

Info

Publication number
KR20090013842A
KR20090013842A KR1020097000257A KR20097000257A KR20090013842A KR 20090013842 A KR20090013842 A KR 20090013842A KR 1020097000257 A KR1020097000257 A KR 1020097000257A KR 20097000257 A KR20097000257 A KR 20097000257A KR 20090013842 A KR20090013842 A KR 20090013842A
Authority
KR
South Korea
Prior art keywords
information
speaker
processing
sensor
language
Prior art date
Application number
KR1020097000257A
Other languages
English (en)
Other versions
KR100906136B1 (ko
Inventor
아키히코 스기야마
기요시 야마바나
겐지 사토
Original Assignee
닛본 덴끼 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 닛본 덴끼 가부시끼가이샤 filed Critical 닛본 덴끼 가부시끼가이샤
Publication of KR20090013842A publication Critical patent/KR20090013842A/ko
Application granted granted Critical
Publication of KR100906136B1 publication Critical patent/KR100906136B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)
  • Toys (AREA)

Abstract

처리의 대상이 되는 정확한 처리 결과 이외도 재생할 수 있도록 한다. 정보 처리 수단(3)과, 정보 변경 수단(5)과, 정보 재생 수단(4)을 구비하고, 정보 처리 수단(3)에 의해 얻어진 처리 결과에 정보 변경 수단(5)이 변경을 부가하도록 동작한다. 정보 처리 수단(3)은 센서(2)에서 받은 정보를 처리하고, 처리 결과를 정보 재생 수단(4)으로 전달한다. 정보 변경 수단(5)은 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여, 정보 분석부와 변경 처리부를 사용하여 정보의 부가/삭제를 행한다. 정보 처리가 음성 인식, 번역, 음성 합성을 포함하는 통역인 경우에는, 센서(2)에서 받은 제 1 언어를, 정보 처리 수단(3)에서 제 2 언어로 번역하고, 정보 재생 수단(4)에서 재생한다.
정보 처리 수단, 정보 변경 수단, 정보 재생 수단, 센서

Description

정보 처리용 로봇{INFORMATION PROCESSING ROBOT}
본 발명은 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램, 및 로봇에 관한 것으로서, 특히 처리 결과를 전달할 때에 정보를 부가/삭제할 수 있는 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램, 및 로봇에 관한 것이다.
종래의 통역/번역을 목적으로 한 정보 처리 시스템의 예가, 특허문헌 1, 특허문헌 2, 특허문헌 3, 특허문헌 4, 특허문헌 5, 특허문헌 6, 및 특허문헌 7에 기재되어 있다.
특허문헌 1에 개시된 정보 처리 시스템은 음성 인식부와, 기계 번역부와, 음성 합성부, 표시부와, 대화 관리부로 구성되어 있다. 이와 같은 구성을 갖는 특허문헌 1에 기재된 정보 처리 시스템은 다음과 같이 동작한다.
음성 인식부에서 입력된 음성이 음성 인식되고, 그 음성 인식 결과가 기계 번역부에 공급된다. 기계 번역부에서는, 음성 인식 결과를 기계 번역한다. 기계 번역부는 기계 번역을 행하는데 적절한 구성 단위로 구성되어 있지 않을 경우에, 구성 단위를 변경하도록 음성 인식부에 지시한다. 그리고, 음성 합성부로부터 음 성 출력을 행한다.
종래의 통역/번역을 목적으로 한 정보 처리 시스템의 다른 예인 특허문헌 2, 특허문헌 3 및 특허문헌 4는 전부 특허문헌 1과 마찬가지로 음성 인식부, 기계 번역부, 음성 합성부를 갖고 있다. 특허문헌 1 내지 특허문헌 4에 개시된 종래의 정보 처리 시스템은 전부 통역ㆍ번역을 대상으로 하고 있고, 높은 정밀도로 자연스러운 통역ㆍ번역을 수행하는 것이 그 목적으로 되어 있다.
특허문헌 5의 종래 기술에 관한 설명에서는, 사용자로부터의 지령이나 외부 환경에 의거하여 정해진 동작을 행하는 로봇에 대한 기재가 있다. 또한, 외부 상태를 인식하는 수단과, 내부 상태를 토대로 정동(情動)을 발생시키는 수단을 구비하며, 정동의 변화를 대화에 반영시키는 로봇에 대한 기재가 있다.
특허문헌 6에는, 음성 인식부, 기계 번역부, 음성을 입력하는 입력부 등으로부터의 사용자의 감정을 나타내는 정보에 의거하여, 화상으로서 표시되는 캐릭터나 상태가 제어되는 로봇에 대한 기재가 있다. 또한, 특허문헌 7에는, 번역 기능, 외국어 회화 기능, 사용자로부터의 회답이 정답인지를 판정하는 학습 기능, 발음 평가 기능 등을 구비한 로봇에 대한 기재가 있다.
특허문헌 1 : 일본국 공개특허 2001-100784호 공보
특허문헌 2 : 일본국 공개특허 2001-100788호 공보
특허문헌 3 : 일본국 공개특허 2001-117921호 공보
특허문헌 4 : 일본국 공개특허 2001-117922호 공보
특허문헌 5 : 일본국 공개특허 2002-283261호 공보
특허문헌 6 : 일본국 공개특허 2001-117752호 공보
특허문헌 7 : 일본국 공개특허 2002-351305호 공보
이상, 특허문헌 1 내지 특허문헌 7을 참조하여 종래 기술에 관하여 설명하였다. 이들 기술을 적절하게 조합시킴으로써, 고정밀도로 통역/번역을 행하여 외부로부터 받아들인 신호나 내부 상태에 따라 다양한 동작을 행할 수 있다. 그러나, 종래 기술에서는 이하와 같은 문제점이 있다.
종래예의 문제점은 처리 대상이 되는 정보의 정확한 처리 결과 이외를 재생할 수 없다는 점이다. 그 이유는 정보 처리된 결과가 그대로 재생되도록 구성되어 있기 때문이다.
그래서, 본 발명은 처리 대상이 되는 정보의 정확한 처리 결과 이외도 재생할 수 있는 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램 및 로봇을 제공하는 것을 목적으로 한다.
본 발명에 따른 정보 처리 시스템은, 받은 정보가 어떤 정보인지를 분석하고, 분석 결과에 의거하여 상기 받은 정보에 부가할 부가 정보 또는 상기 받은 정보로부터 삭제할 삭제 정보를 결정하는 정보 분석부와, 상기 정보 분석 수단에 의해 결정된 부가 정보의 부가 또는 삭제 정보의 삭제를 행하는 변경 처리부와, 변경된 정보를 재생하는 정보 재생부를 구비한 것을 특징으로 한다.
본 발명에 따른 로봇은, 받은 정보가 어떤 정보인지를 분석하고, 분석 결과에 의거하여 상기 받은 정보에 부가할 부가 정보 또는 상기 받은 정보로부터 삭제 할 삭제 정보를 결정하는 정보 분석부와, 상기 정보 분석 수단에 의해 결정된 부가 정보의 부가 또는 삭제 정보의 삭제를 행하는 변경 처리부와, 변경된 정보를 재생하는 정보 재생부를 구비한 것을 특징으로 한다.
또한, 본 발명의 정보 처리 시스템은, 받은 정보가 어떤 정보인지를 분석하고, 분석 결과에 의거하여 상기 받은 정보에 부가할 부가 정보 또는 상기 받은 정보로부터 삭제할 삭제 정보를 결정하는 정보 분석부와, 상기 정보 분석 수단에 의해 결정된 부가 정보의 부가 또는 삭제 정보의 삭제를 행하는 변경 처리부와, 부가 정보의 부가 또는 삭제 정보의 삭제가 행해진 정보를 재생하는 정보 재생부와, 상기 정보 분석부에서 결정된 상기 부가 정보의 검색 지시를 송신하는 제 1 통신 수단을 구비한 정보 처리 장치와, 상기 제 1 통신 수단과 정보의 송수신을 행하는 제 2 통신 수단과, 상기 부가 정보로서 이용될 가능성이 있는 정보를 기억하는 기억부와, 상기 검색 지시에 의거하여 상기 부가 정보를 상기 기억부로부터 검색하는 검색부를 구비한 정보 저장 장치를 가지며, 상기 정보 저장 장치에서 검색된 상기 부가 정보를 상기 제 2 통신 수단 및 제 1 통신 수단을 통하여 상기 변경 처리부로 송신하는 것을 특징으로 한다.
본 발명의 정보 처리 방법은 받은 정보가 어떤 정보인지를 분석하고, 분석 결과에 의거하여 상기 받은 정보에 부가할 부가 정보 또는 상기 받은 정보로부터 삭제할 삭제 정보를 결정하는 제 1 스텝과, 상기 제 1 스텝에서 결정된 부가 정보의 부가 또는 삭제 정보의 삭제를 행하는 제 2 스텝을 구비한 것을 특징으로 한다.
또한, 본 발명의 정보 처리 방법은 받은 정보가 어떤 정보인지를 분석하고, 분석 결과에 의거하여 상기 받은 정보에 부가할 부가 정보를 결정하는 제 1 스텝과, 상기 부가 정보의 검색 지시를 송신하는 제 3 스텝과, 수신된 상기 부가 정보의 검색 지시에 의거하여 부가 정보로서 이용될 가능성이 있는 정보가 기억된 기억부로부터 상기 부가 정보를 검색하는 제 4 스텝과, 검색된 상기 부가 정보를 송신하는 제 5 스텝과, 상기 받은 정보에, 수신된 상기 부가 정보의 부가를 행하는 제 6 스텝과, 상기 부가 정보의 부가가 행해진 정보를 재생하는 제 7 스텝을 갖는 정보 처리 방법이다.
본 발명의 정보 처리용 프로그램은, 컴퓨터에, 받은 정보가 어떤 정보인지를 분석하고, 분석 결과에 의거하여 상기 받은 정보에 부가할 부가 정보 또는 상기 받은 정보로부터 삭제할 삭제 정보를 결정하는 제 1 처리와, 상기 제 1 처리에서의 정보 분석에 의해 결정된 부가 정보의 부가 또는 삭제 정보의 삭제를 행하는 제 2 처리를 실행시키기 위한 정보 처리용 프로그램이다.
본 발명에 의하면, 의사 소통을 원활하게 할 수 있다. 그 이유는 본래의 정보 처리 결과 이외에 부가적인 정보를 전달할 수 있기 때문이다. 또한, 본 발명에 의하면, 의사 소통을 효율적으로 할 수 있다. 그 이유는 본래의 정보 처리 결과로부터 불필요한 정보나 장황한 정보를 제외할 수 있기 때문이다. 또한, 본 발명에 의하면, 의사 소통에서의 품질을 높일 수 있다. 그 이유는 본래의 정보 처리 결과에 적절한 상세 정보를 부가할 수 있기 때문이다.
<제 1 실시예>
다음으로, 발명을 실시하기 위한 최선의 형태에 대해서 도면을 참조하여 상세하게 설명한다. 도 1을 참조하면, 본 발명의 제 1 실시예는 정보 입력부가 되는 센서(2)와, 정보 처리 수단(3)과, 정보 변경 수단(5)과, 정보 재생 수단(4)을 포함한다. 이들 수단은 각각 개략적으로 다음과 같이 동작한다.
정보 입력부가 되는 센서(2)는 외부로부터의 신호 등 처리 대상이 되는 정보를 받는다. 센서(2)는, 예를 들어 전파, 광(光), 소리, 온도(서모그래피), 접촉 자극 또는 그 조합에 의해 나타나는 모든 신호를 받아들이도록 구성될 수 있다. 이들 예로서는, 마이크로폰 등의 음향 트랜스듀서, CCD 카메라, 키보드를 들 수 있다. 정보 처리 수단(3)은 센서(2)에서 받은 정보를 처리하고, 처리 결과를 정보 재생 수단(4)으로 전달한다. 정보 처리가 음성 인식, 번역, 음성 합성을 포함하는 통역인 경우에는, 센서(2)가 되는 마이크로폰이나 키보드에서 받은 제 1 언어를 정보 처리 수단(3)에서 제 2 언어로 번역하고, 정보 변경 수단(5)에서, 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하여, 정보 재생 수단(4)에 의해 재생한다. 정보 재생 수단(4)이 취급하는 재생 신호는 소리, 화상(정지 화상, 동화상), 문자를 포함한다. 정보 재생 수단(4)으로서는 스피커, 액정 표시 장치 등의 디스플레이 디바이스(device) 등이 있다.
정보 처리 수단(3)이 통역을 행하도록 동작하는 실시예를 도 2에 나타낸다. 정보 처리 수단(3)은 제어부(31), 음성 처리부(32), 및 자동 통역부(33)를 구비한다. 또한, 음성 처리부(32)는 음성 인식부(321) 및 음성 합성부(322)를 포함한다. 또한, 음성 인식부의 상세한 동작에 관해서는, 예를 들어 「안도 아키오, "리얼 타임 음성 인식", 일본국 전자 정보 통신 학회편, 2003년 9월(문헌 A)」에, 음성 합성부의 상세한 동작에 관해서는, 예를 들어 「후루이 사다오키, "디지털 음성 처리", 일본국 도카이대학 출판회, 1985년 9월(문헌 B)」에 기재되어 있다.
제어부(31)는 시스템 전체의 동작을 제어하는 것으로서, 2개 언어에서의 번역 방향, 각종 정보의 흐름, 정보의 어드레스 등 전부를 관리ㆍ제어한다. 음성 인식부(321)는 입력된 음성을 속성(屬性)에 의거하여 인식한다. 음성 합성부(322)는 자동 통역부(33)로부터의 출력을 음성화한다. 자동 통역부(33)는 음성 인식부(321)로부터 송출되는 발화자(發話者)의 발화 내용을 다른 언어로 번역한다. 음성 인식부(321)로부터 송출되는 발화자의 발화 내용은 2개 언어 중 어느 것인가로 표현되고 있기 때문에, 자동 통역부(33)는 양방향 자동 통역 기능을 갖게 된다.
정보 처리 수단(3)이 다(多)언어 통역을 행하도록 동작하는 실시예를 도 3에 나타낸다. 정보 처리 수단(3)은 제어부(31), 음성 처리부(32), 및 자동 통역부(33)를 포함한다. 특히, 음성 처리부(32)와 자동 통역부(33)의 조합은 통역 대상이 되는 언어의 수(數) 이상을 구비하고 있다.
제어부(31)는 시스템 전체의 동작을 제어하는 것으로서, 다언어에서의 번역 방향, 각종 정보의 흐름, 정보의 어드레스, 적절한 음성 처리부(32)와 자동 통역부(33)의 조합 선택 등 전부를 관리ㆍ제어한다. 그 외의 동작은 도 2를 사용하여 설명한 바와 같다.
정보 변경 수단(5)이 정보를 부가하도록 동작하는 실시예를 도 4에 나타낸 다. 도 4에 나타낸 정보 변경 수단(5)은 변경 처리부(51)와, 부가 정보 생성부(52)와, 제어부(53)를 포함한다. 부가 정보 생성부(52)는 정보 분석부(521), 검색부(522), 및 기억 수단(523)을 포함한다.
변경 처리부(51)는 정보 처리 수단(3)으로부터 처리 결과를 받아, 실제로 정보를 부가하는 처리를 행한다. 부가 정보 생성부(52)는 변경 처리부(51)를 경유하여 정보 처리 수단(3)으로부터 처리 결과를 받아, 변경 처리부(51)가 부가할 정보를 생성한다. 제어부(53)는 부가 정보 생성부(52)에서의 부가 정보의 생성과 변경 처리부(51)에서의 부가를 제어한다. 정보 분석부(521)는 검색부(522)를 경유하여 받은 정보 처리 수단(3)의 처리 결과로서 공급된 정보를 분석하여, 어떤 정보를 부가할 것인지를 결정한다. 분석 스텝은 공급 정보의 분류, 부가 정보 카테고리 선택, 부가 정보 선택으로 구성된다.
공급 정보의 분류에서는, 공급 정보의 의미를 해석하여, 그것을 의문문, 설명문 등으로 분류한다. 예를 들어, 공급 정보에 「…인 것인가?」, 「…인지의 여부는 의문이다.」등의 문장이 있으면 의문문, 「그 점에 대해서 설명하면 …이다.」,「…라고 해석되어 있다.」 등의 문장이 있으면 설명문으로 해석한다.
부가 정보 카테고리 선택에서는, 의문문이나 설명문에 적합한 부가 정보 카테고리를 선택한다. 예를 들어, 의문문에 대해서는 회답을 촉구하는 표현을 부가할 수 있으며, 설명문에 관해서는 이해ㆍ전달을 확인하는 표현을 부가할 수 있다. 회답을 촉구하는 표현으로서는, 「…에 대하여 답해 주십시오.」 등이 있으며, 이해ㆍ전달을 확인하는 표현으로서는, 「알겠습니까?」, 「이해되셨습니까?」 등이 있다.
부가 정보 선택 스텝에서는 이들 카테고리에 속하는 정보로부터 하나 이상의 것을 선택하여 부가 정보로 한다. 이들 카테고리에 속하는 정보로서는, 복수의 것을 미리 기억 수단(523)에 기억시켜 둔다. 선택 방법으로서는, 정보 처리 결과와 기억된 부가 정보의 양쪽으로부터 키워드를 추출하고, 그들의 대응 관계에 의거하여 선택할 수 있다. 이를 위해서는, 기억 수단(523)에 기억시키는 부가 정보는 키워드마다 분류하여 기억시켜 두는 것이 좋다. 키워드를 사용하여 대응시킬 수 있는 부가 정보가 복수 존재할 때에는, 기억 수단(523)에 기억된 순서로 사용할 수도 있고, 역순으로 사용할 수도 있다. 또한, 과거에 사용한 것을 일정 시간 후에 다시 이용하는 것도 가능하다. 또한, 정보 처리 결과로부터 추출된 키워드에 대하여 랜덤(random)한 부가 정보를 부가할 수도 있다. 이 경우에는, 먼저 난수(亂數)를 발생시켜, 발생된 난수와 미리 대응이 정해져 있는 부가 정보를 선택한다. 랜덤한 단어는 예상치 못한 호의적인 반응을 야기하는 경우가 있어, 정보 부가에 의한 효과가 크다.
다른 분류로서는, 과거의 처리 결과와 부가 정보를 분석함으로써, 처리 결과가 주로 짧은 단어로 구성되는 템포가 빠른 교환인지, 긴 단어로 구성되는 비교적 형식적인 교환인지의 분류가 가능하다. 부가 정보 카테고리의 선택에 있어서, 전자(前者)의 경우에는, 템포가 빠른 교환을 방해하지 않는 짧은 단어인 구호나 장단 등을 부가 정보로서 사용할 수 있고, 후자(後者)의 경우에는 긴 단어를 부가 정보로서 사용할 수 있다. 구호, 장단의 예로서는 「파이팅, 대통령!(Way to go, man!)」, 「브라보(bravo)」등이 있다.
또한, 처리 결과를 정보 재생 장치로 전달하고 나서 다음 정보 처리 결과가 얻어질 때까지의 시간 간격을 평가함으로써, 상대의 이해도를 측정하는 기준으로서 사용할 수도 있다. 이 시간 간격 평가 과정에서, 상대로부터의 반응이 늦어지고 있음이 판명됐을 때에는, 부가 정보 카테고리의 선택에서, 예를 들어 회답을 촉구하는 표현이나 맞장구를 부가할 수 있다. 맞장구의 예로서는, 「옳지(Exactly.)」, 「그렇지!(You bet!/You got it!)」, 「네, 알겠습니다.(I see.)」, 「그렇네요. (I agree.)」 등이 있다.
또한, 통역 상대가 통역 결과를 듣고 느끼게 되는 기분에 대한 격려, 위로의 말을 부가할 수도 있다. 이 경우는, 상기 공급 정보의 분류 과정에서, 공급 정보에 대한 반응을 분석하고, 그 반응을 분류함으로써, 상기 부가 정보 카테고리의 선택에 이용한다. 예를 들어, 반응의 분류 결과가 슬픔이나 기쁨일 경우에는, 위로나 공감을 나타내는 부가 정보 카테고리를 선택한다.
검색부(522)는 정보 분석부(521)에서 결정한 부가 정보를 기억 수단(523)으로부터 검색한다. 기억 수단(523)은 부가 정보로서 이용될 가능성이 있는 정보를 미리 기억해 둔다.
검색부(522)가 검색한 부가 정보는 변경 처리부(51)로 공급된다. 기억 수단에 기억되는 정보의 예로서는, 통역ㆍ번역하고 있는 것을 명시적으로 나타내는 표현, 회답을 촉구하는 표현, 이해ㆍ전달을 확인하는 표현, 구호, 장단, 맞장구 등이 있다. 통역/번역하고 있는 것을 명시적으로 나타내는 표현으로서는 「…라고 말하 고 있습니다.」, 「…라고 들었는데, 어떻게 할까요?」, 「…라고 묻는 것 같은데요…」 등이 있다.
정보 재생 수단(4)이 디스플레이 디바이스나 로봇 등인 경우에는, 지금까지 설명해 온 언어 정보 이외의 정보를 부가할 수도 있다. 그러한 예로서는 동작, 색(色), 광 등을 들 수 있다. 디스플레이 디바이스에 에이전트(agent)가 표시되어 있는 경우나 로봇을 사용하는 경우에는, 에이전트나 로봇의 동작이 부가 정보가 된다. 예를 들어, 고개를 끄덕임, 고개를 갸웃거림, 머리를 흔듦, 점프 등 통상의 신체 동작에 더하여, 인간에게는 존재하지 않는 동작을 사용할 수도 있다. 이와 같은 특수한 동작의 예로서는 에이전트나 로봇에서의 몸의 신축(伸縮), 분리(分離)가 있고, 에이전트의 경우에는 에이전트 수의 증감도 가능하다. 동작을 표현하는 동작 수단으로서는 로봇의 경우는 팔, 손, 발, 몸통, 머리, 얼굴 등이 있다.
색을 부가 정보로서 사용하는 예로서는 에이전트나 로봇의 색 변화가 있다. 예를 들어, 에이전트의 표시색을 변화시키거나, 에이전트나 로봇의 다양한 위치에 내장된 발광체의 색을 변화시킬 수 있다. 이와 같은 발광체로서는 통상의 전구(電球) 이외에 LED를 이용하는 것도 가능하다. 복수의 발광체를 복잡하게 조합하여 제어함으로써, 에이전트나 로봇이 마치 감정을 갖고 있는 것처럼 표현할 수 있어, 본 발명의 정보 부가 효과가 증대된다.
마찬가지로, 광을 부가 정보로 하는 예로서는, 광의 점멸 패턴이나 밝기 제어가 있다. 복수의 발광체를 조합한 점멸 패턴이나 밝기 제어에 의해, 상기 색의 변화와 동일한 효과를 얻을 수 있다.
정보 변경 수단(5)이 정보를 부가하도록 동작하는 다른 실시예를 도 5에 나타낸다. 도 5에 나타낸 부가 정보 생성부(52)는 도 4의 기억 수단(523) 대신에 통신 수단(524)을 포함하고, 부가 정보 저장부(54)를 더 포함한다. 즉, 부가 정보 생성부(52)는 변경 처리부(51)가 부가한 정보를 기억 수단(523)으로부터 취출(取出)하는 대신에, 통신 수단(524)을 거쳐 부가 정보 저장부(54)로부터 취득한다. 부가 정보 저장부(54)는 통신 처리부(541), 검색부(542), 기억 수단(543), 제어부(544)를 포함한다.
통신 수단(541)은 통신 수단(524)과 짝을 이루어 통신하여, 검색부(522)가 검색해야 할 정보를 받는다. 통신 수단(541)이 받은 검색해야 할 정보는 검색부(542)로 전달된다. 검색부(542)는 기억 수단(543)으로부터 필요한 정보를 검색하여, 통신 수단(541)과 통신 수단(524)을 거쳐 검색부(522)로 전달한다. 이들 일련의 동작은 제어부(544)와 제어부(53)에 의해 제어된다.
기억 수단(543)은 부가 정보로서 이용될 가능성이 있는 정보를 미리 기억해 둔다. 통신 수단(541)과 통신 수단(524)이 검색에 관한 정보를 교환하는 방법/수단으로서는 유선 전송, 무선 LAN을 포함하는 무선 전송, 또한 인터넷을 경유한 IP 통신 등 모든 수단을 이용할 수 있다.
부가 정보 저장부(54)는 인터넷을 통해 접속되는 서버로 할 수도 있다. 예를 들어, 통역 결과가 내일의 날씨를 화제로 하고 있을 때, 인터넷을 경유하여 검색한 내일의 일기 예보를 통역 결과에 부가함으로써, 처리된 정보의 품질을 높일 수 있다.
정보 변경 수단(5)이 정보를 부가하도록 동작하는 실시예를 도 4 및 도 5를 사용하여 설명했지만, 정보 변경 수단(5)이 정보를 제거하도록 동작하는 실시예도 마찬가지로 구성할 수 있다. 먼저, 도 4 및 도 5에서, 부가 정보 생성부를 제거 정보 생성부로, 부가 정보 저장부를 제거 정보 저장부로 각각 치환한다. 정보 분석부는 공급된 정보를 분석하여, 어떤 정보를 부가할 것인지 대신에 어떤 정보를 제거할 것인지를 결정한다.
본 실시예의 정보 처리 시스템은 PDA(개인용 디지털 정보 처리 지원 장치), 퍼스널 컴퓨터, 휴대 전화 등 휴대성이 있는 것으로서 실현되며, 각 구성 요소가 하나의 단말로서 휴대성이 있는 형태로 통합되어, 모든 장소에서 원활한 의사 소통을 도모할 수 있다.
이상과 같이, 본 실시예에 의하면 정보 변경 수단(5)이 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하도록 구성되어 있기 때문에, 정확하게 처리된 결과에 감정 표현이나 상세 정보의 부가 가치를 부가하는 것이 가능해져 원활한 의사 소통을 도모할 수 있다.
정보 처리 수단이 통역/번역을 행하는 경우에는 통역ㆍ번역 결과에 따라 적절한 부가어(付加語)를 사용함으로써, 상대에게 온화한 기분을 생기(生起)시켜 원활한 의사 소통에 공헌한다. 또한, 통역ㆍ번역 결과를 적절히 요약하거나, 상세 정보를 부가함으로써, 의사 소통의 품질을 높일 수 있다.
<제 2 실시예>
본 실시예에서는 제 1 실시예의 구성을, 통신로(80)를 통하여 단말(21)과 서 버(40)로 기능 분리한 것이다.
도 6을 참조하면, 본 발명의 제 2 실시예는 단말(21)과 서버(40)와 통신로(80)를 포함한다. 또한, 단말(21)은 센서(2)와, 통신 수단(211)과, 정보 변경 수단(5)과, 정보 재생 수단(4)을 포함한다. 서버(40)는 정보 처리 수단(3)과, 정보 변경 수단(401)과, 통신 수단(402)을 포함한다. 센서(2), 정보 처리 수단(3), 정보 재생 수단(4)의 동작에 관해서는 이미 설명한 바와 같다. 정보 변경 수단(205, 401)은 정보 변경 수단(5)의 동작과 동일하다. 이들 수단은 각각 개략적으로 다음과 같이 동작한다.
센서(2)는 외부로부터의 신호 등 처리 대상이 되는 정보를 받는다. 통신 수단(211)은 센서(2)에서 받은 정보를 통신로(80)를 통하여 통신 수단(402)으로 전달한다. 통신 수단(402)은 통신 수단(211)을 통하여 전달된 센서(2)에서 받은 정보를 정보 처리 수단(3)으로 공급한다. 정보 처리 수단(3)은 센서(2)에서 받은 정보를 처리하여 정보 변경 수단(401)으로 전달한다. 정보 변경 수단(401)은 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하여 통신 수단(402)으로 전달한다.
통신 수단(402)은 다시 통신로(80)를 통하여 통신 수단(211)으로 정보 변경 처리된 처리 결과를 전달한다. 통신 수단(211)은 통신 수단(402)을 통하여 받은 처리 결과를 정보 변경 수단(205)으로 전달한다. 정보 변경 수단(205)은 통신 수단(402)을 통하여 받은 처리 결과에 대하여 정보의 부가/삭제를 행하여 정보 재생 수단(4)으로 전달한다.
또한, 이상 처리의 흐름에서는 정보 변경 수단(401)과 정보 변경 수단(205)이 전부 정보의 부가/삭제를 행하는 구성으로 되어 있지만, 어느 하나만이라도 된다. 예를 들어, 정보 변경 수단(401)에 도 4의 부가 정보 생성부(52)를 배치하고, 정보 변경 수단(205)에 부가 정보 생성부(52)에서 생성된 부가 정보를 부가하는 변경 처리부(51)를 배치할 수 있다.
단말(21)은 PDA(개인용 디지털 정보 처리 지원 장치), 퍼스널 컴퓨터, 휴대 전화 등 휴대성이 있는 것으로서 실현된다. 서버(40)의 실현에 제약은 없다. 통신로(80)로서는 유선 전송, 무선 LAN을 포함하는 무선 전송, 또한 인터넷을 경유한 IP 통신 등 모든 수단을 이용할 수 있다.
단말(21)과 서버(40)가 행하는 처리가 통역인 경우에는 센서(2), 정보 처리 수단(3), 및 정보 재생 수단(4) 사이에서, 음성 인식, 번역, 음성 합성의 처리를 분담할 수 있다. 예를 들어, 정보 처리 수단(3)에서 음성 인식과 번역을 실행하고, 정보 재생 수단(4) 중에서 음성 합성을 행할 수 있다. 이 때, 단말(21)로부터 통신로(80)를 거쳐 서버(40)로 전달되는 정보는 음성 정보이며, 서버로부터 단말(21)로 전달되는 정보는 통역 결과이다.
또한, 센서(2)에서 켑스트럼(cepstrum) 등 음성 정보의 특징량 추출을, 정보 처리 수단(3)에서 음성 인식, 번역, 음소(音素) 정보 생성을 실행하고, 정보 재생 수단(4) 중에서 음소 정보로부터 음성으로의 합성을 행할 수도 있다. 이 때, 단말(21)로부터 통신로(80)를 거쳐 서버(40)로 전달되는 정보는 음성의 특징량이며, 서버로부터 단말(21)로 전달되는 정보는 음소 정보이다.
이와 같이, 센서(2), 정보 처리 수단(3), 및 정보 재생 수단(4) 사이에서 부분 처리를 적절하게 분담시킬 수 있다.
통신 수단(211)과 통신 수단(402)이 정보를 교환하는 방법/수단으로서는 유선 전송, 무선 LAN을 포함하는 무선 전송, 또한 인터넷을 경유한 IP 통신 등 모든 수단을 이용할 수 있다.
또한, 도 6에서는 하나의 단말(21)과 서버(40)를 나타내고 있지만, 네트워크를 통하여 하나의 단말과 복수의 서버, 복수의 단말과 하나의 서버, 또는 복수의 단말과 복수의 서버를 접속시킬 수 있다. 네트워크로서는 유선 전송, 무선 LAN을 포함하는 무선 전송, 또한 인터넷을 경유한 IP 통신 등 모든 수단을 이용할 수 있다.
하나의 단말에 복수의 서버를 네트워크를 통하여 접속하는 경우, 하나의 단말로부터 통신 수단을 통하여 센서로부터의 정보를 복수의 서버로 보내어, 복수의 서버로부터 거의 동일한 처리 결과를 받을 수 있다. 단말에서는 복수의 서버로부터 받은 처리 결과를 비교하여, 더욱 적절한 방법을 선택할 수 있다. 또는, 복수의 서버로부터의 처리 결과를 적절하게 조합시켜, 더욱 적절한 결과를 생성할 수 있다. 서버의 수는 임의로 설정할 수 있으며, 예를 들어 단말 1대와 서버 10대를 사용한 실시예를 고려한다. 이 경우, 단말에는 10대의 서버에 의해 처리된 10종류의 유사한 결과가 얻어진다.
서버에서의 처리가 음성 인식이나 통역인 경우에는, 단말 내의 선택 조합 수단에서, 이들 10종류의 인식 결과나 통역 결과를 비교하여, 다수를 차지하는 것을 정보 변경 수단으로 전달할 결과로서 선택할 수 있다.
이상과 같이, 본 실시예에 의하면, 정보 변경 수단(401, 205)이 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하도록 구성되어 있기 때문에, 정확하게 처리된 결과에 감정 표현이나 상세 정보의 부가 가치를 부가하는 것이 가능해져 원활한 의사 소통을 도모할 수 있다. 또한, 본 실시예에 의하면, 연산량(演算量)이 많은 처리가 서버(40)에, 그 이외의 경미한 처리와 인터페이스가 단말(21)에 분산 배치되어 있기 때문에, 원활한 의사 소통을 도모하기 위한 처리를 더욱 효율적으로 실현할 수 있다.
또한, 본 실시예에 의하면, 1 또는 2 이상의 단말이 복수의 서버 양쪽에서 얻어진 처리 결과를 비교하여 더욱 적절한 방법을 선택하거나, 또는 적절하게 조합시켜 더욱 적절한 결과를 생성하기 때문에, 고품질이면서 원활한 의사 소통을 도모할 수 있다.
<제 3 실시예>
본 실시예에서는 정보 처리 수단(3)과 정보 변경 수단(5)의 기능을 소프트웨어에 의해 실현한다. 도 7을 참조하면, 프로그램 제어에 의해 동작하는 컴퓨터(중앙 처리 장치, 프로세서, 데이터 처리 장치)(900)와, 센서(2)와, 정보 재생 수단(4)을 포함한다. 컴퓨터(중앙 처리 장치, 프로세서, 데이터 처리 장치)(900)는 정보 처리 수단(3)과 정보 변경 수단(5)을 포함한다. 예를 들어, 컴퓨터(900)는 연산 처리를 행하는 CPU, 정보 처리 수단(3)과 정보 변경 수단(5)의 기능을 실행하는 프로그램이 기억된 기억 소자(예를 들어, ROM), 센서(2)로부터의 정보나 연산 처리 정보가 기억되는 기억 소자(예를 들어, RAM)로 구성된다. 이러한 컴퓨터는, 예를 들어 1칩 컴퓨터로서 구성된다. 이들 수단은 각각 개략적으로 다음과 같이 동작한다.
센서(2)는 외부로부터의 신호 등 처리 대상이 되는 정보를 받는다. 정보 처리 수단(3)은 센서(2)에서 받은 정보를 처리하고, 처리 결과를 정보 재생 수단(4)으로 전달한다. 정보 변경 수단(5)은 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행한다. 정보 재생 수단(4)은 정보 변경 수단(5)에 의해 정보가 부가/삭제된 처리 결과를 재생한다.
정보 처리 수단(3)과 정보 변경 수단(5)의 기능을 소프트웨어에 의해 실현하는 다른 형태는 도 8에 나타낸다. 도 8을 참조하면, 본 프로그램(정보 처리용 프로그램)은 컴퓨터(중앙 처리 장치, 프로세서, 데이터 처리 장치)(910)에서 판독되어, 컴퓨터(910)의 동작을 제어한다. 예를 들어, 컴퓨터(910)는 연산 처리를 행하는 CPU, 정보 처리 수단(3)과 정보 변경 수단(5)의 기능을 실행하는 프로그램이 기억된 기억 장치(예를 들어, 하드 디스크 장치 등의 디스크 장치), 센서(2)로부터의 정보나 연산 처리 정보가 기억되는 기억 소자(예를 들어, RAM)로 구성된다. 정보 처리 수단(3)과 정보 변경 수단(5)의 기능을 실행하는 프로그램은 적절하게 인스톨되어 소프트웨어의 갱신을 행할 수 있다. 컴퓨터(910)는 프로그램의 제어에 의해, 도 7을 사용하여 설명한 컴퓨터(900)에 의한 처리와 동일한 처리를 실행한다.
이상과 같이 본 실시예에 의하면, 정보 변경 수단(5)이 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하도록 구성되어 있기 때문 에, 정확하게 처리된 결과에 감정 표현이나 상세 정보의 부가 가치를 부가하는 것이 가능해져 원활한 의사 소통을 도모할 수 있다.
<제 4 실시예>
도 1 내지 도 5를 사용하여 설명한 정보 처리 시스템을 사용한 로봇에 대해서 설명한다. 도 9를 참조하면, 본 발명의 제 4 실시예는 로봇 본체(1)와, 센서(2)와, 정보 처리 수단(3)과, 정보 변경 수단(5)과, 정보 재생 수단(4)과, 전체 제어부(6)와, 동작 제어 수단(7)과, 방향 입력 수단(10)과, 송신 수단(11)을 포함한다. 또한, 전체 제어부(6)는 평가 수단(62)과 타이밍 생성 수단(63)을 포함한다. 또한, 동작 제어 수단(7)은 로봇 본체(1)를 회전시키거나, 상하로 이동시키거나 하는 모터(71) 및 기억 수단(72)을 포함한다. 로봇은 수족(手足)을 가진 인간에 가까운 것, 개나 고양이와 같은 동물에 가까운 것, 디스플레이 디바이스, 마이크로폰, 스피커로 이루어지는 기계에 가까운 것 등 다양한 형태가 있다. 이들 수단은 각각 개략적으로 다음과 같이 동작한다.
센서(2), 정보 처리 수단(3), 정보 재생 수단(4) 및 정보 변경 수단(5)의 동작에 관해서는 이미 설명한 바와 같다. 전체 제어부(6)는 평가 수단(62)을 사용하여, 정보 변경 수단(5)에서 얻어진 처리 결과를 평가하고, 평가 결과에 의거한 제어 신호를 동작 제어 수단(7)으로 전달한다. 또한, 전체 제어부(6)는 타이밍 생성 수단(63)을 사용하여 정보 변경 수단(5)에서 변경된 처리 결과와 센서(2)로부터의 출력에 의거하여, 동작 제어 수단(7)이 동작하는 타이밍을 생성한다. 또한, 전체 제어부(6)는 평가 수단(62)을 사용하여 정보 처리 수단(3)에서 얻어진 처리 결과를 평가하고, 평가 결과에 의거한 제어 신호를 동작 제어 수단(7)으로 전달할 수도 있다.
도 9에 나타낸 바와 같이, 평가 수단(62)이 정보 변경 수단(5)에서 얻어진 변경 결과를 평가하는 경우, 예를 들어 정보 변경 수단(5)이 통역 결과와 관계깊은 농담을 부가시키도록 동작했을 때, 평가 수단(62)이 평가하여, 그 내용에 대응한 제어 신호를 발생시킨다. 예를 들어, 동작 제어 수단(7)이 농담에 맞추어 로봇 본체(1)가 좌우로 회전하는 동작을 행하게 하는 신호를 발생시킬 수 있다. 또한, 복잡한 동작을 행하는 것이 가능한 경우에는, 정보 재생 수단(4)에서 재생되는 정보에 맞춘 제스추어 등의 동작을 행하도록 할 수도 있다.
한편, 평가 수단(62)이 정보 처리 수단(3)에서 얻어진 처리 결과를 평가하는 경우, 예를 들어 정보 처리 수단(3)이 통역을 행할 때에는, 통역 결과를 평가 수단(61)이 평가하여, 그 내용에 대응한 제어 신호를 발생시킨다. 예를 들어, 통역 결과에 「웃음」이 포함되어 있는 경우에는, 동작 제어 수단(7)이 좌우 또는 상하로 미세하게 방향을 변화시키는 신호를 발생시킬 수 있다. 이와 같은 동작은 실제로 인간이 웃을 때의 동작과 공통되는 것이 있어, 로봇에 적용함으로써 친근감 있는 성격을 표현할 수 있다.
또한, 평가 수단(62)이 정보 변경 수단(5)에서 얻어진 변경 결과를 평가하는 경우와, 정보 처리 수단(3)에서 얻어진 처리 결과를 평가하는 경우에서는, 동작 제어 수단(7)에 대한 제어 신호가 다른 것이 보통이다. 예를 들어, 통역 결과에 「웃음」이 포함되어 있어도, 정보 변경 수단(5)에 의해 웃음 부분이 제거되어 있으 면, 평가 회로(62)가 동작 제어 수단(7)이 좌우 또는 상하로 미세하게 방향을 변화시키는 신호를 발생시키지는 않는다.
동작 제어 수단(7)은 전체 제어부(6)에 포함되는 타이밍 생성 수단(63)으로부터 전달된 타이밍으로, 평가 수단(61)으로부터 전달되는 제어 신호를 받고, 실제로 동작을 제어하기 위해 모터의 움직임을 제어하기 위한 신호로 변환한 다음, 모터(71)로 전달한다. 모터(71)는 그와 같이 공급된 제어 신호에 따라 회전 동작이나 상하 이동 동작을 발생시킨다.
타이밍 생성 수단(63)은 모든 입력 정보를 사용하여 타이밍을 생성할 수 있다. 이러한 입력 정보로서 음향 정보, 화상 정보, 접촉 정보 등을 사용할 수 있다. 음향 정보로서는 음성의 강도(强度), 음성의 도래 방향, 언어의 종류, 단어 또는 그 조합, 호소어, 인명, 그 외에 개인에게 특유한 정보 등을 사용할 수 있다. 또한, 이들 변화에 관한 정보, 예를 들어 음성 강도의 변화, 언어의 변화 등도 사용할 수 있다. 이들 정보는 미리 기억 수단에 저장시켜 둘 수 있다. 동작 제어 수단(7)에서, 평가 수단(62)으로부터 전달되는 제어 신호가 정하는 동작을 행하는 타이밍이 문제시되지 않는 경우에는 타이밍 생성 수단은 반드시 설치하지 않아도 된다.
타이밍 생성 수단(63)은 본 실시예에서는 센서(2)로부터의 출력과 정보 변경 수단(5)으로부터의 출력에 의거하여 타이밍을 생성하고 있지만, 외부로부터의 전파, 광, 소리 등의 외부 자극을 센서로 검지하여 타이밍을 생성할 수도 있다. 이 경우 전파, 광, 소리 등의 외부 자극을 송신 수단으로서 외부에 설치하고, 이들 외 부 자극을 전파 수신기, 광전 변환 소자, 마이크로폰 등의 센서로 받아 타이밍을 생성할 수도 있다. 이러한 송신 수단으로서는 리모콘 제어 장치, PDA(Personal Digital Assistants), PC(Personal Computer), 휴대 전화기 등이 있다. 외부 자극을 검지하는 센서가 터치 센서인 경우에는 접촉 자극에 의해서도 타이밍 정보를 전달할 수 있다. 외부 자극을 검지하는 센서로서 키보드나 음성 인식 장치를 사용할 수도 있다. 그 때에는 키보드 등으로부터 입력된 정보의 의미, 인식 결과, 또는 입력이 발생한 타이밍 자체를, 입력해야 할 타이밍 정보로서 이용할 수 있다. 이러한 구성에 의하면, 외부로부터 입력된 임의의 타이밍에 따라 동작을 제어하도록 구성할 수 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다.
또한, 동작 제어 수단(7)은 모터를 복수 장비(裝備)하는 것도 가능하며, 그때 동작 제어 수단(7)은 다수의 축 방향을 중심으로 한 회전 운동을 조합시킨 복잡한 움직임을 실현할 수 있다. 모터 이외에도 동작 제어 수단(7)에서의 기계적 동작 제어의 구조를 복잡화함으로써, 더 복잡한 동작의 제어가 가능해지는 것은 명백하다.
또한, 동작 제어 수단(7)은 평가 수단(62)이 생성하는 제어 신호, 타이밍 생성 수단(63)이 생성하는 타이밍 정보에 더하여, 방향 입력 수단(10)으로부터 전달되는 정보도 사용하여 동작을 제어한다. 예로서, 평가 수단(62)에서 정보 변경 수단(5)의 출력에 포함되는 언어에 관한 정보를 검출하고, 이 언어에 관한 정보와 방향 입력 수단(10)으로부터 입력되는 그 언어를 듣게 되는 청취자의 방향 정보를 사용하여, 동작 제어 수단(7)이 청취자 쪽으로 향하도록 제어할 수 있다. 방향 입력 수단(10)은 화자(話者)와 청취자의 방향 정보를 받아, 이것에 대응한 제어 신호를 동작 제어 수단(7)으로 전달한다. 방향 입력 수단(10)에 대한 입력은 전파, 광, 소리 등에 의해 표시되지만, 방향 입력 수단(10)이 터치 센서이면, 접촉 자극 또는 그 조합에 의해서도 방향 정보를 입력할 수 있다. 방향 입력 수단(10)이 받는 방향에 관한 정보도 기억 수단(73)에 저장되어 있는 정보와 마찬가지로, 다언어 통역이나 복수의 화자/청취자가 존재하는 경우에는, 언어의 수나 화자ㆍ청취자 수에 대응하여 복수 방향으로 확장된다.
송신 수단(11)은 방향 입력 수단(10)이 받는 방향에 관한 정보를 발생시킨다. 송신 수단(11)과 방향 입력 수단(10)은 동일한 정보(자극)를 취급하도록 구성된다. 송신 수단(11)의 예로서는 리모콘 제어 장치, PDA, PC, 휴대전화 등을 사용할 수도 있다. 또한, 송신 수단(11)은 설치하지 않을 수도 있다.
마찬가지로, 평가 수단(62)에 대하여 정보 변경 수단(5)의 출력 대신에 정보 처리 수단(3)의 입력을 공급하고, 마찬가지로 언어에 관한 정보를 검출함으로써, 동작 제어 수단(7)이 화자 쪽을 향하도록 제어할 수 있다. 또한, 타이밍 생성 수단(63)에 의해 화자의 이야기 끝을 검출하면, 화자가 말하기를 끝내고 나서 청취자의 방향으로 향하도록 동작 제어 수단(7)이 제어할 수도 있다.
평가 수단(61)으로부터 공급되는 제어 신호와 동작 제어 수단(7)의 구체적인 동작의 관계는 미리 정해 둘 수 있다. 구체적인 동작으로는 동작의 내용 및 동작의 타이밍을 포함한다. 그 때에는, 구체적인 관계를 기억 수단(72)에 저장해 둔다. 동작 제어 수단(7)은 평가 수단(61)으로부터 제어 신호가 공급되면, 그 내용 을 기억 수단(72)의 내용을 참조하여, 모터(71)를 제어하는 신호로 변환한다.
동작 제어 수단(7)에서, 기억 수단(72)과는 별도로 통역되어야 할 제 1 언어를 발(發)하는 주체가 있는 방향과 통역 결과인 제 2 언어를 수취하는 주체가 있는 방향에 관한 정보를 저장하는 다른 기억 수단을 설치하여, 방향 입력 수단을 대신할 수도 있다. 이하, 제 1 언어를 발하는 주체를 화자, 제 2 언어를 수취하는 주체를 청취자로 기재하지만, 로봇 등의 무생물을 포함한다. 또한, 다언어 통역이나 복수의 화자/청취자가 존재하는 경우에는, 다른 기억 수단이 기억하는 방향에 관한 정보도 언어의 수나 화자/청취자의 수에 대응하여 복수 방향으로 확장된다.
동작 제어 수단(7)은 평가 수단(62)이 생성하는 제어 신호, 타이밍 생성 수단(63)이 생성하는 타이밍 정보에 더하여, 다른 기억 수단에 저장되어 있는 정보도 이용하여 동작을 제어한다. 예로서, 평가 수단(62)에서 정보 변경 수단(5)의 출력에 포함되는 언어에 관한 정보를 검출하여, 이 언어에 관한 정보와, 다른 기억 수단에 저장되어 있는 그 언어를 듣게 되는 청취자의 방향 정보를 사용하여, 동작 제어 수단(7)이 청취자 쪽으로 향하도록 제어할 수 있다.
마찬가지로, 평가 수단(62)에 대하여 정보 변경 수단(5)의 출력 대신에 정보 처리 수단(3)의 입력을 공급하고, 마찬가지로 언어에 관한 정보를 검출함으로써, 동작 제어 수단(7)이 화자 쪽으로 향하도록 제어할 수 있다. 또한, 타이밍 생성 수단(63)에 의해 화자의 이야기 끝을 검출하면, 화자가 말하기를 끝내고 나서 청취자의 방향으로 향하도록 동작 제어 수단(7)이 제어할 수도 있다.
동작 제어를 위한 방향 정보를 기억해 두도록 구성되어 있으면, 다양한 표현 을 통한 원활한 의사 소통을 도모할 수 있다.
이상과 같이, 본 실시예에 의하면 정보 변경 수단(5)이 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하도록 구성되어 있기 때문에, 정확하게 처리된 결과에 감정 표현이나 상세 정보의 부가 가치를 부가하는 것이 가능해져 원활한 의사 소통을 도모할 수 있다. 또한, 본 실시예에 의하면, 처리 결과나 변경 후의 정보에 따라 동작을 제어하도록 추가로 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다. 또한, 동작의 패턴을 기억해 두도록 구성되어 있기 때문에, 다양한 표현을 적은 연산량으로 실현할 수 있다.
또한, 본 실시예에 의하면, 입력 및 처리 결과가 얻어진 타이밍에 따라 동작을 제어하도록 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다. 또한, 임의의 방향 정보를, 외부로부터 입력할 수 있도록 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다. 또한, 본 실시예에 의하면, 방향 정보를 외부로부터 입력할 때에 특정 형식의 정보를 송신할 수 있도록 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다.
<제 5 실시예>
본 실시예는 로봇의 다른 구성예를 나타낸 것이다.
도 10을 참조하면, 본 발명의 제 5 실시예는 센서(2)와, 정보 처리 수단(3)과, 정보 변경 수단(5)과, 정보 재생 수단(4)과, 전체 제어부(6)와, 동작 제어 수 단(7)과, 센서(12)와, 방향 동정(同定) 수단(13)과, 송신 수단(14)과, 센서(15)를 포함한다. 또한, 전체 제어부(6)는 평가 수단(62)과, 타이밍 생성 수단(64)과, 분석 수단(66)을 포함한다. 또한, 동작 제어 수단(17)은 모터(71, 171)와, 차륜(18, 19)을 포함한다. 또한, 방향 동정 수단(13)은 선택 수단(131)과 동정 수단(132)과 반복 제어 수단(133)을 포함한다. 이들 수단은 각각 개략적으로 다음과 같이 동작한다.
센서(2), 정보 처리 수단(3), 정보 재생 수단(4), 정보 변경 수단(5), 평가 수단(62), 타이밍 생성 수단(63), 및 모터(71)의 동작에 관해서는 이미 설명한 바와 같다.
센서(12)는 화자와 청취자의 방향에 관한 정보를 받아 방향 동정 수단(13)으로 전달한다. 방향 동정 수단(13)은 센서(12)로부터 받은 정보를 사용하여 화자와 청취자의 방향을 동정하고, 이것에 대응한 제어 신호를 동작 제어 수단(7)으로 전달한다. 방향 동정 수단(13)이 동정하는 방향도, 다언어 통역이나 복수의 화자/청취자가 존재하는 경우에는, 언어의 수나 화자/청취자의 수에 대응하여 복수 방향으로 확장된다.
예를 들어, 센서(12)가 받는 화자와 청취자의 방향에 관한 정보가 음성 정보인 경우를 생각한다. 센서(12)는 복수의 음향 트랜스듀서로 한다. 음향 트랜스듀서의 대표적인 예는 마이크로폰이기 때문에, 이후 센서(12)가 복수의 마이크로폰이라고 가정하여 설명한다. 음향 신호를 사용한 신호 도래 방향의 동정은 복수 마이크로폰이 받는 신호의 위상차를 사용하여 행할 수 있는 것이 알려져 있다.
「오오가, 오오사키, 카네다, "음향 시스템과 디지털 처리", 일본국 전자 정보 통신 학회편, 1995년 9월(문헌 C)」에 기재되어 있는 복수의 마이크로폰이 직선상으로 배치되어 있을 때, 이들 마이크로폰을 연결하는 직선과 직각인 방향으로부터 도래한 신호에 대해서는 각 마이크로폰이 받는 신호에서 위상차는 없다. 한편, 마이크로폰을 연결하는 직선과 직각인 방향 이외로부터 도래한 신호는 복수의 마이크로폰이 받는 신호에 위상차를 발생시킨다. 이것은 각 마이크로폰에 도달하는 신호에 시간차가 있기 때문이다.
이 위상차, 즉 시간차는 음속(音速)과 마이크로폰의 간격과 신호 도래 방향이 마이크로폰을 연결하는 직선과 이루는 각(角)으로부터 한번에 정해진다. 따라서, 복수의 마이크로폰이 받은 신호의 위상차를 평가함으로써, 신호 도래 방향을 동정할 수 있다. 이것은 화자의 존재 방향을, 화자의 발화를 사용하여 동정할 수 있다는 것을 의미한다.
한편, 화자와 청취자의 관계는 통역 시나리오에서는 시간과 함께 교대를 반복한다. 따라서, 어떤 시각에서 화자의 방향을 동정할 수 있으면, 청취자의 방향도 청취자가 제 2 언어의 화자가 되었을 때에 동정할 수 있다.
또한, 센서(12)가 받는 화자와 청취자의 방향에 관한 정보가 화상 정보인 경우를 고려할 수도 있다. 이 경우, 센서(12)는 복수의 카메라로 한다. 복수 화상을 사용한 화자 방향의 동정은 인물 검출을 사용하여 행할 수 있는 것이 알려져 있다. 복수의 방향에 대응한 화상을 센서(12)를 이용하여 취득하고, 각각의 화상에 대하여 인물의 검출을 행한다. 특정 화상에 대하여 인물이 검출되었을 때는, 그 화상에 대응한 방향을, 화자 방향으로 한다.
일반적으로, 화상 정보만으로는 검출된 인물이 화자인지 청취자인지의 구별을 짓는 것이 곤란하다. 그래서, 음성 신호를 사용한 방향 검출을 행하거나, 화상으로부터 입술을 더 동정하여 그 움직임을 분석하고, 화자인 것을 확인할 필요가 있다. 인물 검출 식별의 상세(詳細)에 관해서는, 예를 들어 「일본국 특허공개 2002-56388호 공보(문헌 D)」에 기재되어 있다. 인물 검출 대신에 얼굴, 눈, 입술 등을 검출함으로써, 인식/동정의 단서로 할 수 있다.
이들 이외에도, 센서(12)는 전파, 광, 소리, 온도(서모그래피), 접촉 자극 또는 그 조합에 의해 나타나는 모든 신호를 받아들이도록 구성할 수 있다. 이들 예로서는, 이미 설명한 키보드나 음성 인식 장치를 들 수 있다.
방향 동정 수단(13)의 동작은 센서(12)로부터의 출력뿐만 아니라, 입력으로서 타이밍 생성 수단(63)이 생성하는 타이밍 제어 신호를 받을 수도 있다. 방향 동정 수단(13)은 센서(12)에서 받은 정보를 사용하여 방향을 동정하는 타이밍을 타이밍 생성 수단(64)으로부터 받은 신호로 제어할 수 있다. 이러한 경우, 입력 및 처리 결과가 얻어진 타이밍으로 방향 동정을 행할 수 있도록 구성되어 있기 때문에, 더욱 정확한 방향 동정 결과에 의거한 원활한 의사 소통을 도모할 수 있다.
전체 제어부(6)는 타이밍 생성 수단(64)을 사용하여 정보 변경 수단(5)에서 변경된 처리 결과와, 센서(2) 및 센서(12)로부터 얻어지는 입력을 사용하여 동작 제어 수단(7)이 동작하는 타이밍을 생성할 수도 있다. 특히, 센서(12)가 화상 정보를 받는 경우에는, 타이밍 생성 수단(64)은 센서(2)로부터 공급되는 음성 정보와 센서(12)로부터 공급되는 화상 정보의 양쪽을 사용하여 동작 제어 수단(7)이 동작하는 타이밍을 고정밀도로 생성한다. 이러한 경우, 입력, 처리 결과 및 방향에 관한 정보가 얻어진 타이밍을 반영한 타이밍에 따라 동작을 제어하도록 추가로 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다.
송신 수단(14)은 특정 신호를 송출한다. 센서(12)는 송신 수단(14)이 송출한 신호의 화자에서의 반사 신호를 검출한다. 방향 동정 수단(13)은 센서(12)로부터 공급된 반사 신호를 분석함으로써, 화자와 청취자의 방향을 검출한다. 송신 수단(14)이 송출하는 신호로서는 전파, 광, 소리 등을 사용할 수 있지만, 가장 손쉬운 것은 초음파이다. 이러한 경우, 특정한 정보를 송신하여 얻어진 반응을 사용하여 방향 동정과 타이밍 생성을 행하도록 추가로 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다. 송신 수단(14)은 반드시 설치하지 않아도 된다.
방향 동정 수단(13)은 선택 수단(131)과 동정 수단(132)과 반복 제어 수단(133)을 포함한다. 선택 수단(131)과 반복 제어 수단(133)은 반드시 설치하지 않아도 된다.
본 실시예와 같이, 선택 수단(131)과 동정 수단(132)을 설치한 경우, 송신 수단(14)은 송출하는 영역을 한정하여 특정 신호를 송출한다. 센서(12)는 송신 수단(14)이 송출한 신호의 화자에서의 반사 신호를 검출한다. 방향 동정 수단(13)은 선택 수단(131)과 동정 수단(132)을 포함하며, 먼저 선택 수단(131)에 의해 센서(12)가 받은 반사 신호 중 송신 수단(14)이 송신 대상으로 한 영역에 대응하는 반사 신호만을 선택한다. 이와 같이 하여 선택된 반사 신호를 사용하여 동정 수단(132)이 화자의 방향을 동정한다.
또한, 여기서는 송신 수단(14)으로부터 송신한 신호의 반사를 센서(12)가 받는 예에 대해서 설명했지만, 반사와는 관계없는 정보를 센서(12)가 받는 경우에도, 선택 수단(131)에 의한 센서(12)에서 받은 신호의 선택과 동정 수단(132)에서 선택된 신호를 사용한 화자 방향의 동정을 동일한 원리로 행할 수 있다.
방향 동정 수단(13)으로서 선택 수단(131)과 동정 수단(132)을 설치한 경우, 방향 동정에 사용하는 정보를 받는 범위를 한정하도록 추가로 구성되어 있기 때문에, 더욱 정확한 방향 동정 결과에 의거한 원활한 의사 소통을 도모할 수 있다.
방향 동정 수단(13)에 설치된 반복 제어 수단(133)은 선택 수단(131)에 의한 센서(12)에서 받은 신호의 선택과 동정 수단(132)에서 선택된 신호를 사용한 화자 방향의 동정을 반복하고, 복수의 영역에 대하여 화자의 동정을 반복하는 동작을 제어한다. 이 예에서는, 동정 수단(132)을 반복하여 다른 영역으로부터 받은 정보를 처리하기 위해 사용했지만, 동일한 목적으로 복수의 동정 수단을 포함하여, 이들에게 적절한 신호를 배분하는 것도 가능하다. 복수의 영역에 대한 화자 방향의 동정을 가능하게 함으로써, 존재 방향이 전혀 불명(不明)한 화자를, 부분 영역에 대한 인물 검출을 사용하여 검출하거나, 또한 복수 화자를 검출하거나 하는 것이 가능해진다. 반복 제어 수단(133)은 반드시 설치하지 않아도 된다.
센서(12)가 화상 정보를 받는 경우에는 화자를 검출하여 화자의 방향을 판정하고, 그 방향에 관한 정보를 사용하여 청취자의 방향에 관한 정보를 얻을 수도 있 다. 이것은 일반적으로 화자는 청취자를 향하여 이야기하고 있기 때문이다. 화자의 방향은 화자의 신체 방향이나 시선 방향을 화상 정보로부터 검출하여 결정할 수 있다. 화자가 어느 쪽 방향을 향하고 있는지를 알았을 경우에는, 화자 자체의 방향을 사용하여 그 방향을 센서(12)의 위치로부터 보고 있는 방향으로 변환하고, 변환되어 얻어진 정보와 청취자의 방향에 관한 정보를 합쳐서 더욱 정확하게 청취자의 방향을 구할 수 있다. 물론, 상기 변환된 방향 자체가 충분한 정밀도를 갖는 경우에는, 그 정보를 그대로 청취자의 방향으로서 사용할 수도 있다.
또한, 이들 일련의 과정에서 음성 정보를 사용할 수도 있다. 그 때에는, 센서(12)는 화상 정보와 음성 정보의 양쪽을 받을 수 있는 것으로 하고, 방향 동정 수단(13)은 음성 정보 처리 기능도 갖는 것이 필요하게 된다. 음성 정보로서는 음성의 개시/종료, 언어의 전환, 개인의 특징 등을 사용할 수 있다. 즉, 음성 정보 처리 기능으로서는 음성 검출, 언어 식별, 음성에 의한 개인 식별이 포함된다.
본 실시예에서, 방향 동정에 사용되는 정보를 받는 범위를 한정하고, 이 한정된 범위를 변화시켜 방향 동정을 반복하도록 구성함으로써, 더욱 정확한 방향 동정 결과를 얻을 수 있을 뿐만 아니라, 복수의 화자/청취자에게 대응할 수 있어 원활한 의사 소통을 도모할 수 있다.
센서(15)는 화자, 청취자와의 거리에 관한 정보를 받아 분석 수단(66)으로 전달한다. 분석 수단(66)은 센서(15)로부터 전달된 정보를 평가하여 화자, 청취자와의 거리를 구하여 동작 제어 수단(17)으로 전달한다. 동작 전달 수단(17)은 이동용 차륜(18, 19)을 제어하여 화자, 청취자와의 거리를 조정한다.
구체적으로는, 분석 수단(66)으로부터 전달된 거리가 미리 정해진 거리보다도 가까울 때에는, 차륜(18, 19)을 제어하여 화자, 청취자에게 접근하는 동작을 행하게 한다. 미리 정해진 거리보다도 멀 때에는, 차륜(18, 19)을 제어하여 화자, 청취자에게 접근하는 동작을 행하게 한다. 센서(15)와 분석 수단(66) 및 차륜(18, 19)은 반드시 설치하지 않아도 된다.
도 10에서는, 동작 제어 수단(16)이 차륜(18, 19)을 제어하도록 구성되어 있지만, 차륜의 수는 임의적이다. 또한, 이동 수단이 차륜(18, 19)인 예를 나타내고 있지만, 차륜 이외의 이동 수단으로 구성할 수도 있다. 이동 수단으로서는 캐터필러(caterpillar)나 다족(多足) 보행 등도 사용할 수 있다.
센서(15)의 예로서는 초음파 센서가 있다. 또한, 센서(15)를, 촬상(撮像) 소자를 포함하는 화상 센서로 하고, 분석 수단(66)을 화상 인식 수단으로 함으로써, 화상에 의거하여 화자나 청취자의 거리를 조정할 수 있다. 그 때에는, 이미 센서(12)에 관하여 설명한 바와 같이, 얼굴(얼굴 크기), 눈(눈의 상대적인 위치나 간격), 입술(상대적인 위치) 등 다양한 정보를 사용할 수 있다.
또한, 센서(15)를 복수의 음향 트랜스듀서로 구성하고, 분석 수단(66)을 음원(音源) 방향 검출 수단으로 함으로써, 삼각 측량 원리에 의해 화자나 청취자와의 거리를 조정할 수 있다. 그 외에도 소리나 광의 강도 등을 사용할 수 있다.
또한, 외부로부터 받은 정보에 의거하여 화자/청취자와의 거리를 제어할 수 있도록 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다.
센서(2)를 로봇 본체(1)와 분리하여 단말에 설치하고, 이 단말과 로봇 본체에 각각 통신 수단을 설치하여, 통신로를 통하여 단말로부터 센서 출력을 로봇 본체로 송신하도록 구성할 수도 있다. 이와 같은 구성에서는, 센서(2)를 갖는 단말은 로봇과는 독립적으로 이동될 수 있고, 센서(2)는 신호원(信號源)에 근접하여 배치될 수 있다. 센서(2)가 음성 정보를 받을 때에는, 신호원인 입 가까이에 배치할 수 있고, 음성 이외의 잡음의 혼입을 상대적으로 감소시킬 수 있다. 이 때문에, 신호대 잡음비(比)가 높은 신호를 인식 처리하게 되어, 인식률의 향상으로 연결된다. 이것은 고품질이면서 원활한 의사 소통에 공헌한다.
또한, 도 6에서 설명한 실시예와 마찬가지로, 센서(2), 정보 처리 수단(3), 및 정보 재생 수단(4) 사이에서, 부분 처리를 적절하게 분담시킬 수 있다. 또한, 센서(2)를 갖는 단말에 대하여 복수의 로봇을 설치할 수도 있다. 단말은 복수의 로봇과 동일하게 처리를 행하게 할 수 있기 때문에, 언어나 화제(話題) 등 센서(2)에서 받는 정보의 성질에 따라 로봇을 적절히 선택하여 동작시킬 수 있다. 이와 같이, 단말(24)이 복수의 로봇과 적절하게 통신을 행하여 정보 처리를 분담시킬 수 있기 때문에, 고품질이면서 원활한 의사 소통을 도모할 수 있다.
도 6에서 설명한 실시예와 마찬가지로, 센서(2), 정보 처리 수단(3), 및 정보 재생 수단(4) 사이에서 부분 처리를 적절하게 분담시킬 수 있다.
이상과 같이 본 실시예에 의하면, 정보 변경 수단(5)이 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하도록 구성되어 있기 때문에, 정확하게 처리된 결과에 감정 표현이나 상세 정보의 부가 가치를 부가하는 것 이 가능해져 원활한 의사 소통을 도모할 수 있다. 또한, 본 실시예에 의하면 방향 정보를 외부로부터 입력된 정보를 사용하여 자동적으로 계산할 수 있도록 추가로 구성되어 있기 때문에, 다양한 표현을 통한 원활한 의사 소통을 도모할 수 있다.
<제 6 실시예>
본 실시예는 로봇의 다른 구성예를 나타낸 것이다.
도 11을 참조하면, 본 실시예는 단말(24)과, 서버(40)와, 로봇(25)과, 통신로(85, 87)를 포함한다. 단말(24)은 센서(2)와 통신 수단(211)을 포함한다. 또한, 로봇(25)은 통신 수단(70)과 정보 재생 수단(4)을 포함한다. 이들 수단은 각각 개략적으로 다음과 같이 동작한다.
센서(2)는 외부로부터의 신호 등 처리 대상이 되는 정보를 받는다. 통신 수단(211)은 센서(2)에서 받은 정보를 통신로(85)를 통하여 통신 수단(402)으로 전달한다. 통신 수단(402)은 통신 수단(211)으로부터 통신로(85)를 통하여 전달된 센서(2)에서 받은 정보를 정보 처리 수단(3)으로 공급한다. 정보 처리 수단(3)은 센서(2)에서 받은 정보를 처리하여 정보 변경 수단(401)으로 전달한다.
정보 변경 수단(401)은 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여, 정보의 부가/삭제를 행하여 통신 수단(402)으로 전달한다. 통신 수단(402)은 통신로(87)를 통하여 통신 수단(70)으로 정보 변경 처리된 처리 결과를 전달한다. 통신 수단(70)은 통신 수단(402)을 통하여 받은 처리 결과를, 정보 재생 수단(4)으로 전달한다.
또한, 도 6에서 설명한 실시예와 마찬가지로 센서(2), 정보 처리 수단(3), 및 정보 재생 수단(4) 사이에서 부분 처리를 적절하게 분담시킬 수 있다. 통신로(85, 87)로서는 유선 전송, 무선 LAN을 포함하는 무선 전송, 또한 인터넷을 경유한 IP 통신 등 모든 수단을 이용할 수 있다. 또한, 단말(22, 23)은 PDA(개인용 디지털 정보 처리 지원 장치), 퍼스널 컴퓨터, 휴대전화 등 휴대성이 있는 것으로서 실현된다.
도 11에 나타낸 본 실시예는, 도 6에 나타낸 실시예에서의 단말(21)의 기능을 분리하여, 센서(2)에 의한 정보 입력 기능을 단말(24)에, 정보 재생 수단(4)에 의한 정보 재생 기능을 로봇(25)에 할당한 구성으로 되어 있다.
서버(40)는 2대 이상의 복수의 로봇에 정보 변경 수단(401)의 출력 정보를 송신하도록 구성할 수도 있다. 이러한 구성에서는, 단말(24)이 복수의 로봇과 적절하게 통신을 행하여 정보 처리를 분담시킬 수 있기 때문에, 고품질이면서 원활한 의사 소통을 도모할 수 있다. 그리고, 센서(2)가 단말(24)에 장비되어 있어, 신호원에 근접하여 배치시킬 수 있기 때문에, 음성이나 화상의 인식률을 향상시킬 수 있다. 이것은 고품질이면서 원활한 의사 소통에 공헌한다.
이상과 같이, 본 실시예에 의하면 정보 변경 수단(5)이 정보 처리 수단(3)에서 얻어진 처리 결과에 대하여 정보의 부가/삭제를 행하도록 구성되어 있기 때문에, 정확하게 처리된 결과에 감정 표현이나 상세 정보의 부가 가치를 부가하는 것이 가능해져 원활한 의사 소통을 도모할 수 있다. 또한, 본 실시예에 의하면 또한, 연산량이 많은 처리가 서버(40)에, 그 이외의 경미한 처리와 인터페이스가 단말(23)에 분산 배치되어 있기 때문에, 원활한 의사 소통을 도모하기 위한 처리를 효율적으로 실현할 수 있다.
또한, 본 실시예에 의하면 센서(2)가 단말(24)에 장비되어 있어, 신호원에 근접하여 배치시킬 수 있기 때문에, 음성이나 화상의 인식률을 향상시킬 수 있다. 이것은 고품질이면서 원활한 의사 소통에 공헌한다.
<제 7 실시예>
도 1 내지 도 5를 사용하여 설명한 정보 처리 시스템을 사용하여, 화상으로서 표시되는 에이전트의 동작에 의해 부가 정보 등의 정보를 나타내는 장치에 대해서 도 12 내지 도 17을 사용하여 설명한다. 본 장치는, 예를 들어 카 네비게이션, 어학 학습기, 번역기, 통역기 등에 사용될 수 있다. 또한, 본 장치의 정보 처리 수단, 정보 변경 수단, 전체 제어부의 기능은 퍼스널 컴퓨터에서 소프트웨어로서 실현될 수 있다. 도 12는 본 실시예의 장치의 구성예를 나타낸 블록도이고, 도 13은 장치의 사용자가 센서에 정보를 입력하는 상태를 나타낸 도면이며, 도 14는 센서(2)가 마이크로폰인 경우를 나타낸 도면이고, 도 15 내지 도 17은 정보 재생 수단(4)에서의 에이전트의 동작을 설명하는 도면이다.
도 12 내지 도 14에 나타낸 바와 같이, 본 실시예의 장치는 장치 본체(1)와, 센서(2)(마이크로폰(21))와, 정보 처리 수단(3)과, 정보 변경 수단(5)과, 정보 재생 수단(4)과, 전체 제어부(6)를 포함한다. 각 수단에 대한 동작은 이미 설명했기 때문에, 여기서는 정보 재생 수단(4)에 대해서만 설명한다.
정보 재생 수단(4)으로서는 화상 표시가 가능한 액정 표시 장치, EL 표시 장치 등의 플랫(flat) 디스플레이, CRT 등을 사용할 수 있다. 도 15에 나타낸 바와 같이 부가 정보에 대응하여 에이전트가 화면(41) 내에서 상하로 이동하거나, 도 16에 나타낸 바와 같이 에이전트가 화면(41) 내에서 회전하면서 경사 방향으로 이동하거나, 도 17에 나타낸 바와 같이 회전하면서 상하로 이동하거나 함으로써, 부가 정보를 표현할 수 있다. 도 15 내지 도 17에 나타낸 정보 재생 장치(4)에서, 스피커(42∼45)로 음성을 내보내고, 화면(41)에서 에이전트를 표시할 수 있다. 이미 설명한 바와 같이, 에이전트의 동작은 고개를 끄덕임, 고개를 갸웃거림, 머리를 흔듦, 점프 등 통상적인 신체 동작에 더하여, 인간에게는 존재하지 않는 동작을 사용할 수도 있다. 이와 같은 특수한 동작의 예로서는 신체의 신축, 분리가 있으며, 에이전트 수의 증감도 가능하다.
또한, 스피커(42∼45)를 사용하여 음상 정위(音像定位)를 제어할 수도 있다. 각 스피커에 공급되는 신호의 진폭(振幅)과 위상(位相)을 적절하게 제어함으로써, 특정 위치, 방향에서의 재생음의 크기를 제어하는 것이 가능하다.
본 발명은 통역, 번역, 대화, 음성 인식, 음성 합성, 화상 이해 등을 행하는 정보 처리 시스템이나 그 실현 형태로서의 로봇, 정보 처리 시스템을, 컴퓨터를 사용하여 실현하기 위한 프로그램의 용도에 적용할 수 있다.
도 1은 본 발명의 제 1 실시예의 구성의 일례를 나타낸 블록도.
도 2는 본 발명의 제 1 실시예의 정보 처리 수단의 제 1 구성예를 나타낸 블록도.
도 3은 본 발명의 제 1 실시예의 정보 처리 수단의 제 2 구성예를 나타낸 블록도.
도 4는 본 발명의 제 1 실시예의 정보 변경 수단의 제 1 구성예를 나타낸 블록도.
도 5는 본 발명의 제 1 실시예의 정보 변경 수단의 제 2 구성예를 나타낸 블록도.
도 6은 본 발명의 제 2 실시예의 구성예를 나타낸 블록도.
도 7은 본 발명의 제 3 실시예의 구성의 일례를 나타낸 블록도.
도 8은 본 발명의 제 3 실시예의 구성의 다른 예를 나타낸 블록도.
도 9는 본 발명의 제 4 실시예의 구성예를 나타낸 블록도.
도 10은 본 발명의 제 5 실시예의 구성예를 나타낸 블록도.
도 11은 본 발명의 제 6 실시예의 구성예를 나타낸 블록도.
도 12는 본 발명의 제 7 실시예의 장치의 구성예를 나타낸 블록도.
도 13은 장치의 사용자가 센서에 정보를 입력하는 상태를 나타낸 도면.
도 14는 센서(2)가 마이크로폰인 경우를 나타낸 도면.
도 15는 정보 재생 수단(4)에서의 에이전트(agent)의 동작을 설명하는 도면.
도 16은 정보 재생 수단(4)에서의 에이전트의 동작을 설명하는 도면.
도 17은 정보 재생 수단(4)에서의 에이전트의 동작을 설명하는 도면.
도면의 주요 부분에 대한 부호의 설명
1 : 로봇 본체(장치 본체) 2, 12, 15 : 센서
21, 24 : 단말 211, 402, 70 : 통신 수단
3 : 정보 처리 수단 31, 53, 544 : 제어부
32 : 음성 처리부 321 : 음성 인식부
322 : 음성 합성부 33 : 자동 통역부
4 : 정보 재생 수단 40 : 서버
25 : 로봇 5, 401 : 정보 변경 수단
50 : 네트워크 51 : 변경 처리부
52 : 부가 정보 생성부 521 : 정보 분석부
522, 542 : 검색부 523, 543, 72 : 기억 수단
524, 541 : 통신 수단 54 : 부가 정보 저장부
6 : 전체 제어부 62 : 평가 수단
63, 64 : 타이밍 생성 수단 7, 17 : 동작 제어 수단
71, 171 : 모터 80, 85, 87 : 통신로
11, 14 : 송신 수단 10 : 방향 입력 수단
13 : 방향 동정(同定) 수단 131 : 선택 수단
132 : 동정 수단 133 : 반복 제어 수단
18, 19 : 차륜

Claims (11)

  1. 입력된 텍스트를 분석하고, 그 분석 결과에 의거하여 부가할 정보를 결정해 상기 텍스트에 부가하는 정보 변경 수단과,
    로봇 본체의 동작을 제어하는 동작 제어 수단과,
    상기 부가할 정보가 부가된 상기 텍스트의 내용을 평가하고, 그 평가 결과에 의거하여 상기 동작 제어 수단을 제어하는 평가 수단과,
    상기 부가할 정보가 부가된 상기 텍스트를 음성으로 변환하여 출력하는 정보 재생 수단을 갖는 것을 특징으로 하는 로봇.
  2. 제 1 항에 있어서,
    상기 입력된 텍스트는 제 1 언어의 텍스트를 제 2 언어로 번역한 후의 번역 텍스트인 것을 특징으로 하는 로봇.
  3. 제 1 항에 있어서,
    음성 신호를 받아 전기 신호로 변환하는 변환 소자와,
    상기 변환 소자로부터 상기 전기 신호를 받아 음성 인식을 행하는 음성 인식부와,
    상기 음성 인식부에서 인식된 언어를 다른 언어로 번역하는 통역부를 구비하고,
    상기 입력된 텍스트로서 상기 통역부로부터의 출력을 이용하는 것을 특징으로 하는 로봇.
  4. 제 1 항에 있어서,
    상기 음성을 출력하는 대상의 방향 정보가 입력되는 방향 입력 수단을 더 갖고,
    상기 동작 제어 수단은 상기 방향 정보를 이용하여 상기 로봇 본체가 상기 대상을 향하도록 제어하는 것을 특징으로 하는 로봇.
  5. 제 2 항에 있어서,
    상기 동작 제어 수단은 상기 제 2 언어의 음성을 출력하는 대상의 방향 정보를 기억하는 기억 수단을 갖고,
    상기 평가 수단이 상기 제 2 언어의 텍스트를 평가한 때에, 상기 동작 제어 수단은 상기 방향 정보를 이용하여 상기 로봇 본체가 상기 대상을 향하도록 제어하는 것을 특징으로 하는 로봇.
  6. 제 1 항에 있어서,
    상기 음성을 출력하는 대상의 방향을 동정(同定)하는 방향 동정 수단을 더 갖고,
    상기 동작 제어 수단은 상기 로봇 본체가 상기 동정한 방향을 향하도록 제어 하는 것을 특징으로 하는 로봇.
  7. 제 4 항에 있어서,
    상기 방향 입력 수단이 받는 상기 방향 정보를 발생하는 송신 수단을 더 갖는 것을 특징으로 하는 로봇.
  8. 제 6 항에 있어서,
    화자(話者)와 청취자(聽取者)가 교대하여 회화(會話)를 반복할 때에, 상기 화자와 상기 청취자 사이의 통역을 행하는 정보 처리 수단을 더 갖고,
    상기 방향 동정 수단은 어떤 시각(時刻)에서의 화자의 방향을 동정함으로써, 화자와 청취자가 교대한 때의, 상기 음성을 출력하는 대상으로 되는 청취자의 방향을 동정하는 것을 특징으로 하는 로봇.
  9. 제 8 항에 있어서,
    상기 화자의 음성을 검출하는 복수의 음향 트랜스듀서를 더 갖고,
    상기 방향 동정 수단은 상기 복수의 음향 트랜스듀서로부터의 음성을 이용하여 상기 화자의 방향을 동정하는 것을 특징으로 하는 로봇.
  10. 제 8 항에 있어서,
    상기 화자의 화상을 검출하는 복수의 카메라를 더 갖고,
    상기 방향 동정 수단은 상기 복수의 카메라로부터의 화상을 이용하여 상기 화자의 방향을 동정하는 것을 특징으로 하는 로봇.
  11. 제 8 항에 있어서,
    상기 화자의 화상을 검출하는 카메라를 더 갖고,
    상기 방향 동정 수단은 상기 카메라로부터의 화상에 의거하여 상기 화자의 방향을 판정하고, 이 화자의 방향으로부터 상기 화자의 방향을 동정하는 것을 특징으로 하는 로봇.
KR1020097000257A 2003-12-12 2004-12-13 정보 처리용 로봇 KR100906136B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2003-415598 2003-12-12
JP2003415598 2003-12-12

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020067013576A Division KR100953902B1 (ko) 2003-12-12 2004-12-13 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체, 단말 및 서버

Publications (2)

Publication Number Publication Date
KR20090013842A true KR20090013842A (ko) 2009-02-05
KR100906136B1 KR100906136B1 (ko) 2009-07-07

Family

ID=34675136

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020097000257A KR100906136B1 (ko) 2003-12-12 2004-12-13 정보 처리용 로봇
KR1020067013576A KR100953902B1 (ko) 2003-12-12 2004-12-13 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체, 단말 및 서버

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020067013576A KR100953902B1 (ko) 2003-12-12 2004-12-13 정보 처리 시스템, 정보 처리 방법, 정보 처리용 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체, 단말 및 서버

Country Status (6)

Country Link
US (2) US8433580B2 (ko)
EP (2) EP2267697A3 (ko)
JP (1) JP4839838B2 (ko)
KR (2) KR100906136B1 (ko)
CN (1) CN1894740B (ko)
WO (1) WO2005057549A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180061586A (ko) * 2016-11-30 2018-06-08 충북대학교 산학협력단 사용자 간의 감정 의사소통 시스템

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030230921A1 (en) * 2002-05-10 2003-12-18 George Gifeisman Back support and a device provided therewith
US7475806B1 (en) * 2005-02-24 2009-01-13 Savr Communications, Inc. Method and system of universal RFID communication
JP4718987B2 (ja) * 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
JP4791285B2 (ja) * 2006-08-04 2011-10-12 富士通株式会社 ネットワーク装置およびフィルタリングプログラム
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
KR101317383B1 (ko) * 2011-10-12 2013-10-11 한국과학기술연구원 로봇을 이용한 인지 능력 훈련 장치 및 그 방법
JP2013102373A (ja) * 2011-11-09 2013-05-23 Denso Corp ハンズフリー装置
US9264812B2 (en) * 2012-06-15 2016-02-16 Kabushiki Kaisha Toshiba Apparatus and method for localizing a sound image, and a non-transitory computer readable medium
CN104239180B (zh) * 2013-06-24 2016-07-27 腾讯科技(深圳)有限公司 变更处理方法、装置及系统
CN104424944B (zh) * 2013-08-19 2018-01-23 联想(北京)有限公司 一种信息处理方法及电子设备
CN103530285A (zh) * 2013-10-09 2014-01-22 百度在线网络技术(北京)有限公司 翻译消息的方法和装置
US10986454B2 (en) 2014-01-06 2021-04-20 Alpine Electronics of Silicon Valley, Inc. Sound normalization and frequency remapping using haptic feedback
US8977376B1 (en) 2014-01-06 2015-03-10 Alpine Electronics of Silicon Valley, Inc. Reproducing audio signals with a haptic apparatus on acoustic headphones and their calibration and measurement
US8767996B1 (en) 2014-01-06 2014-07-01 Alpine Electronics of Silicon Valley, Inc. Methods and devices for reproducing audio signals with a haptic apparatus on acoustic headphones
US9483768B2 (en) * 2014-08-11 2016-11-01 24/7 Customer, Inc. Methods and apparatuses for modeling customer interaction experiences
JP6221158B2 (ja) * 2014-08-27 2017-11-01 本田技研工業株式会社 自律行動ロボット、及び自律行動ロボットの制御方法
KR20160026317A (ko) * 2014-08-29 2016-03-09 삼성전자주식회사 음성 녹음 방법 및 장치
JP6551507B2 (ja) * 2015-02-17 2019-07-31 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP6470097B2 (ja) * 2015-04-22 2019-02-13 株式会社東芝 通訳装置、方法およびプログラム
WO2017072915A1 (ja) * 2015-10-29 2017-05-04 株式会社日立製作所 視覚情報と聴覚情報の同期方法および情報処理装置
JP2017167805A (ja) 2016-03-16 2017-09-21 株式会社東芝 表示支援装置、方法およびプログラム
JP6520878B2 (ja) * 2016-09-21 2019-05-29 トヨタ自動車株式会社 音声取得システムおよび音声取得方法
CN107545895B (zh) * 2017-09-26 2021-10-22 联想(北京)有限公司 信息处理方法和电子设备
US10878824B2 (en) * 2018-02-21 2020-12-29 Valyant Al, Inc. Speech-to-text generation using video-speech matching from a primary speaker
JP7081317B2 (ja) * 2018-06-12 2022-06-07 トヨタ自動車株式会社 車両用コクピット
WO2020031696A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム
WO2020031453A1 (ja) 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置及び情報処理方法、並びに映像音声出力システム
CN110600016B (zh) * 2019-09-20 2022-02-25 北京市律典通科技有限公司 卷宗推送方法和装置
US11688412B2 (en) * 2020-06-15 2023-06-27 Tencent America LLC Multi-modal framework for multi-channel target speech separation

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63168774A (ja) * 1987-01-06 1988-07-12 Fujitsu Ltd 機械翻訳システムにおける主語の補足方式
JPS63204465A (ja) 1987-02-20 1988-08-24 Sanyo Electric Co Ltd 機械翻訳システム
US4974191A (en) * 1987-07-31 1990-11-27 Syntellect Software Inc. Adaptive natural language computer interface system
US5495557A (en) * 1992-06-26 1996-02-27 Hyman; Greg Electronic toy for forming sentences
US5860064A (en) * 1993-05-13 1999-01-12 Apple Computer, Inc. Method and apparatus for automatic generation of vocal emotion in a synthetic text-to-speech system
JPH0792993A (ja) * 1993-09-20 1995-04-07 Fujitsu Ltd 音声認識装置
JPH09131468A (ja) * 1995-11-09 1997-05-20 Matsushita Electric Ind Co Ltd 漫才人形
US5835881A (en) * 1996-01-16 1998-11-10 Philips Electronics North America Corporation Portable system for providing voice driving directions
US6314411B1 (en) * 1996-06-11 2001-11-06 Pegasus Micro-Technologies, Inc. Artificially intelligent natural language computational interface system for interfacing a human to a data processor having human-like responses
US5778082A (en) * 1996-06-14 1998-07-07 Picturetel Corporation Method and apparatus for localization of an acoustic source
JPH10153998A (ja) * 1996-09-24 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置
JPH10136327A (ja) 1996-10-25 1998-05-22 Meidensha Corp ディスクトップ会議システム
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
US6122606A (en) * 1996-12-10 2000-09-19 Johnson; William J. System and method for enhancing human communications
CA2329345A1 (en) * 1997-04-22 1998-10-29 Greg Hetherington Method and apparatus for processing free-format data
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
ATE298453T1 (de) * 1998-11-13 2005-07-15 Lernout & Hauspie Speechprod Sprachsynthese durch verkettung von sprachwellenformen
US6246981B1 (en) * 1998-11-25 2001-06-12 International Business Machines Corporation Natural language task-oriented dialog manager and method
JP3623127B2 (ja) * 1998-12-25 2005-02-23 松下電器産業株式会社 ヘッドホン装置
US6385584B1 (en) * 1999-04-30 2002-05-07 Verizon Services Corp. Providing automated voice responses with variable user prompting
US6385581B1 (en) * 1999-05-05 2002-05-07 Stanley W. Stephenson System and method of providing emotive background sound to text
US20020042713A1 (en) * 1999-05-10 2002-04-11 Korea Axis Co., Ltd. Toy having speech recognition function and two-way conversation for dialogue partner
GB9911971D0 (en) * 1999-05-21 1999-07-21 Canon Kk A system, a server for a system and a machine for use in a system
JP3514372B2 (ja) * 1999-06-04 2004-03-31 日本電気株式会社 マルチモーダル対話装置
TW501046B (en) * 1999-06-11 2002-09-01 Ind Tech Res Inst A portable dialogue manager
JP2001014237A (ja) 1999-07-02 2001-01-19 Nec Corp 電子メール番組装置および電子メール番組用プログラムを記録した記録媒体
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US6658388B1 (en) * 1999-09-10 2003-12-02 International Business Machines Corporation Personality generator for conversational systems
US6940953B1 (en) * 1999-09-13 2005-09-06 Microstrategy, Inc. System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services including module for generating and formatting voice services
JP2001100784A (ja) 1999-09-30 2001-04-13 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
JP2001100788A (ja) 1999-09-30 2001-04-13 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2001101187A (ja) * 1999-09-30 2001-04-13 Sony Corp 翻訳装置および翻訳方法、並びに記録媒体
JP2001117921A (ja) 1999-10-15 2001-04-27 Sony Corp 翻訳装置および翻訳方法、並びに記録媒体
JP2001117922A (ja) 1999-10-15 2001-04-27 Sony Corp 翻訳装置および翻訳方法、並びに記録媒体
JP2001117752A (ja) 1999-10-15 2001-04-27 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
US6510411B1 (en) * 1999-10-29 2003-01-21 Unisys Corporation Task oriented dialog model and manager
GB9926134D0 (en) * 1999-11-05 2000-01-12 Ibm Interactive voice response system
US6665640B1 (en) * 1999-11-12 2003-12-16 Phoenix Solutions, Inc. Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries
US6526382B1 (en) * 1999-12-07 2003-02-25 Comverse, Inc. Language-oriented user interfaces for voice activated services
JP4032273B2 (ja) * 1999-12-28 2008-01-16 ソニー株式会社 同期制御装置および方法、並びに記録媒体
JP2001191283A (ja) * 1999-12-31 2001-07-17 Sony Corp ロボット装置及びその制御方法
JP3994368B2 (ja) * 2000-01-25 2007-10-17 ソニー株式会社 情報処理装置および情報処理方法、並びに記録媒体
US20030028380A1 (en) * 2000-02-02 2003-02-06 Freeland Warwick Peter Speech system
US6773344B1 (en) * 2000-03-16 2004-08-10 Creator Ltd. Methods and apparatus for integration of interactive toys with interactive television and cellular communication systems
JP2001296343A (ja) * 2000-04-11 2001-10-26 Nec Corp 音源方位設定装置及びそれを備えた撮像装置、送信システム
JP2001339703A (ja) 2000-05-26 2001-12-07 Nec Corp テレビ会議システム及びテレビ会議システムに於けるカメラの制御装置並びにカメラの制御方法
KR20020067694A (ko) * 2000-10-11 2002-08-23 소니 가부시끼 가이샤 로봇 장치 및 로봇 장치의 동작 제어 방법
KR20020067921A (ko) * 2000-10-23 2002-08-24 소니 가부시끼 가이샤 각식 로봇 및 각식 로봇의 행동 제어 방법, 및 기억 매체
US6941266B1 (en) * 2000-11-15 2005-09-06 At&T Corp. Method and system for predicting problematic dialog situations in a task classification system
US6751591B1 (en) * 2001-01-22 2004-06-15 At&T Corp. Method and system for predicting understanding errors in a task classification system
JP2002244688A (ja) * 2001-02-15 2002-08-30 Sony Computer Entertainment Inc 情報処理方法及び装置、情報伝送システム、情報処理プログラムを情報処理装置に実行させる媒体、情報処理プログラム
US6967455B2 (en) * 2001-03-09 2005-11-22 Japan Science And Technology Agency Robot audiovisual system
JP3910537B2 (ja) * 2001-03-26 2007-04-25 富士通株式会社 マルチチャネル情報処理装置
JP2002283261A (ja) 2001-03-27 2002-10-03 Sony Corp ロボット装置及びその制御方法、並びに記憶媒体
CN1159702C (zh) * 2001-04-11 2004-07-28 国际商业机器公司 具有情感的语音-语音翻译系统和方法
JP2002351305A (ja) 2001-05-23 2002-12-06 Apollo Seiko Ltd 語学研修用ロボット
JP3823760B2 (ja) 2001-05-28 2006-09-20 日本電気株式会社 ロボット装置
JP3771812B2 (ja) * 2001-05-28 2006-04-26 インターナショナル・ビジネス・マシーンズ・コーポレーション ロボットおよびその制御方法
US20030009342A1 (en) * 2001-07-06 2003-01-09 Haley Mark R. Software that converts text-to-speech in any language and shows related multimedia
JP4689107B2 (ja) 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
JP2003093747A (ja) * 2001-09-25 2003-04-02 Mitsumi Electric Co Ltd デジタルペット
JP3627058B2 (ja) * 2002-03-01 2005-03-09 独立行政法人科学技術振興機構 ロボット視聴覚システム
JP2003263192A (ja) * 2002-03-12 2003-09-19 Nec Corp 情報処理システムおよび情報処理方法ならびに情報処理プログラム
JP2003271172A (ja) * 2002-03-15 2003-09-25 Sony Corp 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP3714268B2 (ja) * 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
JP2003319085A (ja) 2002-04-18 2003-11-07 Ntt Advanced Technology Corp 音声情報検索装置および音声情報検索方法
US7076430B1 (en) * 2002-05-16 2006-07-11 At&T Corp. System and method of providing conversational visual prosody for talking heads
US20060064202A1 (en) * 2002-08-26 2006-03-23 Sony Corporation Environment identification device, environment identification method, and robot device
WO2004052597A1 (ja) * 2002-12-10 2004-06-24 Honda Motor Co.,Ltd. ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
US7587053B1 (en) * 2003-10-28 2009-09-08 Nvidia Corporation Audio-based position tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180061586A (ko) * 2016-11-30 2018-06-08 충북대학교 산학협력단 사용자 간의 감정 의사소통 시스템

Also Published As

Publication number Publication date
WO2005057549A1 (ja) 2005-06-23
US20090043423A1 (en) 2009-02-12
CN1894740B (zh) 2012-07-04
US20070081529A1 (en) 2007-04-12
EP2267697A2 (en) 2010-12-29
JP4839838B2 (ja) 2011-12-21
CN1894740A (zh) 2007-01-10
KR100906136B1 (ko) 2009-07-07
KR100953902B1 (ko) 2010-04-22
JPWO2005057549A1 (ja) 2008-04-17
EP2267697A3 (en) 2011-04-06
KR20060096520A (ko) 2006-09-12
US8473099B2 (en) 2013-06-25
US8433580B2 (en) 2013-04-30
EP1699040A4 (en) 2007-11-28
EP1699040A1 (en) 2006-09-06

Similar Documents

Publication Publication Date Title
KR100906136B1 (ko) 정보 처리용 로봇
US8942849B2 (en) Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program
US11282522B2 (en) Artificial intelligence apparatus and method for recognizing speech of user
CN111226224B (zh) 用于翻译语音信号的方法及电子设备
US20210085558A1 (en) Artificial intelligence massage apparatus and method for controlling massage operation in consideration of facial expression or utterance of user
JP2017215602A (ja) 居眠り抑制装置
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
KR20010062767A (ko) 정보 처리 장치, 정보 처리 방법 및 저장 매체
US11443747B2 (en) Artificial intelligence apparatus and method for recognizing speech of user in consideration of word usage frequency
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
WO2002045916A1 (fr) Robot, procede de commande du mouvement d&#39;un robot et systeme de commande du mouvement d&#39;un robot
JP2016076007A (ja) 対話装置および対話方法
WO2016206646A1 (zh) 使机器装置产生动作的方法及系统
Hudson et al. A training tool for speech driven human-robot interaction applications
JP2018075657A (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
Marge et al. Spoken language interaction with robots: Research issues and recommendations, report from the NSF future directions workshop
CN112823047A (zh) 用于控制网络应用程序的系统和设备
KR102128812B1 (ko) 로봇의 사회 지능 평가 방법 및 이를 위한 장치
Lin et al. Nonverbal acoustic communication in human-computer interaction
KR102147835B1 (ko) 인터랙티브 로봇의 발화 및 제스처 속성 결정 장치 및 방법
JP2002239962A (ja) ロボット装置、ロボット装置の動作制御方法及びロボット装置の動作制御システム
Alameda-Pineda et al. Socially Pertinent Robots in Gerontological Healthcare
Low et al. Wake word and speech recognition application on edge device: a case of improving the electric wheelchair/Low Jian He...[et al.]
JP2004046018A (ja) 発話型語学学習装置

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130531

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140603

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150529

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee