KR20060084455A - 정보처리장치, 전자페트장치 및 정보처리방법 - Google Patents

정보처리장치, 전자페트장치 및 정보처리방법 Download PDF

Info

Publication number
KR20060084455A
KR20060084455A KR1020067013437A KR20067013437A KR20060084455A KR 20060084455 A KR20060084455 A KR 20060084455A KR 1020067013437 A KR1020067013437 A KR 1020067013437A KR 20067013437 A KR20067013437 A KR 20067013437A KR 20060084455 A KR20060084455 A KR 20060084455A
Authority
KR
South Korea
Prior art keywords
response
voice
user
recognition result
data
Prior art date
Application number
KR1020067013437A
Other languages
English (en)
Other versions
KR100702645B1 (ko
Inventor
사토시 후지무라
나오히로 요코오
야스히코 가토
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20060084455A publication Critical patent/KR20060084455A/ko
Application granted granted Critical
Publication of KR100702645B1 publication Critical patent/KR100702645B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/71Game security or game management aspects using secure communication between game devices and game servers, e.g. by encrypting game data or authenticating players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/402Communication between platforms, i.e. physical link to protocol
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0638Interactive procedures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Security & Cryptography (AREA)
  • Robotics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Toys (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephone Set Structure (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

정보처리장치, 휴대기기, 전자페트장치, 정보처리수순을 기록한 기록매체 및 정보처리방법에 있어서, 네트워크에 접속하여 여러가지의 데이터를 송수(送受)하고, 또 음성에 의해 단어를 등록할 수 있도록 하고, 또 사용자 인증에 의해 응답을 상이하게 하고, 또 음성 입력과 응답을 분류하여 이 분류에 의해 응답을 생성하고, 또한 과거의 이력에 의해 감정을 변화시키도록 했다.
정보처리장치, 타이머, 음성인식부, 등록부, 인식데이터.

Description

정보처리장치, 전자페트장치 및 정보처리방법 {INFORMATION PROCESSOR, ELECTRONIC PET DEVICE AND INFORMATION PROCESSING METHOD}
도 1은 본 발명의 실시형태에 관한 전자페트장치를 나타내는 기능 블록도이다.
도 2는 전자페트장치를 나타내는 평면도이다.
도 3은 도 1의 전자페트장치의 블록도이다.
도 4는 신체상태 데이터를 나타낸 도표이다.
도 5는 현재의 감정 데이터를 나타낸 도표이다.
도 6은 성격 데이터를 나타낸 도표이다.
도 7은 감정 데이터의 변화를 나타낸 도표이다.
도 8은 패턴 데이터를 나타낸 도표이다.
도 9는 음성 데이터를 나타낸 도표이다.
도 10은 화상 데이터를 나타낸 도표이다.
도 11은 네트워크와의 접속처리수순을 나타낸 플로 차트이다.
도 12는 네트워크에 송출하는 데이터의 형식을 나타낸 도표이다.
도 13은 인식데이터의 등록에 관해 전자페트장치를 상세히 나타낸 기능 블록도이다.
도 14는 음성인식처리의 설명에 제공되는 약선도이다.
도 15는 인식데이터의 등록처리수순을 나타낸 플로 차트이다.
도 16은 사용자 인증에 관해 전자페트장치를 상세히 나타낸 기능 블록도이다.
도 17은 패턴 데이터를 나타낸 도표이다.
도 18은 사용자 인증의 설명에 제공되는 도표이다.
도 19는 도 18의 질문에 의해 취득된 단어를 기준으로 한 사용자 인증의 설명에 제공되는 도표이다.
도 20은 대화의 분류처리에 관해 전자페트장치를 상세히 나타낸 기능 블록도이다.
도 21은 도 20의 분류처리에 대응하는 패턴 데이터를 나타낸 도표이다.
도 22는 대화(對話)이력을 나타낸 도표이다.
도 23은 대화이력의 다른 예를 나타낸 도표이다.
도 24는 감정의 제어에 관해 전자페트장치를 상세히 나타낸 기능 블록도이다.
도 25는 감정변화 이력을 나타낸 도표이다.
도 26은 도 25의 감정변화 이력에 의해 변화된 성격 데이터를 나타낸 도표이다.
도 27은 성격 데이터의 다른 변경예를 나타낸 도표이다.
도 28은 다른 실시형태에 관한 전자페트장치를 나타낸 블록도이다.
도 29는 휴대전화를 나타낸 평면도이다.
<도면의 주요 부분에 대한 부호의 설명>
1: 전자페트장치, 11A: 음성인식부, 11B: 타이머, 11C: 신체상태 변경부, 11D: 감정변경부, 11E: 응답문 작성부, 11F: 음성합성부, 11G: 화상합성부, 11I: 등록부, 11J: 음성인증부, 11M: 발화분류부, 16A: 인식 데이터, 16B: 신체상태 데이터, 16C: 감정 데이터, 16D: 성격 데이터, 16E: 패턴 데이터, 16F: 대화이력, 16G: 지식, 16H: 음성 데이터, 16I: 화상 데이터, 16J: 인증상태, 16K: 인증 데이터, 16M: 분류 룰, 16N: 감정변경이력, 17: 네트워크 접속부.
본 발명은 정보처리장치, 휴대기기, 전자페트장치, 정보처리수순을 기록한 기록매체 및 정보처리방법에 관한 것이며, 예를 들면 휴대전화, 퍼스널 컴퓨터 등의 각종 정보기기에 적용할 수 있다. 본 발명은 응답의 생성에 필요한 각종 데이터를 네트워크를 통해 교환함으로써, 또 음성으로 단어 등을 등록할 수 있도록 하는 것 등에 의해, 한층 신변에 친밀해지기 쉬운 전자페트장치, 전자페트를 가지는 정보처리장치, 휴대기기, 정보처리수순을 기록한 기록매체 및 정보처리방법을 제안한다.
종래, 퍼스널 컴퓨터에 있어서는, 이른바 육성(育成) 시뮬레이션 게임 소프 트웨어가 제안되어 있다. 이 육성 시뮬레이션 게임은 컴퓨터에 의한 가상 현실공간에서 페트(pet)(이른바 전자페트임)를 사육하는 게임이며, 실제로 동물인 페트를 사육하는 경우에 비해 간단히 페트와의 교류를 도모할 수 있다.
그런데, 실제의 페트에 있어서는, 그 날의 신체상태, 주위의 환경 등에 의해 여러가지로 상이한 거동을 나타낸다. 또, 사육주 자체에 대해서도 이를 인식하여, 사육주와 사육주 이외에서는 상이한 거동을 나타낸다. 또한, 학습에 의해 거동이 변화하는 일도 있다.
이들 실제의 페트에서의 각종 거동을 전자페트에서도 재현할 수 있다면, 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다고 생각된다.
본 발명은 이상의 점을 고려하여 이루어진 것이며, 더 한층 신변에 친밀해지기 쉬운 것으로 할 수 있는 전자페트장치, 전자페트를 가지는 정보처리장치, 휴대기기, 정보처리수순을 기록한 기록매체 및 정보처리방법을 제안하려고 하는 것이다.
이러한 과제를 해결하기 위해 본 발명에서는, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 소정의 인식 룰에 따라 음성인식결과를 출력하는 음성인식수단과, 소정의 감정 파라미터 생성 룰에 따라, 최소한 음성인식결과와 시간 경과에 따라 변화되는, 의사적(擬似的)으로 감정을 나타내는 감정 파라미터를 생성하는 감정생성수단과, 최소한 감정 파라미터를 기준으로 한 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 응답생성수단에 관한 것이며, 소정 의 네트워크에 접속하여, 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰의 갱신처리를 실행하는 통신수단, 또는 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰에 필요한 데이터의 갱신처리를 실행하는 통신수단을 가지도록 한다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 소정의 네트워크에 접속하고 최소한 감정 파라미터, 또는 감정 파라미터의 생성에 필요한 데이터를 취득하는 통신수단을 가지도록 하고, 응답생성수단이 이 통신수단에 의해 취득한 감정파라미터에 의한 응답, 또는 통신수단에 의해 취득한 데이터로부터 생성된 감정파라미터에 의한 응답을 출력하도록 한다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 소정의 네트워크에 접속하고, 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰의 갱신처리를 실행하는 통신처리, 또는 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰에 필요한 데이터의 갱신처리를 실행하는 통신처리가 기록되어 이루어지도록 한다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 소정의 네트워크에 접속하고, 최소한 감정 파라미터 또는 감정 파라미터의 생성에 필요한 데이터를 취득하는 통신처리가 기록되고, 응답생성처리가, 통신처리에 의해 취득된 감정 파라미터에 의한 응답, 또는 통신처리에 의해 취득된 데이터로부터 생성된 감정 파라미터에 의한 응답을 출력하는 처리이도록 한다.
또, 정보처리방법에 적용하여, 소정의 네트워크에 접속하고, 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰의 갱신처리를 실행하는 통신처리, 또는 인식 룰, 감정 파라미터 생성 룰 또는 응답 생성 룰에 필요한 데이터의 갱신처리를 실행 하는 통신처리를 가지도록 한다.
또, 정보처리방법에 적용하여, 소정의 네트워크에 접속하고, 최소한 감정 파라미터 또는 감정 파라미터의 생성에 필요한 데이터를 취득하는 통신처리를 가지도록 하고, 응답생성처리가 통신처리에 의해 취득된 감정 파라미터에 의한 응답, 또는 통신처리에 의해 취득된 데이터로부터 생성된 감정 파라미터에 의한 응답을 출력하는 처리이도록 한다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 등록의 동작 모드에 있어서, 음성인식결과에 따라 최소한 데이터 베이스에 단어의 음성인식결과를 등록함으로써, 음성에 의해 데이터 베이스를 변경 가능한 등록수단을 구비하도록 한다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 등록의 동작 모드에 있어서, 음성인식결과에 따라 최소한 데이터 베이스에 단어의 음성인식결과를 등록함으로써, 음성에 의해 데이터 베이스를 변경 가능한 등록처리를 기록하도록 한다.
또, 정보처리방법에 적용하여, 등록의 동작 모드에 있어서, 음성인식결과에 따라 최소한 데이터 베이스에 단어의 음성인식결과를 등록함으로써, 음성에 의해 데이터 베이스를 변경 가능한 등록처리를 가지도록 한다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 음성에 따라 사용자를 인증하는 사용자인증수단을 구비하도록 하고, 응답생성수단은 사용자인증수단의 인증결과에 의거하여, 음성입력자에 따라 응답을 상이하게 하도록 한다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 음성에 따라 사용자를 인 증하는 사용자인증처리가 기록되고, 응답생성처리는 사용자인증처리의 인증결과에 의거하여, 음성입력자에 따라 응답을 상이하게 하도록 한다.
또, 정보처리방법에 적용하여, 음성에 따라 사용자를 인증하는 사용자인증처리를 가지도록 하고, 응답생성처리가 사용자인증처리의 인증결과에 의거하여, 음성입력자에 따라 응답을 상이하게 하도록 한다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 데 대하여, 음성에 따라 음성에 의한 입력의 종류를 식별하는 발화(發話)분류수단을 구비하도록 하고, 응답생성 룰이 입력의 종류에 따르며 입력의 종류에 대응하는 응답의 분류에 따라, 소정 종류의 응답을 제외하는 응답을 생성하는 룰 이도록 한다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 데 대하여, 음성에 따라 음성에 의한 입력의 종류를 식별하는 발화분류처리를 기록하도록 하고, 응답생성 룰은 입력의 종류에 따라 입력의 종류에 대응하는 응답의 분류에 따라, 소정 종류의 응답을 제외하는 응답을 생성하는 룰 이도록 한다.
또, 정보처리방법에 적용하여, 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 정보처리수순에 대하여, 음성에 따라 음성에 의한 입력의 종류를 식별하도록 하고, 응답생성 룰이 입력의 종류에 따르며 입력의 종류에 대응하는 응답의 분류에 따라, 소정 종류의 응답을 제외하는 응답을 생성하는 룰이도록 한다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 최소한 음성인식결과와 대응하는 감정 파라미터에 의한 이력을 기록하는 이력기록수단을 가지도록 하고, 음성인식결과에 대한 감정 파라미터의 변화를 이력에 따라 변화시키도록 한다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 최소한 음성인식결과와 대응하는 감정 파라미터에 의한 이력을 기록하는 이력기록처리가 기록되어 이루어지도록 하고, 음성인식결과에 대한 감정 파라미터의 변화를 이력에 따라 변화시키도록 한다.
또, 정보처리방법에 적용하여, 최소한 음성인식결과와 대응하는 감정 파라미터에 의한 이력을 기록하는 이력기록수단을 가지도록 하고, 음성인식결과에 대한 감정 파라미터의 변화를 이력에 따라 변화시키도록 한다.
정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 소정의 인식 룰에 따라 음성인식결과를 출력하는 음성인식수단과, 소정의 감정 파라미터 생성 룰에 따라, 최소한 음성인식결과와 시간경과에 의해 변화되는, 의사적으로 감정을 나타내는 감정 파라미터를 생성하는 감정생성수단과, 최소한 감정 파라미터를 기준으로 한 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 응답생성수단에 관한 것이며, 소정의 네트워크에 접속하여, 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰의 갱신처리를 실행하는 통신수단, 또는 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰에 필요한 데이터의 갱신처리를 실행하는 통신수단을 가지도록 하면, 이 통신수단에 의해 응답의 생성에 필요한 각종 데이터를 송출할 수 있다. 따라서, 이 네트워크에 접속된 동종의 기기(機器)에 있어서, 이 정보처리장치 등에서의 음성입력에 대한 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 마치 전자페트를 외부의 기기로 데리고 나간 것 같이 취급할 수 있어, 동물의 페트를 실제로 사육하고 있는 경우와 같이 전자페트를 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 소정의 네트워크에 접속하여, 최소한 감정 파라미터 또는 감정 파라미터의 생성에 필요한 데이터를 취득하는 통신수단을 가지도록 하고, 응답생성수단이 이 통신수단에 의해 취득한 감정 파라미터에 의한 응답, 또는 통신수단에 의해 취득한 데이터로부터 생성된 감정파라미터에 의한 응답을 출력하면, 네트워크에 접속된 동종의 기기에서의 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 마치 이 네트워크에 접속된 동종의 기기로부터 전자페트를 데리고 나간 것같이 취급할 수 있어, 동물의 페트를 실제로 사육하고 있는 경우와 같이 전자페트를 친밀해지기 쉬운 것으로 할 수 있다. 또, 필요에 따라 판별 가능한 단어를 증대시키는 등에 의해 지식을 증대시킬 수도 있다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 소정의 네트워크에 접속하고, 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰의 갱신처리를 실행하는 통신처리, 또는 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰에 필요한 데이터의 갱신처리를 실행하는 통신처리가 기록되어 이루어지도록 하면, 네트워크에 접속된 동종의 기기에서, 이 기록매체에 의한 처리수순을 실행하는 장치의 음성입력에 대한 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 마치 전자페트를 외부의 기기로 데리고 나간 것 같이 취급할 수 있어, 동물의 페트를 실제로 사육하고 있는 경우와 같이 전자페트를 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 소정의 네트워크에 접속하고, 최소한 감정 파라미터 또는 감정 파라미터의 생성에 필요한 데이터를 취득하는 통신처리가 기록되고, 응답생성처리가, 통신처리에 의해 취득된 감정 파라미터에 의한 응답, 또는 통신처리에 의해 취득된 데이터로부터 생성된 감정 파라미터에 의한 응답을 출력하는 처리이도록 하면, 이 기록매체에 의한 처리수순을 실행하는 장치에서, 네트워크에 접속된 동종 기기의 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 동물의 페트를 실제로 사육하고 있는 경우와 같이, 마치 이 네트워크에 접속된 동종의 기기로부터 전자페트를 데리고 나간 것 같이 취급할 수 있어, 전자페트를 친밀해지기 쉬운 것으로 할 수 있다. 또, 필요에 따라 판별 가능한 단어를 증대시키는 등에 의해 지식을 증대시킬 수도 있다.
또, 정보처리방법에 적용하여, 소정의 네트워크에 접속하고, 인식 룰, 감정 파라미터 생성 룰 또는 응답생성 룰의 갱신처리를 실행하는 통신처리, 또는 인식 룰, 감정 파라미터 생성 룰 또는 응답 생성 룰에 필요한 데이터의 갱신처리를 실행하는 통신처리를 가지도록 하면, 네트워크에 접속된 기기에서, 이 정보처리방법을 실행하는 장치의 음성입력에 대한 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 동물의 페트를 실제로 사육하고 있는 경우와 같이, 마치 전자페트를 외부의 기기로 데리고 나간 것 같이 취급할 수 있어, 전자페트를 친밀해지기 쉬운 것으 로 할 수 있다.
또, 정보처리방법에 적용하여, 소정의 네트워크에 접속하고, 최소한 감정 파라미터 또는 감정 파라미터의 생성에 필요한 데이터를 취득하는 통신처리를 가지도록 하고, 응답생성처리가 통신처리에 의해 취득된 감정 파라미터에 의한 응답, 또는 통신처리에 의해 취득된 데이터로부터 생성된 감정 파라미터에 의한 응답을 출력하는 처리이도록 하면, 이 정보처리방법을 실행하는 장치에서, 네트워크에 접속된 동종 기기의 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 동물의 페트를 실제로 사육하고 있는 경우와 같이, 마치 이 네트워크에 접속된 동종의 기기로부터 전자페트를 데리고 나간 것 같이 취급할 수 있다. 또, 필요에 따라 판별 가능한 단어의 증대 등에 의해 지식을 증대시킬 수도 있다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 등록의 동작 모드에 있어서, 음성인식결과에 따라 최소한 데이터 베이스에 단어의 음성인식결과를 등록함으로써, 음성에 의해 데이터 베이스를 변경 가능한 등록수단을 구비하도록 하면, 음성에 의해 전자페트가 인식 가능한 어휘를 간단히 늘릴 수 있다. 이에 따라, 실제로 사육하고 있는 동물의 페트에게 예의 범절을 가르치도록 전자페트를 취급할 수 있어, 전자페트를 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 등록의 동작 모드에 있어서, 음성인식결과에 따라 최소한 데이터 베이스에 단어의 음성인식결과를 등록함으로써, 음성에 의해 데이터 베이스를 변경 가능한 등록처리를 기록하도록 하면, 이 기록매체에 의한 처리수순을 실행하는 장치에서, 전자페트가 인식 가능한 어휘를 음성에 의해 간단히 늘릴 수 있다. 이에 따라, 실제로 사육하고 있는 동물의 페트에게 예의 범절을 가르치도록 전자페트를 취급할 수 있어, 전자페트를 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리방법에 적용하여, 등록의 동작 모드에서, 음성인식결과에 따라 최소한 데이터 베이스에 단어의 음성인식결과를 등록함으로써, 최소한 음성에 의해 데이터 베이스를 변경 가능한 등록처리를 가지도록 하면, 이 정보처리방법의 실행에 의해, 전자페트가 인식 가능한 어휘를 음성에 의해 간단히 늘릴 수 있다. 이에 따라, 실제로 사육하고 있는 동물의 페트에게 예의 범절을 가르치도록 전자페트를 취급할 수 있어, 전자페트를 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 음성에 따라 사용자를 인증하는 사용자인증수단을 구비하도록 하고, 응답생성수단이 사용자인증수단의 인증결과에 의거하여, 음성입력자에 따라 응답을 상이하게 하도록 하면, 전자페트의 응답을, 예를 들면 사육주와 그 이외의 사람으로 상이하게 하도록 할 수 있다. 이에 따라, 동물의 페트와 같은 거동을 실현하여, 전자페트를 한층 신변에 친밀해지 쉬운 것으로 할 수 있다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 음성에 따라 사용자를 인증하는 사용자인증처리가 기록되고, 응답생성처리가 사용자인증처리의 인증결과에 의거하여, 음성입력자에 따라 응답을 상이하게 하도록 하면, 전자페트의 응답을, 예를 들면 사육주와 그 이외의 사람으로 상이하게 하도록 할 수 있고, 이에 따라, 동물의 페트와 같은 거동을 실현하여, 전자페트를 한층 신변에 친밀해지 쉬운 것으 로 할 수 있다.
또, 정보처리방법에 적용하여, 음성에 따라 사용자를 인증하는 사용자인증처리를 가지도록 하고, 응답생성처리가 사용자인증처리의 인증결과에 의거하여, 음성입력자에 따라 응답을 상이하게 하도록 하면, 전자페트의 응답을, 예를 들면 사육주와 그 이외의 사람으로 상이하게 하도록 할 수 있고, 이에 따라, 동물의 페트와 같은 거동을 실현할 수 있어, 전자페트를 한층 신변에 친밀해지 쉬운 것으로 할 수 있다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 데 대하여, 음성에 따라 음성에 의한 입력의 종류를 식별하는 발화분류수단을 구비하도록 하고, 응답생성 룰이 입력의 종류에 따르며 입력의 종류에 대응하는 응답의 분류에 따라, 소정 종류의 응답을 제외하는 응답을 생성하는 룰 이도록 하면, 예를 들면 질문에 대하여 되묻는 것 같은 부자연스러운 응답을 방지할 수 있다. 이에 따라 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 정보처리수순에 대하여, 음성에 따라 음성에 의한 입력의 종류를 식별하는 발화분류수단을 기록하도록 하고, 응답생성 룰이 입력의 종류에 따르며 입력의 종류에 대응하는 응답의 분류에 따라, 소정 종류의 응답을 제외하는 응답을 생성하는 룰이도록 하면, 예를 들면 질문에 대하여 되묻는 것 같은 부자연스러운 응답을 방지할 수 있다. 이에 따라 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리방법에 적용하여, 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성하는 정보처리하는 데 대하여, 음성에 따라 음성에 의한 입력의 종류를 식별하도록 하고, 응답생성 룰이 입력의 종류에 따르며 입력의 종류에 대응하는 응답의 분류에 따라, 소정 종류의 응답을 제외하는 응답을 생성하는 룰이도록 하면, 예를 들면 질문에 대하여 되묻는 것 같은 부자연스러운 응답을 방지할 수 있다. 이에 따라 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리장치, 휴대기기 또는 전자페트장치에 적용하여, 최소한 음성인식결과와 대응하는 감정 파라미터에 의한 이력을 기록하는 이력기록수단을 가지도록 하고, 음성인식결과에 대한 감정 파라미터의 변화를 이력에 따라 변화시키도록 하면, 예를 들면 빈번하게 발생되는 음성에 대하여 익숙해져, 친밀감 등의 감정이 깃든 응답을 형성할 수 있다. 이에 따라, 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리수순을 기록한 기록매체에 적용하여, 최소한 음성인식결과와 대응하는 감정 파라미터에 의한 이력을 기록하는 이력기록처리가 기록되어 이루어지도록 하고, 음성인식결과에 대한 감정 파라미터의 변화를 이력에 따라 변화시키도 록 하면, 예를 들면 빈번하게 발생되는 음성에 대하여 익숙해져, 친밀감 등의 감정이 깃든 응답을 형성할 수 있다. 이에 따라, 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또, 정보처리방법에 적용하여, 최소한 음성인식결과와 대응하는 감정 파라미터에 의한 이력을 기록하는 이력기록수단을 가지도록 하고, 음성인식결과에 대한 감정 파라미터의 변화를 이력에 따라 변화시키도록 해도, 예를 들면 빈번하게 발생되는 음성에 대하여 익숙해져, 친밀감 등의 감정이 깃든 응답을 형성할 수 있다. 이에 따라, 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
[실시예]
이하, 도면에 대하여, 본 발명의 한 실시형태를 상술한다.
(1) 제1 실시형태
(1-1) 제1 실시형태의 전체 구성
도 2는 본 발명의 제1 실시형태에 관한 전자페트장치를 나타낸 평면도이다. 이 전자페트장치(1)는 상단면에 인출 가능하게 안테나(2)가 배치되고, 정면 상부에 액정표시패널(3)이 배치된다. 전자페트장치(1)는 이 액정표시패널(3)에 전자페트의 모습, 전자페트로부터의 메시지가 표시되도록 되어 있다. 또, 전자페트장치(1)는 이 액정표시패널(3)의 하측에, 결정, 캔슬(cancel)의 조작자(4A 및 4B), 커서의 조작자(5)가 배치되고, 이들의 조작에 의해 동작 모드 등을 변환할 수 있도록 되어 있다.
또한, 전자페트장치(1)는 결정, 캔슬의 조작자(4A 및 4B)의 하측에, 스피커(6) 및 마이크(7)가 배치되고, 스피커(6) 및 마이크(7)를 사용하여 전자페트와 회화할 수 있도록 되어 있다. 또한, 전자페트장치(1)는 IC 카드(8)를 장착할 수 있도록 배면측에 소켓이 배치된다.
도 3은 이 전자페트장치(1)를 나타내는 블록도이다. 전자페트장치(1)에서, 아날로그디지털 변환회로(A/D)(10)는 도시하지 않은 증폭회로를 통해 마이크(7)로부터 얻어지는 음성신호를 입력하고, 이 음성신호를 아날로그디지털 변환처리하여 음성 데이터(DA)를 생성한다. 아날로그디지털 변환회로(10)는 이 음성 데이터(DA)를 중앙처리유닛(CPU)(11)으로 출력한다. 이에 따라, 전자페트장치(1)에서는 사용자의 음성을 중앙처리유닛(11)에 의해 해석할 수 있도록 되어 있다.
디지털아날로그 변환회로(D/A)(12)는 중앙처리유닛(11)으로부터 출력되는 음성 데이터(DB)를 디지털아날로그 변환회로처리하여 음성신호를 생성하고, 이 음성신호를 스피커(6)로부터 출력한다. 이에 따라, 전자페트장치(1)에서는 전자페트의 응답 등을 음성에 의해 확인할 수 있도록 되어 있다.
모니터 인터페이스(모니터 I/F)(13)는 중앙처리유닛(11)의 제어에 의해 버스를 통해 입력되는 화상 데이터(DV)에 의해 액정표시패널(3)을 구동하고, 이에 따라, 액정표시패널(3)에 전자페트의 화상을 표시한다.
키 인터페이스(키 I/F)(14)는 조작자(4A, 4B, 5)의 조작을 검출하여 중앙처리유닛(11)에 통지한다. 리드온리 메모리(read-only memory)(ROM)(15)는 중앙처리 유닛(11)의 처리 프로그램, 마이크(7)로부터 취득되는 음성의 해석에 필요한 각종 데이터 등을 격납하고, 중앙처리유닛(11)의 제어에 의해 이들 유지된 데이터를 출력한다. 랜덤액세스 메모리(random-access memory)(RAM)(16)는 중앙처리유닛(11)의 워크 에어리어를 구성하여, 중앙처리유닛(11)의 처리에 필요한 각종 데이터를 일시 유지한다.
네트워크 접속부(17)는 중앙처리유닛(11)의 제어에 의해 전화회선을 통해 소정의 네트워크(18)에 접속되고, 이 네트워크(18)와의 사이에서 여러가지의 데이터(DT)를 교환함으로써 필요에 따라 랜덤액세스 메모리(16)의 내용 등을 갱신하고, 또한 이 랜덤액세스 메모리(16)에 격납한 데이터를 네트워크를 통해 원하는 단말로 송출한다. 이에 따라, 전자페트장치(1)에서는 전자페트의 사육, 교육에 필요한 각종 데이터를 필요에 따라 취득할 수 있도록 되고, 또한 전자페트를 여러가지의 환경으로 데리고 나가고, 또 이와는 거꾸로 외부 기기의 전자페트를 사육할 수 있도록 되어 있다.
IC 카드(8)는 착탈 가능한 외부기억장치이며, 필요에 따라 랜덤액세스 메모리(16)의 내용 등을 갱신하고, 또한 이 랜덤액세스 메모리(16)에 격납한 데이터를 기록한다. 이에 따라, 전자페트장치(1)에서는, IC 카드(8)를 다른 기기 간에 교환하여 각종 데이터를 주고 받음으로써, 전자페트의 사육, 교육에 필요한 각종 데이터를 필요에 따라 취득할 수 있도록 되고, 또한 전자페트를 여러가지의 환경으로 데리고 나가고, 또 이와는 거꾸로 외부 기기의 전자페트를 사육할 수 있도록 되어 있다.
도 1은 이들 전자페트장치(1)에 관한 기본적인 구성을 기능 블록에 의해 나타낸 블록도이다. 그리고, 이 도 1에 나타낸 기능 블록에서, 직사각형 형상에 의해 에워싸고 나타낸 기능 블록은 중앙처리유닛(11)이 리드온리 메모리(15)에 기록된 처리 프로그램을 실행하여 형성되는 기능 블록이며, 자기 디스크의 심볼에 의해 나타낸 기능 블록은 리드온리 메모리(15), 랜덤액세스 메모리(16), IC 카드(8)에 의해 형성되는 기능 블록이다.
이 전자페트장치(1)에서, 음성인식부(11A)는 소정의 인식 룰에 따라 음성 데이터(DA)를 음성인식 처리하고, 그 음성인식결과를 출력한다. 즉, 음성인식부(11A)는 HMM(Hidden Marcov Model)법에 의해 순차 입력되는 음성 데이터(DA)에 의한 음성을 음운에 의해 구획하고, 이 음운의 열에 의해 인식 데이터(16A)를 참조한다. 음성인식부(11A)는 이 참조 결과에 따라 음성데이터(DA)에 의한 단어, 문언(文言)이 사전(事前)에 등록된 단어, 문언의 경우, 이들 단어, 문언에 의한 텍스트 데이터를 인식 결과로서 출력한다. 이렇게 하는 데 대하여, 인식 데이터(16A)는 단어, 문언의 텍스트 데이터와 대응하는 음운의 열이 쌍을 형성하도록 하여 기록된 데이터 베이스이다. 이에 따라, 전자페트장치(1)는, 예를 들면, 사용자가 「좋은 아이구나」라고 마이크(7)로 향해 말했을 때, 이 음성을 인식하여 「좋은 아이구나」라고 하는 내용의 텍스트 문자열로 변환하고, 이들에 의해 음성에 의한 입력을 문자열에 의한 입력으로 변환하여 처리하도록 되어 있다.
타이머(11B)는 일정한 시간 간격에 의해 신체상태 변경부(11C) 및 감정변경부(11D) 등을 기동한다.
신체상태 변경부(11C)는 음성인식결과에 의해, 또 이 타이머(11B)의 기동에 의해, 신체상태 데이터(16B)를 갱신한다. 여기에서, 신체상태 데이터(16B)에는 현재의 전자페트의 신체상태를 나타내는 변수가 기록되도록 되어 있다. 그리고, 이 실시형태에서, 신체상태(16B)에는 도 4에 나타낸 바와 같이, 현재의 신체상태를 「피로」, 「허기」, 「갈증」, 「병」, 「졸음」의 5개 요소에 의해 분류하고, 각 요소에 할당한 값이 클수록, 신체상태에 차지하는 각 요소가 커지도록 되어 있다. 따라서, 도 4에 나타낸 예에서는, 현재 피로해 있고, 허기도 심하게 된다.
신체상태 변경부(11C)는 타이머(11B)의 기동에 의해 신체상태 데이터(16B)를 갱신하는 경우, 실제의 페트를 사용하는 경우의 일반적인 예에 따른 소정의 룰에 의해, 예를 들면, 「허기」, 「갈증」, 「졸음」의 변수를 순차 증대시키고, 이에 따라 시간이 경과하면 전자페트가 공복이 되도록 한다. 또, 음성인식결과에 의해 신체상태 데이터(16B)를 갱신하는 경우, 예를 들면 음성인식결과에 의해 음식물이 주어진 경우, 「허기」의 변수를 저감시키고, 또 음성인식결과에 의해 음료가 주어진 경우,「갈증」의 변수를 저감시킨다. 또한, 음성인식결과에 의해 사용자와 노는 경우에는, 서서히 「피로」의 변수를 증대시키고, 사용자에 의해 수면이 지시되면 타이머와의 연동에 의해 「졸음」의 변수를 서서히 저감한다.
감정변경부(11D)는 음성인식결과에 의해, 또 타이머(11B)의 기동에 의해, 현재의 감정 데이터(16C)를 갱신한다. 여기에서, 현재의 감정 데이터(16C)에는, 현재의 전자페트에 대하여, 의사적으로 감정을 나타내는 변수(의사감정 파라미터)가 기록되도록 되어 있다. 그리고, 이 실시형태에서는, 도 5에 나타낸 바와 같이, 현재 의 감정을 「분노」, 「슬픔」, 「기쁨」, 「두려움」, 「놀람」, 「혐오」의 6개 요소에 의해 나타내고, 각 요소에 할당한 값이 클수록, 현재의 감정을 나타내도록 되어 있다. 따라서, 도 5에 나타낸 예에서는, 현재 전자페트는 기쁨과 분노에 넘쳐있게 된다.
감정변경부(11D)는 실제의 페트를 사육하는 경우의 일반적인 예에 따른 감정 파라미터 생성 룰에 따라 이 감정 데이터(16C)를 갱신한다. 즉, 감정변경부(11D)는 타이머(11B)의 기동에 의해 감정 데이터(16C)를 갱신하는 경우, 이들 「분노」, 「슬픔」, 「기쁨」, 「두려움」, 「놀람」, 「혐오」의 6개 요소가 서서히 소정의 기준값에 근접하도록 각 요소의 변수를 갱신하고, 이에 따라 도 5에 나타낸 경우에서는, 「분노」, 「슬픔」 등의 감정이 서서히 수습되도록 한다.
이에 대하여, 감정변경부(11D)는 음성인식결과에 의해 감정 데이터(16C)를 갱신하는 경우, 음성인식결과에 의해 성격 데이터(16D)를 검색하고, 이 검색 결과에 따라 감정 데이터(16C)를 갱신한다.
여기에서, 성격 데이터(16D)는 도 6에 나타낸 바와 같이, 음성인식결과에 포함되는 문언을 키워드로 하여 감정 데이터(16C)의 값을 변경하는 데이터가 할당되어 형성되도록 되어 있다. 그리고, 도 6에서는, 예를 들면 사용자가 발생한 음성에 「좋다」라고 말하는 문언이 포함되어 있는 경우, 「분노」, 「슬픔」, 「기쁨」, 「두려움」, 「놀람」, 「혐오」의 각 변수를 값 -1, +2, +20, -5, +5, -1만큼 변경하는 취지, 「좋다」의 키워드에 대하여 감정 데이터(16C)의 값을 변경하는 데이터가 할당되어 있게 된다.
이에 따라, 감정변경부(11D)는, 예를 들면 사용자가 「좋은 아이구나」라고 발성한 경우, 도 5에 대하여 전술한 감정 데이터를 도 7에 나타내도록 갱신하게 된다. 이에 따라, 감정변경부(11D)는 소정의 감정 파라미터 생성 룰에 따라, 최소한 음성인식결과와 시간 경과에 따라 변화되는, 의사적으로 감정을 나타내는 의사감정 파라미터를 생성하는 감정생성수단을 구성한다.
응답문 작성부(11E)는 감정 데이터를 기준으로 한 소정의 응답생성 룰에 따라, 음성인식결과에 대응하는 응답을 생성한다. 패턴 데이터(16E)는 이 응답을 생성하는 룰의 집합이다. 여기에서, 이들의 룰은 도 8에 나타낸 바와 같이, 각각 음성인식결과에 포함되는 단어를 키 프레이즈에 대하여, 각 키 프레이즈가 음성 입력된 경우에는 어떠한 응답을 나타내는가가 각각 기술되어 형성된다. 또, 이 때 키 프레이즈에 따라서는, 감정 데이터(16C), 신체상태 데이터(16B)에 따라 상이한 응답을 나타내도록 기술된다. 그리고, 이 도 8에서는, 설명을 간략화하기 위해, 필요 최저한도의 룰을 나타내고, 실제의 룰에서는, 이 도 8에 나타낸 조건 이외(후술하는 속성 등)의 조건이 기술된다. 그리고, 신체상태 데이터(16B)에 대해서도, 이 도 8의 룰 2와 같이 신체상태 데이터(16B)만의 조건에 의해, 또 감정 데이터(16C)와의 조합에 의해 룰이 기술된다. 즉, 도 8에서의 룰 1에서는, 「사랑하고 있어」 또는 「네가 좋아」라는 문언이 입력된 경우에는, 사용자 인증된 음성입력에 대해서는 「나도 사랑하고 있어」 또는 「와, 나, 나는 수컷인데」의 문언을 무작위로 출력하는 것을, 또 사용자 인증되어 있지 않은 음성입력에 대해서는 「이상한 사람」 또는 「당신은 누구?」의 문언을 무작위로 출력하는 것을 나타내고 있다. 또, 룰 2 에서는, 「안녕하세요」 또는 「헬로」라는 문언이 입력된 경우에는, 감정 데이터의 각 요소 「분노」, 「슬픔」, 「기쁨」, 「두려움」, 「놀람」, 「혐오」에 따라 각각 할당된 「시끄럽구나」, 「뭐라고?」, 「안녕」, 「와아 놀랐다」, 「어머 참」, 「불렀어?」의 문언 중에서, 가장 값이 큰 변수가 일정값을 초과하고 있는 경우에, 이 변수에 대응하는 문언을 선택적으로 출력하는 것을 나타내고 있다.
그리고, 여기에서 도 8에 나타낸 「authenticated (A) ; (B)」는 후술하는 사용자 인증 등에 의해 「TRUE」가 세트되어 있는 경우에는 (A)를, 「TRUE」가 세트되어 있지 않은 경우에는 (B)를 실행하는 뜻이며, 「random(“A ”, “B ”)」는 무작위로 A 또는 B를 실행하는 뜻이다.
이와 관련하여, 도 7에 대하여 전술한 감정 데이터에서는, 「기쁨」의 변수가 가장 값이 큼에 따라, 룰 2에서는 기쁨에 대응하는 응답 「안녕」이 선택되게 된다.
또한, 응답문 작성부(11E)는 이와 같은 감정 데이터(16C)에 의한 응답과 동일하게 하여, 키 프레이즈에 따라서는 신체상태 데이터(16B)에 따라, 또한 감정 데이터(16C) 및 신체상태 데이터(16B)에 따라 응답을 생성하고, 이에 따라 예를 들면 전자페트의 신체상태가 바람직하지 않은 경우에는, 상당한 응답을 생성하도록 되어 있다.
또, 응답문 작성부(11E)는 이와 같은 음성인식결과에 대한 응답을 대화이력(16F)에 기록하고, 필요에 따라 이 대화이력(16F)을 참고하여 응답을 생성하고, 이에 따라 사용자와의 사이의 부자연스러운 회화를 방지하도록 되어 있다. 또, 동 일하게 하여 지식(16G)을 참고로 해서 응답을 생성하고, 이에 따라 예를 들면 사용자에 의해 응답을 변환하여, 사용자 인증 등의 처리를 실행할 수 있도록 되어 있다.
음성합성부(11F)는 응답문 작성부(11E)로부터 출력되는 응답에 따라, 음성 데이터(16H)를 검색하고, 검색 결과로부터 응답에 대응하는 음색 데이터(DB)를 출력한다. 여기에서, 도 9에 나타낸 바와 같이, 음성 데이터(16H)는 각 응답에 대응하는 음성 파일이며, 예를 들면 「안녕」이라고 하는 응답문이 작성되었다고 하면 「voice0005.wav」라고 하는 음성 파일을 선택하고, 이 음성 파일에 의한 음성 데이터(DB)를 출력한다.
화상합성부(11G)는 응답문 작성부(11E)로부터 출력되는 응답에 따라, 화상 데이터(16I)를 검색하고, 검색 결과로부터 응답에 대응하는 음색 데이터(DV)를 출력한다. 여기에서, 도 10에 나타낸 바와 같이, 화상 데이터(16I)는 각 응답에 대응하는 화상 파일이며, 예를 들면 「안녕」이라고 하는 응답문이 작성되었다고 하면 「fig0005.bmp」라고 하는 비트 맵(bit map) 형성의 화상 파일을 선택하고, 이 화상 파일에 의한 화상 데이터(DV)를 출력한다.
(1-2) 네트워크와의 접속
중앙처리유닛(11)은 도 11에 나타낸 처리수순을 실행함으로써 네트워크 접속부(17)를 통해 네트워크(18)에 접속하고, 신체상태 데이터(16B), 감정 데이터(16C), 대화이력(16F)을 원하는 기기로 송출한다. 이에 따라, 이 전자페트장치(1)에서는, 이들의 데이터를 송출한 기기에서, 이 전자페트장치(1)에서의 전자페 트를 재현할 수 있도록 되어, 전자페트를 여러가지의 환경으로 데리고 나갈 수 있도록 되어 있다.
또, 이와는 거꾸로, 중앙 유닛(11)은 네트워크(18)로부터 신체상태 데이터(16B), 감정 데이터(16C), 대화이력(16F)을 취득하고, 이에 따라 다른 전자페트장치로 사유되고 있는 전자페트를 이 전자페트장치(1)로 데리고 나갈 수 있도록 되어 있다. 이 경우, 전자페트장치(1)에서, 이와 같이 하여 취득한 신체상태 데이터(16B), 감정 데이터(16C), 대화이력(16F)에 의한 처리에서는, 전술한 각 기능 블록이 각각 이 전자페트장치(1)에서 사육되고 있는 전자페트와, 외부의 기기에서 사육되고 있는 전자페트에 대하여, 동시 병렬적으로 전술한 처리를 실행함으로써, 마치 이 전자페트장치(1)에 외부로부터 다른 전자페트가 방문한 것처럼 응답을 작성한다. 그리고, 도 1에 나타낸 기능 블록에서는, 이와 같이 하여 취득한 신체상태 데이터(16B), 감정 데이터(16C), 대화이력(16F)에 의한 처리에 대해서는, 데이터의 흐름을 생략하고 나타냈다.
또한, 전자페트장치(1)는 인식 데이터(16A), 패턴 데이터(16E), 지식(16G), 음성 데이터(16H), 화상 데이터(16I)를 네트워크(18)로부터 취득하고, 이에 따라 음성인식 가능한 어휘를 증강하고, 또한 응답의 종류를 증대할 수 있도록 되어 있다. 이에 따라, 전자페트장치(1)는 이른바 전자페트를 양육하여 학습시킬 수 있도록 되어 있다.
즉, 중앙처리유닛(11)은 접속요구에 응동(應動)하여 스텝 SP1로부터 스텝 SP2로 이동하여, 이 접속요구를 접수한다. 그리고, 여기에서 접속요구는 타이 머(11B)에 의해 일정시간마다 정기적으로 발생되고, 또 사용자에 의한 조작자의 조작에 의해, 또한 네트워크(18)로부터의 부름에 의해 발생한다.
중앙처리유닛(11)은 계속해서 스텝 SP3으로 옮겨지고, 여기에서 소정의 회선접속처리를 실행하여 통신을 확립한다. 계속해서 중앙처리유닛(11)은 스텝 SP4로 이동하여, 접속요구의 내용에 따라 대응하는 각종 데이터를 송수한다. 계속해서 중앙처리유닛(11)은 스텝 SP5로 이동하여, 통신을 절단한 후, 스텝 SP6으로 이동하여 이 처리수순을 종료한다.
도 12는 이 데이터 전송의 포맷을 나타낸 도표이다. 전자페트장치(1)에서는 네트워크 접속부(17)에 배치된 인터페이스에 의해, 또 통화대상의 인터페이스에 의해, 이 포맷에 의해 전송에 기여하는 데이터가 송수된다. 여기에서 각 데이터(DT)에는, 헤더가 배치되고, 이 헤더 내에 각 데이터의 어드레스, 종류 등이 기술되고, 계속하여 전송에 기여하는 패턴 데이터(16E), 인식 데이터(16A), 음성 데이터(16H), 화상 데이터(16I) 등이 순차 필요에 따라 할당된다.
(1-3) 인식 데이터의 등록
도 13은 인식 데이터의 등록에 관해 전자페트장치(1)를 더욱 상세히 나타낸 기능 블록도이다. 이 기능 블록도에서, 등록부(11I)는 음성인식결과로부터 인식 데이터(16A)를 등록하고, 이에 따라 키 보드 등에 의해 단어를 입력하지 않아도 음성에 의해 여러가지의 단어를 전자페트에게 완전히 익히게 할 수 있도록 되어 있다.
그러므로, 음성인식부(11A)에서는 전술한 바와 같이, HMM법에 의해 음성 데이터(DA)를 처리하고, 이에 따라 음운열에 의한 인식결과를 출력한다. 즉, 음성인 식부(11A)는 일본어에 의한 음성을 음운에 의해 식별하고, 각 음운을 나타내는 식별자의 열에 의해 일본어의 발음을 기술한다. 여기에서 이들 식별자는, 「b」, 「d」, 「g」, 「p」, 「t」, 「k」, 「m」, 「n」, 「r」, 「z」, 「ch」, 「ts」, 「y」, 「w」, 「h」, 「i」, 「e」, 「a」, 「o」, 「u」, 「N」, 「ei」, 「ou」, 「s」, 「sh」, 「xy」, 「j」, 「f」, 「sil」에 의해 구성되고, 「sil」은 무음이다.
이에 따라 음성인식부(11A)는, 예를 들면 사용자가 「미캉(귤)」이라고 입력하면, 「sil m i k a N sil」의 식별자로 기술되는 음운열에 의해 음성입력을 인식한다. 그러므로, 음성인식부(11A)는 순차 입력되는 음성 데이터(DA)를 순차 처리하여 음운을 식별하는 동시에, 이 식별결과를 도 14에 나타낸 문법에 의해 처리하고, 이에 따라 식별자의 연속해서 이루어지는 음운열을 검출한다. 그리고, 이 도 14는 전술한 모든 음운의 접속을 허용하는 문법이다.
음운인식부(11A)는 보통의 동작 모드에서는, 이와 같이 하여 검출한 식별자의 열에 의해 인식 데이터(16A)를 검색하고, 이 검색결과로부터 단어, 문언의 텍스트 데이터에 의해 인식결과를 출력한다. 이에 따라 이 실시형태에서, 인식데이터(16A)에 미등록의 단어가 음성 입력된 경우, 대응하는 텍스트 데이터를 생성하는 것이 곤란하게 되어, 사용자의 질문에 바르게 응답하는 것이 곤란하게 된다.
그러므로, 이 실시형태에서, 전자페트장치(1)는 네트워크 접속부(17)를 통해 네트워크에 접속하여, 네트워크로부터 인식 데이터(16A)를 다운 로드하고, 이에 따라 전자페트를 학습시켜 사용자로부터의 여러가지의 질문에 응답할 수 있도록 되어 있다.
또한, 이 실시형태에서, 중앙처리유닛(11)은 조작자(4A, 4B)의 조작에 의해 등록 모드가 선택되면, 도 15에 나타낸 처리수순을 실행하고, 이에 따라 사용자가 음성에 의해 입력된 단어를 인식 데이터(16A)에 등록한다.
즉, 중앙처리유닛(11)은 조작자의 조작에 응동(應動)하여 스텝 SP11로부터 스텝 SP12로 이동하여 등록 모드로 들어간다. 계속해서, 중앙처리유닛(11)은 스텝 SP12로 이동하고, 화상합성부(11G)를 구동하여 액정표시패널(3)에 소정의 메시지를 표시하고, 이에 따라 사용자에게 단어의 발성을 독촉한다.
계속해서, 중앙처리유닛(11)은 스텝 SP14으로 이동하여, 순차 입력되는 음성 데이터(DA)를 순차 음운열에 의해 식별하여 음성 인식하고, 사용자가 소정의 조작자를 조작하여 음성입력의 종료를 지시하면 스텝 SP15로 이동한다.
여기에서 중앙처리유닛(11)은 음성인식결과인 음운열에 의해 음성합성부(11F)를 구동하여 사용자가 입력한 음성을 발성하고, 이에 따라 사용자에게 인식결과를 제시한다. 즉, 중앙처리유닛(11)은, 예를 들면 사용자가 「미캉」의 단어를 발생하고, 인식결과로서 「sil m i k a N sil」이 얻어지면, 이 경우 「미캉입니까?」라는 음성을 발생한다. 계속해서, 중앙처리유닛(11)은 스텝 SP16으로 이동하여, 확인의 조작자(4A) 또는 캔슬의 조작자(4B)의 조작을 검출함으로써, 확인의 입력을 접수한다.
계속해서, 중앙처리유닛(11)은 스텝 SP17로 이동하여, 캔슬의 조작자(4B)가 조작된 경우, 제시한 인식결과가 사용자에 의해 부정되었다고 판단하여 스텝 SP13 으로 되돌아가, 다시 음성입력을 접수한다. 이에 대하여 확인의 조작자(4A)가 사용자에 의해 조작된 경우, 사용자에 의해 인식결과가 긍정되었다고 판단하고, 스텝 SP18로 이동한다.
여기에서, 중앙처리유닛(11)은 계속해서 화상합성부(11G)를 구동하여 액정표시패널(3)에 소정의 메시지를 표시하고, 이에 따라 사용자에게 음성입력된 단어에 대하여, 속성(屬性)의 발성을 독촉한다. 여기에서, 속성은 단어에 의해 특정되는 대상을 분류하기 위한, 이 대상의 성질을 나타내는 키워드이며, 이 실시형태에서, 예를 들면 「미킹」은 속성이 「과일」로 분류된다.
계속해서, 중앙처리유닛(11)은 스텝 SP19로 이동하여, 순차 입력되는 음성 데이터(DA)를 순차 음운열에 의해 식별하여 음성인식하고, 사용자가 소정의 조작자를 조작하여 음성입력의 종료를 지시하면 스텝 SP20으로 이동한다.
여기에서 중앙처리유닛(11)은 음성인식결과인 음운열에 의해 음성합성부(11F)를 구동하여 사용자가 입력한 음성을 발성하고, 이에 따라 사용자에게 인식결과를 제시한다. 즉, 중앙처리유닛(11)은, 예를 들면 사용자가 「미캉」의 단어를 발생한 후, 속성으로서 「과일」을 입력하면, 이 경우 「과일입니까?」라는 음성을 발생한다. 계속해서, 중앙처리유닛(11)은 스텝 SP21로 이동하여, 확인의 조작자(4A) 또는 캔슬의 조작자(4B)의 조작을 검출함으로써, 확인의 입력을 접수한다.
계속해서, 중앙처리유닛(11)은 스텝 SP22로 이동하여, 캔슬의 조작자(4B)가 조작된 경우, 제시한 인식결과가 사용자에 의해 부정되었다고 판단하여 스텝 SP18으로 되돌아가, 속성에 대하여 다시 음성입력을 접수한다. 이에 대하여 확인의 조 작자(4A)가 사용자에 의해 조작된 경우, 사용자에 의해 인식결과가 긍정되었다고 판단하고, 스텝 SP23으로 이동한다.
여기에서, 중앙처리유닛(11)은 단어에 대해서는 인식데이터(16A)에 등록하고, 속성에 대해서는 지식(16G)에 등록한 후, 스텝 SP24로 이동하여 이 처리수순을 종료한다.
여기에서, 지식(16G)은 지식 데이터(16A)에 등록된 각 단어, 문언에 대하여, 과일, 음료 등의 분류를 나타내는 속성의 데이터가 기록되도록 되어 있다. 이에 따라, 중앙처리유닛(11)에서는, 패턴 데이터(16E)에 속성의 기술을 포함함으로써, 예를 들면 사용자에 대하여 「좋아하는 음식은 무엇입니까?」라고 질문하고, 이 질문에 대한 사용자로부터의 「미캉이 좋아」의 회답에 대하여, 「나는 미캉이 싫습니다」라는 응답을 발생할 수 있도록 되어 있다.
그리고, 지식(16G)은 이들 속성 외에, 전자페트장치(1)의 소유주인 사육주의 이름, 취미, 네트워크(18)로부터 가져오는 일기예보 등의 각종 데이터가 기록되고, 필요에 따라 이들 정보를 사용자와의 대화에 이용할 수 있도록 되어 있다. 즉, 예를 들면 사용자가 「오늘의 날씨는?」라고 질문한 경우, 「오늘」, 「날씨」를 키 프레이즈로 한 룰에 의해 「맑습니다」 등의 응답을 발생할 수 있도록 되어 있다.
또, 전자페트장치(1)에서는 이와 같이 하여 음성입력에 의해 인식 데이터(16A)를 등록한 후, 이 음성입력에 대응하는 올바른 텍스트(전술한 예에서는 「미캉」을 기술한 텍스트)가 존재하지 않음으로써, 인증결과인 텍스트 데이터에서, 대응하는 단어, 문언에 대해서는 음운열의 식별자인 알파벳의 표기(전술한 예에서 는 「sil m i k a N sil」의 표기)에 의해 이들 인식 데이터(16A)의 단어, 문언을 기술하여 처리하도록 되어 있다. 또, 네트워크(18)로부터의 다운로드에 의해 필요에 따라 이 텍스트를 보충하고, 보충한 후에는 음운열의 식별자에 대신하여 본래의 텍스트에 의해 인증결과를 처리하도록 되어 있다.
이에 따라, 전자페트장치(1)에서는 음성입력에 의해 등록된 단어, 문언에 의한 인식 데이터(16A)에 대해서도, 네트워크(18)로부터 다운로드한 단어, 문언에 의한 인식 데이터(16A), 사전에 등록되어 있는 단어, 문언에 의한 인식 데이터(16A)와 동일하게 처리하여 사용자와 대화할 수 있도록 되어 있다.
(1-4) 사용자 인증
도 16은 사용자 인증에 관해 전자페트장치(1)를 더욱 상세히 나타낸 기능 블록도이다. 이 기능 블록도에서, 인증 데이터(16K)는 사전의 설정에 의해 사용자명이 기록된다. 그리고, 이 기록은 음성인식결과에 의해, 또는 구입 시에 실행되는 초기설정처리에서의 외부기기로부터의 키보드 입력 등에 의해 실행된다.
응답문 작성부(11E)는, 예를 들면 도 17에 나타낸 패턴 데이터(16E)의 룰 1에 따라, 「어흥-」의 음성이 입력된 경우, 「당신은 정말 주인님?」이란 응답을 돌려준다.
음성인증부(11J)는 룰 2에 따라 「$USER」에 의해 정의되는 사전에 등록된 사용자명이 음성입력된 경우이며(myLast-Utter), 직전의 응답문 작성부(11E)에 의해 「당신은 정말 주인?」의 문언을 포함하는 응답이 이루어지고 있는 경우, 함수 「authenticated」에 의한 변수를 「TRUE」에 세트한다(set authenticated(TRUE)).
이렇게 하는 데 대하여 음성인증부(11J)는 음성인식결과로부터 인증 데이터(16K)를 검색하여, 이와 같은 조건이 만족되는 경우에, 음성입력한 사람이 사용자라고 인증하고, 인증상태(16J)를 사용자 인증한 상태로 세트한다. 또, 전술한 조건이 만족되지 않은 경우에는 인증상태(16J)를 사용자 인증되어 있지 않은 상태로 세트한다. 그리고, 이 경우에 있어서, 사용자 인증된 경우에는 룰 2에 따라 응답문 작성부(11E)에 의해 「아하, 주인님」이라는 응답이 발생되게 된다.
이에 따라, 전자페트장치(1)에서는, 음성에 따라, 사용자를 인증하는 동시에, 도 8에 대하여 전술한 룰 1과 같이 하여, 사육주와 그 이외의 사람에서 응답을 상이하게 할 수 있도록 되어, 예를 들면 사육주에게 특유의 거동을 나타내 실제의 페트에 가까운 거동을 나타내도록 되어 있다.
또, 이 음성에 의한 사용자 인증에 있어서, 사전에 등록한 단어의 유무에 의해, 음성에 따라 사용자를 인증하도록 되어 있다.
또한, 음성인증부(11J)는 도 18에 나타낸 바와 같이, 사용자 인증한 음성입력자와의 대화 중에서, 지식(16G)에 기록한 사용자의 기호(嗜好), 취미 등을 질문하는 응답의 출력을 응답문 작성부(11E)에 지시한다. 그리고, 도 18에서는, 「주인님이 좋아하는 음식은?」이라는 질문에 의해 사용자 인증한 음성입력자의 기호를 질문하고 있게 된다.
음성인증부(11J)는 도 17에 대하여 설명한 룰 2와 동일한 처리에 의해, 계속해서 사용자의 음성입력으로부터 기호의 질문에 대한 응답을 판단하고, 이 응답의 음성인식결과로부터 이 경우 「피넛」의 단어를 인증 데이터(16K)에 등록한다.
응답문 작성부(11E)는 음성입력자와의 대화 중에서, 타이머(11B)의 기동에 의해, 예를 들면 도 19에 나타낸 바와 같이, 인증 데이터(16K)에 등록한 기호, 취미 등에 관한 질문을 발생한다. 그리고, 이 도 19에 나타낸 예에서는, 도 18에 대하여 전술한 기호의 질문에 대응하여, 「당신 정말 주인님? 좋아하는 음식은」이라고 질문한 경우이다.
음성인증부(11J)에서는, 도 17에 대하여 설명한 룰 2와 동일한 처리에 의해, 계속해서 사용자의 음성입력으로부터 기호의 질문에 대한 응답을 판단하고, 이 경우 사육주에 있어서는 「피넛」의 응답이 얻어짐으로써, 이 응답의 음성인식결과로부터 인증상태를 「TRUE」로 세트한다. 또, 응답문 작성부(11E)에 있어서는, 「정말 주인님이다」라는 응답을 발생한다.
이에 따라, 전자페트장치(1)는 과거의 음성인식결과를 기준으로하여 음성인식결과를 판정함으로써, 음성에 따라 사용자를 인증하도록 되고, 더욱 상세하게는 과거의 음성인식결과에 대응하는 질문을 응답으로서 출력하고, 이 응답에 대한 음성인식결과를 판정하여 사용자 인증하도록 되어 있다.
또한, 음성인증부(11J)는 타이머(11B)에 의해 일정시간 이상 음성이 입력되지 않은 경우, 이 경우 사용자가 떠난 경우 등이므로, 인증상태를 리세트한다.
(1-5) 대화의 분류처리
도 20은 대화의 분류처리에 관해 전자페트장치(1)를 더욱 상세히 나타낸 기능 블록도이다. 이 기능 블록도에서, 발화분류부(11M)는 소정의 분류 룰(16M)에 따라, 음성인식결과를 식별함으로써, 음성입력에 의한 회화를 분류하고, 그 분류결과 인 분류 코드를 응답문 작성부(11E)에 출력한다.
여기에서, 발화분류부(11M)는, 예를 들면 「안녕하세요(아침 인사)」, 「안녕하세요(낮 인사)」등의 인사 일반의 음성입력에 대해서는, 「인사」로 분류한다. 또, 「컨디션은 어때」, 「 …는 좋아」 등 질문의 음성입력에 대해서는, 「질문」으로 분류하고, 「건강해」, 「시시해」등의 감상을 기술한 음성입력에 대해서는, 「감상」으로 분류한다.
응답문 작성부(11E)는 패턴 데이터(16E)에 따라 응답문을 작성할 때, 패턴(16E)에 기록된 응답문의 분류와, 이 발화분류부(11M)로 분류된 분류 패턴에 따라 응답을 작성한다. 또한, 이 때 필요에 따라 대화이력(16F)에 기록된 과거의 대화기록에 따라, 응답을 작성한다.
즉, 패턴 데이터(16E)에 있어서, 룰에 따라서는 도 8과의 대비에 의해 도 21에 나타낸 바와 같이, 각 응답문의 분류가 설정되도록 되어 있다. 그리고, 이 분류는 발화분류부(11M)에서의 분류에 대응하도록 설정된다.
이와 관련하여, 도 21의 룰 1에 있어서는, 「나도 사랑하고 있어」, 「와, 나, 나는 수컷인데」의 응답문에는 「상태」의 분류가 설정되고, 「이상한 사람」에는 「감상」, 「당신은 누구?」에는 「질문」의 분류가 설정되도록 되어 있다. 또, 룰 2에서는, 「시끄럽구나」에는 「감상」, 「뭐라고?」에는 「질문」, 「안녕」에는, 「인사」, 「아 놀랐다」에는 「감상」, 「어머 참」에는 「인사」, 「불렀어?」에는 「질문」의 분류가 설정되도록 되어 있다.
또한, 패턴 데이터(16E)에는 특정의 분류에 의한 회화의 연속을 금지하는 종 별 제약이 규정되도록 되어 있다. 구체적으로는, 사용자로부터의 질문에 대해서는 질문을 돌려주지 않도록, 종별 제약이 설정된다. 또, 「인사」, 「인사」의 주고받가가 계속된 경우에는, 계속해서 「인사」의 응답을 하지 않도록 종별 제약이 설정되도록 되어 있다(도 21의 경우).
이에 대하여, 대화이력(16F)은 도 22 및 도 23에 나타낸 바와 같이, 응답문 작성부(11E)에 의해 사용자와 전자페트와의 대화가 기록되도록 되어 있다. 여기에서 이 기록은 음성을 발생한 행위자, 그 음성의 분류, 음성의 내용이 기록되도록 되어 있다. 도 22의 예에서는, 사용자에 의한 분류 「인사」의 「안녕하세요(곤니치와)」의 음성입력에 계속해서, 전자페트의 분류 「인사」의 「안녕하세요(도모)」의 응답을 하고, 계속해서 사용자에 의한 분류 「질문」의 「컨디션은 어때」, 전자페트에 의한 분류 「상태」의 「건강해」가 계속된 것이 기록되게 된다.
응답문 작성부(11E)는 패턴 데이터(16E)에 따라 감정 데이터(16C)에 의해 응답을 작성할 때, 이 제약조건에 따라 대화이력(16F)을 참조하여, 대화이력(16F)에 따라 응답을 작성한다. 즉, 응답문 작성부(11E)는 종별 제약에 해당하는 경우, 즉 도 21에서는, 직전에 「인사」의 주고받기가 계속된 경우, 예를 들면 기쁨의 변수가 가장 큰 경우라도 이 룰 2를 적용하지 않도록 한다. 또, 동일하게 하여 「질문」에는 「질문」을 돌려주지 않도록 한다.
이에 따라, 전자페트장치(1)에서는 「인사」에 대하여 「인사」를 돌려주는 제1 룰과, 여러가지의 질문에 대하여 「인사」를 돌려주는 제2 룰이 규정되어 있는 경우라도, 제2 및 제1 룰의 반복 적용에 의해, 사용자와의 사이에서 「인사」를 몇 번이나 반복하는 부자연스런운 회화를 방지하도록 되어 있다.
(1-6) 감정의 제어
도 24는 감정의 제어에 관해 전자페트장치(1)를 더욱 상세히 나타낸 기능 블록도이다. 이 기능 블록도에서, 감정변경부(11D)는 전술한 바와 같이 타이머(11B)의 기동에 의해, 또 음성인식결과에 포함되는 문언을 키워드로 한 성격 데이터(16D)의 검색에 의해 감정 데이터(16C)를 갱신한다.
이 처리에서 감정변경부(11D)는 도 25에 나타낸 바와 같이, 감정변화이력(16N)으로서, 감정 데이터(16C)를 구성하는 각 변수의 변화량, 음성인식결과로부터 검출하여 각 변수의 변화에 사용한 키워드, 음성인식결과에 의한 텍스트 데이터를 기록한다. 또한, 예를 들면 응답을 출력한 후 등의 소정의 타이밍으로, 이 감정변화이력(16N)을 검색하여, 특정의 키워드와 쌍으로 되는 소정의 단어가 빈번하게 사용되고 있는 경우, 도 6과의 대비에 의해 도 26에 나타낸 바와 같이, 이 단어를 키워드로서 성격 데이터(16D)에 등록하고, 이 단어가 단독으로 입력된 경우 등에 있어도, 동일하게 각 변수를 변화시킬 수 있도록 한다.
즉, 감정변경부(11D)는, 예를 들면 변수를 변화시키는 키워드인 「더럽다」의 단어와, 「카레빵」의 단어가 쌍으로 되어 빈번하게 사용되고, 그 사용빈도가 소정값 이상으로 되면, 「카레빵」의 단어을 키워드로서 성격 데이터(16D)에 등록한다. 또, 이 때 이 「카레빵」에 의해, 「더럽다」의 단어가 입력된 경우와 동일하게 각 변수를 변화시키도록, 각 변수의 변화량을 설정한다.
이에 따라, 전자페트장치(1)는 이른바 연상(聯想)에 의해 특정의 감정이 생 기도록 설정되고, 이 감정에 의한 응답을 발생할 수 있도록 되어 있다.
또한, 감정변경부(11D)는 이와 같이 하여 소정의 타이밍으로 감정변화이력을 검색할 때, 아울러 변수의 변화에 사용하는 각 키워드의 사용빈도를 검출한다. 여기에서, 일정한 빈도 이상으로 특정의 키워드가 사용되고 있는 경우, 감정변경부(11D)는 도 6과의 대비에 의해 도 27에 나타낸 바와 같이, 이 키워드에 의한 변수의 변화량을 저감한다. 그리고, 도 27에서는 「더럽다」의 키워드가 빈번하게 사용된 결과, 이 「더럽다」의 키워드에 의한 변수의 변화량을 저감한 경우이며, 「분노」, 「슬픔」, 「기쁨」, 「두려움」, 「놀람」, 「혐오」의 6개 요소에 대하여, 각각 변화량을 -1, -1, +2, +1, -1, -4만큼 변화시킨 경우이다.
이에 따라, 전자페트장치(1)에서는 이른바 익숙해짐의 감각을 형성할 수 있도록 되어 있다.
또한, 감정변경부(11D)는 이와 같이 하여 성격 데이터(16D)에 가한 단어의 음성입력빈도가 저하된 경우, 이 단어를 성격 데이터(16D)로부터 소거한다. 또, 마찬가지로, 변수의 변화량을 변경한 단어에 대하여, 음성입력빈도가 저하된 경우 서서히 원래의 변화량으로 되돌아간다.
이에 따라, 전자페트장치(1)에서는, 이른바 망각상황을 만들어 낼 수 있도록 되어 있다.
(1-7) 제1 실시형태의 동작
이상의 구성에 있어서, 전자페트장치(1)는(도 1~도 3) 사용자가 마이크(7)로부터 음성을 입력하면, 중앙처리유닛(11)의 처리에 의해 구성되는 기능 블록인 음 성인식부(11A)에서, HMM법에 의해 이 음성이 음성인식처리된다. 이 음성인식처리에서, 음성은 음운열로 변환된 후, 인식 데이터(16A)와의 조합(照合)에 의해 텍스트 데이터로 변환된다.
전자페트장치(1)에서는, 이와 같이 하여 생성된 음성인식결과인 텍스트 데이터가 신체상태 변경부(11C)에 입력되고, 여기에서 이 신체상태 변경부(11C)에 의해 현재의 신체상태를 나타내는 5개의 요소 「피로」, 「허기」, 「갈증」, 「병」, 「졸음」(도 4)에 의해 구성되는 신체상태 데이터(16B)가 음성에 포함되는 단어에 따라 변경된다. 즉, 예를 들면 음성인식결과에 의해 음식물이 주어진 경우, 「허기」의 변수가 저감되고, 또 음성인식결과에 의해 음료가 주어진 경우, 「갈증」의 변수가 저감된다.
이에 따라, 전자페트장치(1)에서는 사용자의 음성입력에 의해 신체상태가 변화되도록 되어 있다. 또한, 타이머(11B)를 기준으로 한 신체상태 변경부(11C)의 처리에 따라서도, 이들 5개의 요소에 서서히 변경이 가해진다. 이에 따라, 전자페트장치(1)에서는, 이들 5개의 요소에 의한 신체상태가 사용자로부터의 음성입력에 의해, 또 시간 경과에 따라 변화하고, 이 5개의 요소를 기준으로 하여 음성입력에 대하여 응답을 생성함으로써, 사용자의 음성에 대한 응답에 전자페트의 신체상태가 반영되도록 되어 있다.
이와는 별도로, 음성인식결과는 감정변경부(11D)에 주어지고, 여기에서 이 음성인식결과에 포함되는 단어에 따라 현재의 감정 데이터(16C)가 변경된다(도 5). 여기에서 이 감정 데이터(16C)의 변경에 있어서는, 감정을 변화시키는 키워드와, 이 키워드에 대하여 감정의 변화를 기술한 성격 데이터(16D)에 따라(도 6), 감정을 나타내는 6개의 요소 「분노」,「슬픔」, 「기쁨」, 「두려움」, 「놀람」, 「혐오」에 의한 변수가 음성에 포함되는 감정을 변화시키는 단어에 따라 갱신되고, 이에 따라 이들 6개의 변수에 의해 감정이 표시되고, 이 감정이 사용자의 질문에 따라 변화된다.
이에 따라, 전자페트장치(1)에서는 사용자의 음성입력에 따라 전자페트의 감정이 변화하도록 되어 있다. 또, 전자페트장치(1)에서는 앞의 신체상태 데이터(16B), 이 감정 데이터(16C)를 참고로 하여 음성인식결과에 따라 응답을 작성함으로써, 전자페트의 반응에 전자페트의 신체상태, 감정이 반영된다.
즉, 전자페트장치(1)에서 음성인식결과는 응답문 작성부(11E)에 입력되고, 이 응답문 작성부(11E)에서 패턴 데이터(16E)에 기술된 룰에 따라 음성인식결과에 대응하는 응답문이 작성된다(도 8). 즉, 전자페트장치(1)에서는 음성에 포함되는 키 프레이즈에 대하여 각각 응답문이 기술되어 패턴 데이터(16E)가 생성되어 있고, 응답문 작성부(11E)에서는 음성인식결과에 의해 패턴 데이터(16E)를 검색하여 대응하는 응답문을 출력한다.
전자페트장치(1)에서는, 이 응답문에 의한 응답에 대하여, 대응하는 음성에 의한 응답이 음성합성부(11F)에 의해 생성되어 스피커(6)로부터 출력되고(도 9), 또 동일하게 응답에 대응하는 화상이 화상합성부(11G)에 의해 작성되어 액정표시패널(3)에 표시되고(도 10), 이에 따라 사용자의 음성입력에 의한 응답이 음성 및 화상에 의해 제공된다.
이와 같이 하여 패턴 데이터(16E)에 의해 응답을 작성할 때, 패턴 데이터(16E)에서는 신체상태 데이터(16B), 감정 데이터(16C)에 따라 상이한 응답을 발생하도록 룰이 기술되고, 전자페트장치(1)에서는 이 룰에 따라 응답을 생성하고, 이에 따라 사용자에의 응답에 전자페트의 신체상태, 감정이 반영된다.
이와 같은 일련의 처리에 있어서, 전자페트장치(1)는 사용자가 소정의 조작자를 조작하면, 등록의 동작 모드로 변환되어, 인식 데이터(16A)에 의해 음성인식 가능한 단어, 문언이 음성입력에 의해 등록 가능하게 된다.
즉, 이 등록의 모드에 있어서, 전자페트장치(1)는(도 13 및 도 15) 사용자가 등록하는 단어 등의 음성을 음성입력하면, 보통의 동작 모드에서의 처리와 동일하게 하여 이 음성입력이 음운열로 변환되고(도 14), 이 음운열에 의한 음성이 음성합성부(11F)로부터 발성되고, 이 발성에 의해 사용자로부터의 확인이 얻어지면, 계속해서 앞서 입력된 단어 등의 속성에 대하여 음성입력이 접수된다.
이 속성의 음성입력에 있어서도, 전자페트장치(1)에서는 음성입력이 음운열로 변환되고, 이 음운열의 발성에 의해 사용자로부터의 확인이 얻어지면, 앞서 입력된 단어 등의 음운열이 인식 데이터(16A)에 등록되는 데 대하여, 이 인식 데이터(16A)에 대응하도록 하여 속성의 데이터가 지식(16G)으로서 등록된다.
이에 따라, 전자페트장치(1)에서는 키보드 등의 번잡한 조작에 의하지 않고도 음성에 의해 단어 등을 등록할 수 있어, 그만큼 사용하기 편리함을 향상시킬 수 있도록 되어 있다. 또, 실제로 동물의 페트에게 예의 범절을 가르치도록 전자페트를 취급하여 어휘를 증대시킬 수 있어, 그만큼 전자페트를 신변에 친밀해지기 쉬운 것으로 할 수 있도록 되어 있다.
이렇게 하는 데 대하여, 이와 같이 하여 등록된 단어 등에 있어서는, 보통의 음성인식처리에서는, 음성인식처리에서의 음운열에 의해 인식데이터(16A)가 검색되어 대응하는 텍스트 데이터에 의해 음성인식결과가 출력되는 데 대하여, 이 텍스트 데이터에 대신하여 음운열에 의해 표기된 텍스트 데이터가 출력되어 동일하게 응답문이 작성되고, 이 때, 지식(16G)에 기록된 속성에 따라 응답문이 작성되고, 이에 따라, 예를 들면 신체상태 데이터(16B)에 의한 공복 시, 음식물의 속성에 의한 질문에 대하여, 「먹는다」, 「원한다」 등의 응답을 발생하는 것이 가능하게 된다.
또, 이와 같이 하여 단어와 속성을 음성입력에 의해 등록하는 데 대하여, 단어와 속성을 구획하고, 각각 음성인식결과를 발성하여 확인을 얻음으로써, 간단히 또한 확실하게 음성입력에 의해 단어를 등록할 수 있다.
이에 대하여, 소정의 키워드(어흥-)를 사용자가 음성입력하면, 전자페트장치(1)에서는(도 16 및 도 17), 사전에 등록된 예를 들면, 사용자 등의 입력을 촉구하는 룰(1)에 의해 음성이 발성되고, 이 음성에 응답하는 사용자의 음성입력이 음성인식처리된다. 전자페트장치(1)에서는, 이 음성인식결과가 음성인증부(11J)에서 사전에 등록된, 예를 들면 사용자 등에 의한 인증 데이터(16K)와 조합(照合)되고, 여기에서 사용자로 인증되면 인증상태(16J)에 음성입력자가 사용자인 취지가 세트된다.
이에 따라, 전자페트장치(1)에서는 음성입력자가 사용자인 경우와 사용자가 아닌 경우로 구별되는 패턴 데이터(16E)에서의 룰의 기술에 따라(도 8, 룰 1), 응 답문 작성부(11E)에서 응답문을 작성할 때, 이 인증상태(16J)가 참조되고, 인증상태(16J)의 설정에 따라 상이한 응답이 작성된다.
이에 따라, 전자페트장치(1)에서는 동물의 페트와 같이, 사육주에 대해서만 특정의 거동을 나타내도록 응답하는 것이 가능하게 되어, 그만큼 전자페트를 친밀해지기 쉬운 것으로 할 수 있도록 되어 있다.
또한, 전자페트장치(1)에서는 타이머(11B)에 의해 음성인증부(11J)가 기동되어, 일정한 시간간격으로 사용자인증처리가 실행된다. 이 일정한 시간간격에 의한 사용자인증처리에서는, 지식(16G)에 기록한 사용자의 기호, 취미 등의 질문에 대한 응답에 의해 사용자인지 여부가 판단되고, 이에 따라 사용자 인증의 처리가 실행된다(도 18 및 도 19).
이에 따라, 전자페트장치(1)에서는 회화의 도중이라도 필요에 따라 회화의 상대를 확인하여 사육주에 대해서만 특정의 거동을 나타내도록 응답을 작성하는 것이 가능하게 된다.
이와 같이 하여 사용자와 회화하는 데 대하여, 전자페트장치(1)에서는(도 20, 도 22 및 도 23) 발화분류 룰(16M)에 따라 발화분류부(11M)에 의해 음성입력에 의한 회화가 「인사」, 「질문」 등으로 분류된다. 또한, 사용자에 의한 음성입력에 대하여 응답을 작성할 때, 패턴 데이터(16E)에 기술된 종별 제약(도 21)에 의해, 예를 들면 사용자의 음성입력이 「질문」인 경우에는, 특정의 키 프레이즈에 의해 응답으로서 「질문」이 룰에 의해 특정되는 경우라도, 이 룰에 따라서는 응답을 생성하지 않도록 된다.
이에 따라, 전자페트장치(1)에서는 「질문」에 「질문」을 돌려주는 듯한 부자연스러운 회화가 방지된다.
또, 전자페트장치(1)에서는 연속되는 회화이 분류가 차례로 대화이력(16F)에 기록되고, 사용자에 의한 음성입력에 대하여 응답을 작성할 때, 이 대화이력(16F)에 기록된 분류를 참조하여 패턴 데이터(16E)에 기술된 종별 제약(도 21)에 따라 응답을 작성함으로써, 「인사」에 대하여 「인사」를 돌려주도록 룰이 설정되어 있는 경우라도, 예를 들면 전자페트장치에 의한 「인사」, 사용자에 의한 「인사」가 계속된 경우에는, 이 「인사」에 대하여 「인사」를 돌려주는 룰에 의해서는 응답을 생성하지 않도록 된다.
이에 따라서도 몇번이나 「인사」를 주고 받는 듯한 부자연스러운 회화가 방지되어, 전자페트를 친밀한 것으로 할 수 있다.
또한, 전자페트장치(1)에서는(도 24 및 도 25), 감정을 변화시키는 키워드가 동시에 사용된 단어, 키워드에 의한 감정의 변화와 함께 감정변화이력(16N)에 순차 기록된다. 전자페트장치(1)에서는, 일정한 시간간격 등에 의해 이 감정변화이력(16N)이 검사되고, 각 키워드에 대하여 동시에 사용되는 빈도가 높은 단어에 대해서는, 이 단어에 의해서도 감정이 변화하도록 성격 데이터(16D)에 이 단어가 기록된다(도 26).
이에 따라, 전자페트장치(1)에서는, 예를 들면 「더러운 카레빵」이란 프레이즈가 반복된 경우에는, 「카레빵」의 문언의 음성입력만으로, 「더러운」의 문언에 의한 음성이 입력된 경우와 동일하게 감정을 변화시켜 응답을 생성하게 된다.
이에 따라, 전자페트장치(1)에서는, 동물에 예를 들면 조건반사하도록, 또 인간에게 예를 들면 연상에 의해, 여러 가지로 감정을 변화시킬 수 있고, 또 이 감정의 변화를 응답에 변화시킬 수 있도록 되어 있다.
또한, 전자페트장치(1)에서는, 동일한 감정변화이력(16N)의 검사에 의해, 빈번하게 사용되고 있는 감정을 변화시키는 키워드에 대해서는, 감정의 변화량이 저감되도록(도 27), 성격 데이터(16D)가 갱신된다. 이에 따라, 이른바 익숙해짐의 상태를 형성하고, 이 익숙해짐의 상태를 응답에 반영시키는 것이 가능하게 된다.
이와 같이 하여 사용되는 전자페트장치(1)에서는, 사용자의 조작에 의해 네트워크 접속부(17)(도 1 및 도 2)를 통해, 네트워크(18)에 접속되어, 인식 데이터(16A), 지식(16G), 패턴 데이터(16E) 등의 음성인식처리, 응답생성처리에 필요한 룰인 이들의 데이터, 지식을 다운로드하는 것이 가능하게 된다. 이에 따라, 이들 인식 데이터(16A), 지식(16G)을 갱신하여, 한층 고도의 회화를 즐기는 것이 가능하게 된다. 또, 응답의 구체적인 출력인 음성 데이터(16H), 화상 데이터(16I)를 다운로드하여, 동일하게 응답의 표현을 향상할 수 있다.
또, 동일하게 하여 네트워크(18)를 통해 신체상태 데이터(16B), 감정 데이터(16C), 대화이력(16F)을 원하는 기기에 송출할 수 있도록 되고, 이에 따라 이들의 데이터를 송출한 기기에서, 이 전자페트장치(1)에서의 전자페트를 재현할 수 있도록 되어, 전자페트를 여러가지의 환경으로 데리고 나가는 것이 가능하게 된다.
또, 이와는 거꾸로, 네트워크(18)로부터 신체상태 데이터(16B), 감정 데이터(16C), 대화이력(16F)을 취득하고, 이에 따라 마치 이 전자페트장치(1)에 외부로 부터 다른 전자페트가 방문한 것처럼 응답을 작성하여, 다른 전자페트장치에서 사육되고 있는 전자페트를 이 전자페트장치(1)로 데리고 나갈 수 있도록 되어 있다.
1. 제1 실시형태의 효과
이상의 구성에 의하면, 음성인식처리의 룰인 인식 데이터, 응답생성의 룰인 패턴 데이터, 감정생성의 룰인 감정 데이터, 신체상태 데이터, 음성 데이터, 화상 데이터를 네트워크를 통해 갱신할 수 있도록 함으로써, 네트위크에 접속된 동종의 기기에서의 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 마치 이 네트워크에 접속된 동종의 기기로부터 전자페트를 데리고 나간 것처럼 취급할 수 있어, 동물의 페트를 실제로 사육하고 있는 경우와 같이 전자페트를 친밀해지기 쉬운 것으로 할 수 있다. 또, 필요에 따라 판별 가능한 단어를 증대시키는 등에 의해 지식을 지식을 증대시킬 수도 있다.
또, 정기적으로 네트워크에 접속하여 인식 데이터 등을 갱신함으로써, 사용자를 하등 번거롭게 하지 않고, 지식을 증대시킬 수 있다.
또, 이와는 거꾸로, 신체상태 데이터, 감정 데이터, 대화이력을 네트워크에 의해 송출함으로써, 이 네트워크에 접속된 동종의 기기에서, 이 정보처리장치 등에서의 음성입력에 대한 응답과 거의 동일한 응답을 생성할 수 있고, 이에 따라 마치 전자페트를 외부의 기기로 데리고 나간 것처럼 취급할 수 있어, 동물의 페트를 실제로 사육하고 있는 경우와 같이 전자페트를 친밀해지기 쉬운 것으로 할 수 있다.
또, 이들 데이터의 갱신, 데이터의 송출을 교환 가능한 기록매체인 IC 카드 를 통해 실행할 수 있도록 함으로써, 통신기능을 구비하지 않은 여러가지의 기기와의 사이에서도 이들의 처리를 실행할 수 있다.
또, 등록의 동작 모드에 있어서, 음성인식결과에 따라, 단어의 음성인식결과와 단어의 분류를 등록함으로써, 전자페트가 인식 가능한 어휘를 음성에 의해 간단히 늘릴 수 있다. 이에 따라, 실제로 사육하고 있는 동물의 페트에 예의 범절을 가르치도록 전자페트를 취급할 수 있어, 전자페트를 친밀해지기 쉬운 것으로 할 수 있다.
또, 이 때, 음성의 음운열에 의한 음성인식결과에 따라 단어의 음성인식결과와 분류를 기록함으로써, 단지 음성을 입력할 뿐으로 다른 조작을 조금도 필요로 하지 않고 등록할 수 있다.
또, 이 때, 보통의 처리에 있어서는, 음성인식결과를 텍스트 데이터로서 출력하고, 등록에 있어서는 음운열의 기술(記述)에 의해 등록함으로써, 룰 들의 기술을 간략화할 수 있다.
또, 단어와 속성을 구획하여 입력하고 등록을 접수함으로써, 간단히 이들의 등록처리를 실행할 수 있다.
또한 음성에 따른 사용자 인증의 인증결과에 의거하여, 음성입력자에 따라 응답을 상이하게 함으로써, 전자페트의 응답을 예를 들면 사육주와 그 이외의 사람으로 다르게 하도록 할 수 있다. 이에 따라, 동물의 페트와 같은 거동을 실현할 수 있어, 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또, 이 때, 과거의 음성인식결과를 기준으로 하여 음성인식결과를 판정하여 사용자를 인증함으로써, 예를 들면 패스워드 등의 입력을 요구하지 않고, 회화를 통해 사용자를 인증할 수 있어, 그만큼 사용하기 편리함을 향상할 수 있다.
또한, 이 때, 과거의 음성인식결과를 기준으로 한 질문에 대한 대답을 판정하여 사용자를 인증함에 따라서도, 또 소정의 단어의 발성에 의해 사용자를 인증함에 따라서도, 또 소정 단어의 발성에 의해 사용자를 인증함에 따라서도, 자연스러운 회화를 통해 사용자를 인증할 수 있어, 그만큼 사용하기 편리함을 향상할 수 있다.
또, 음성입력의 종류를 식별하는 동시에 입력의 종류에 대응하는 응답의 분류에 따라, 소정의 종류의 응답을 제외하는 응답을 생성함으로써, 예를 들면 질문에 대하여 질문을 돌려주는 부자연스러운 회화를 방지할 수 있다. 이에 따라, 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또, 이 때, 이 입력의 종류와 응답의 분류에 의한 이력을 참조하여 응답을 생성함으로써, 인사를 반복해서 주고받기하는 부자연스러운 회화를 방지할 수 있다. 이에 따라, 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신변에 친밀해지기 쉬운 것으로 할 수 있다.
또한, 음성인식결과와 대응하는 감정 파라미터에 의한 이력에 따라 감정 파라미터의 변화량을 변화시킴으로써, 예를 들면 빈번히 발생되는 음성에 대하여 익숙해짐, 친밀감 등의 감정이 깃든 응답을 형성할 수 있다. 이에 따라 전자페트의 응답을 자연스러운 생생한 것으로 할 수 있고, 이에 따라서도 전자페트를 한층 신 변에 친밀해지기 쉬운 것으로 할 수 있다.
즉, 감정을 자극하는 단어 이외의 단어가, 이 감정을 자극하는 단어를 동시에 빈번하게 사용하는 경우, 이 단어에 의해서도 감정 파라미터를 변화시킴으로써, 반복해서 쌍에 의해 사용되는 단어에도 감정을 변화시켜 응답할 수 있다.
또, 감정을 자극하는 단어 중의 소정 단어가 빈번하게 사용되는 경우,이 감정을 자극하는 단어에 의해 감정 파라미터의 변화량을 저감함으로써, 이른바 익숙해짐의 감정을 생성할 수 있다.
2. 다른 실시형태의 효과
그리고, 전술한 실시형태에서는, 네트워크에 접속하여 전자페트를 외출시키고, 또 외부기기의 전자페트의 응답을 출력하고, 또한 각종 룰 들을 학습시키는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 필요에 따라 이들 중 어느 하나의 처리만 실행하도록 해도 된다. 또, 정기적인 액세스, 사용자의 조작에 의한 액세스, 외부기기로부터의 호출에 의한 액세스 중 어느 하나에 의해 네트워크에 액세스하도록 해도 된다.
또, 전술한 실시형태에서는, 전화회선에 의해 네트워크에 접속하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 모뎀, 퍼스널 컴퓨터 등 다른 기기를 통해 네트워크에 접속하는 경우에도 널리 적용할 수 있다.
또한, 전술한 실시형태에서는, 인식 데이터, 패턴 데이터, 음성 데이터, 화상 데이터의 다운로드에 의해 이른바 전자페트를 학습시키는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 필요에 따라 이들 중 어느 하나의 데이터의 다운로드에 의해 학습시키도록 해도 된다. 또, 음성인식처리의 수법, 음성 데이터의 생성수법, 화상 데이터의 생성수법인 제어 프로그램 자체의 다운로드에 의해 이들의 생성수법 자체를 변경하도록 해도 되고, 또한 감정 데이터의 생성수법, 응답문 작성부의 처리 등에 대해서도 변경하도록 해도 된다.
또, 전술한 실시형태에서는, 전자페트를 외부의 기기로 데리고 나가는 데 대하여, 신체상태 데이터, 감정 데이터, 대화이력을 송출하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 필요에 따라 이들 중 어느 하나의 데이터의 송출에 의해 이 처리를 실행해도 되고, 또한 이들의 데이터에 더하여 예를 들면 지식 등을 송출하도록 해도 된다. 또, 이와 같은 데이터의 송출에 대신하여, 외부기기로부터의 음성인식결과의 입력에 대하여 응답을 송출하도록 해도 된다.
또, 전술한 실시형태에서는, 외부기기의 전자페트를 이 전자페트장치(1)로 데리고 나가는 데 대하여, 각종 데이터를 입력하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 전술한 각종 데이터 중 어느 하나의 데이터의 수신에 의해 이 처리를 실행해도 되고, 또한 이들 데이터에 더하여 예를 들면 지식 등을 수신하고 이들의 처리를 실행해도 된다. 또, 이와 같은 데이터를 수신한 내부처리에 대신하여, 외부기기에 대하여 음성인식결과를 출력하고, 외부기기로부터 응답을 입력하도록 해도 된다.
또, 전술한 실시형태에서는, 음성을 음운열에 의해 판정하여 음성을 인식하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 필요에 따라 여러가지의 음성인식수법을 널리 적용할 수 있다.
또, 전술한 실시형태에서는, 단어와 함께 속성에 대해서도 음성입력에 의해 등록하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 속성에 대해서는 조작자의 조작에 의해 선택 입력하도록 해도 된다. 이 경우, 사용자에게 메뉴의 선택을 촉구하는 방법 등이 고려된다.
또, 전술한 실시형태에서는, 음성입력에 의해 등록된 인증 데이터에 대해서는, 음운열에 의해 음성을 표기한 텍스트 데이터에 의해 음성인식결과를 출력하고, 일반의 음성인식결과에 대해서는 보통의 텍스트 데이터를 출력하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 일반의 음성인식결과에서도, 음운열에 의해 음성인식결과를 표시하도록 해도 된다.
또, 전술한 실시형태에서는, 사용자명, 사용자의 기호에 따라 사용자를 인증하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 예를 들면 말, 과거에 회화를 나눈 일시 등을 확인하여 사용자를 인증하는 경우 등, 과거의 음성인식결과에 의해 사용자를 인증하는 경우에 널리 적용할 수 있다.
또, 전술한 실시형태에서는, 사용자가 특정의 문언을 발성한 경우와, 일정한 주기로 사용자를 인증하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 필요에 따라 이들 중 어느 하나에 의해 사용자를 인증하도록 해도 된다.
또, 전술한 실시형태에서는, 음운열에 의한 음성인식처리에 있어서, 특정 단어의 발성을 확인하여 사용자를 인증하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 예를 들면 음성의 고저, 주파수 스펙트럼 등 음성의 특징을 나타내는 여러 가지의 특징량에 의해 사용자를 인증하여 전술한 실시형태와 동일한 효과를 얻을 수 있다.
또, 전술한 실시형태에서는, 전자페트의 응답을 예를 들면 사육주와 그 이외의 사람으로 상이하게 하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 더욱 상세하게 음성입력자를 식별하여, 예를 들면 가족과 가족 이외에 응답을 상이하게 하도록 해도 되고, 또한 가족의 개인이라도 응답을 상이하게 해도 된다.
또, 전술한 실시형태에서는, 입력의 종류와 응답의 분류에 의해, 단순히 질문에 대해서는 질문을 돌려주지 않도록 하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 예를 들면 감정에 따라서는 질문에 대하여 질문을 돌려주도록 해도 된다. 이 경우, 전자페트가 성질이 비뚤어져 있는 상황이 형성된다.
또, 전술한 실시형태에서는, 감정의 제어에 있어서, 성격 데이터를 조작하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고 성격 데이터의 조작에 대신하여 직접 감정 데이터를 조작하도록 해도 된다.
또, 전술한 실시형태에서는, 음성 데이터, 화상 데이터를 출력하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 음성합성, 화상합성에 의해 음성, 화상을 출력하도록 해도 된다.
또, 전술한 실시형태에서는, 중앙처리유닛의 처리에 의해 음성인식처리, 화상합성처리하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 도 3과의 대비에 의해 도 28에 나타낸 바와 같이, 음성인식처리, 화상합성처리를 전용의 처리회로에 의해 구성해도 된다.
또, 전술한 실시형태에서는, 응답으로서 음성 및 화상을 출력하는 전자페트장치에 본 발명을 적용하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 예를 들면 동물의 동작을 하는 로봇에 적용하여 울음소리와 동작에 의해 응답을 출력하는 전자페트장치 등, 여러가지의 형태에 의해 응답을 출력하는 전자페트장치에 널리 적용할 수 있다.
또, 전술한 실시형태에서는, 전자페트의 전용장치인 전자페트장치에 본 발명을 적용하는 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 도 2와의 대비에 의해 도 28에 나타낸 바와 같이, 휴대전화에 적용해도 되고, 또한 GPS, 휴대형의 테이프레코더, 광디스크장치 등, 여러가지의 휴대기기에 널리 적용할 수 있다. 또, 휴대기기에 한정되지 않고, 예를 들면 퍼스널 컴퓨터 등의 정보처리장치, 또한 이 퍼스널 컴퓨터 상에서 동작하는 각종 캐릭터 등에 적용할 수 있다.
본 발명은 엔터테인먼트 로봇에 이용할 수 있다.

Claims (13)

  1. 사용자의 음성을 입력하는 음성입력수단과,
    상기 음성입력수단으로부터 입력된 음성을 음성인식 처리하여 음성인식결과를 출력하는 음성인식수단과,
    소정의 응답생성 룰에 따라, 상기 음성인식결과에 대응하는 응답을 생성하는 응답생성수단과,
    상기 응답을 출력하는 응답출력수단과,
    상기 음성에 따라, 상기 사용자를 인증하는 사용자 인증수단을 구비하고,
    상기 응답생성수단은,
    상기 사용자 인증수단의 인증결과에 의거하여, 음성입력자에 따라 상기 응답을 상이하게 하는
    것을 특징으로 하는 정보처리장치.
  2. 제1항에 있어서,
    상기 사용자 인증수단은 과거의 음성인식결과를 기준으로 하여 상기 음성인식결과를 판정함으로써, 상기 음성에 따라 상기 사용자를 인증하는 것을 특징으로 하는 정보처리장치.
  3. 제2항에 있어서,
    상기 응답생성수단은 과거의 음성인식결과에 대응하는 질문을 상기 응답으로 하여 출력하고,
    상기 사용자 인증수단은 상기 질문의 응답에 대한 음성인식결과를 판정하여 사용자를 인증하는 것을 특징으로 하는 정보처리장치.
  4. 제2항에 있어서,
    상기 과거의 음성인식결과가 소정의 단어인 것을 특징으로 하는 정보처리장치.
  5. 제1항에 있어서,
    상기 사용자 인증수단은 상기 음성인식결과로부터 상기 음성의 특징을 나타내는 특징량을 검출하고, 상기 특징량에 따라 상기 사용자를 인증함으로써, 상기 음성에 따라 상기 사용자를 인증하는 것을 특징으로 하는 정보처리장치.
  6. 제1항에 있어서,
    소정의 의사감정 파라미터 생성 룰에 따라, 최소한 상기 음성인식결과와 시간경과에 의해 변화되는, 의사적으로 감정을 나타내는 의사감정 파라미터를 생성하는 감정생성수단을 가지고,
    상기 응답생성수단은,
    최소한 상기 의사감정 파라미터를 기준으로 하여 상기 응답생성 룰에 따라, 상기 음성인식결과에 대응하는 응답을 생성하는 것을 특징으로 하는 정보처리장치.
  7. 사용자의 음성을 입력하는 음성입력수단과,
    상기 음성입력수단으로부터 입력된 음성을 음성인식 처리하여 음성인식결과를 출력하는 음성인식수단과,
    소정의 응답생성 룰에 따라, 상기 음성인식결과에 대응하는 응답을 생성하는 응답생성수단과,
    상기 응답을 출력하는 응답출력수단과,
    상기 음성에 따라, 상기 사용자를 인증하는 사용자 인증수단을 구비하고,
    상기 응답생성수단은,
    상기 사용자 인증수단의 인증결과에 의거하여, 음성입력자에 따라 상기 응답을 상이하게 하는
    것을 특징으로 하는 전자페트장치.
  8. 제7항에 있어서,
    상기 사용자 인증수단은 과거의 음성인식결과를 기준으로 하여 상기 음성인식결과를 판정함으로써, 상기 음성에 따라 상기 사용자를 인증하는 것을 특징으로 하는 전자페트장치.
  9. 제8항에 있어서,
    상기 응답생성수단은 과거의 음성인식결과에 대응하는 질문을 상기 응답으로 하여 출력하고,
    상기 사용자 인증수단은 상기 질문의 응답에 대한 음성인식결과를 판정하여 사용자를 인증하는 것을 특징으로 하는 전자페트장치.
  10. 제8항에 있어서,
    상기 과거의 음성인식결과가 소정의 단어인 것을 특징으로 하는 전자페트장치.
  11. 제7항에 있어서,
    상기 사용자 인증수단은 상기 음성인식결과로부터 상기 음성의 특징을 나타내는 특징량을 검출하고, 상기 특징량에 따라 상기 사용자를 인증함으로써, 상기 음성에 따라 상기 사용자를 인증하는 것을 특징으로 하는 전자페트장치.
  12. 제7항에 있어서,
    소정의 의사감정 파라미터 생성 룰에 따라, 최소한 상기 음성인식결과와 시간경과에 의해 변화되는, 의사적으로 감정을 나타내는 의사감정 파라미터를 생성하는 감정생성수단을 가지고,
    상기 응답생성수단은,
    최소한 상기 의사감정 파라미터를 기준으로 하여 상기 응답생성 룰에 따라, 상기 음성인식결과에 대응하는 응답을 생성하는 것을 특징으로 하는 전자페트장치.
  13. 사용자의 음성을 입력하는 음성입력처리와,
    상기 음성입력처리로부터 입력된 음성을 음성인식 처리하여 음성인식결과를 출력하는 음성인식처리와,
    소정의 응답생성 룰에 따라, 상기 음성인식결과에 대응하는 응답을 생성하는 응답생성처리와,
    상기 응답을 출력하는 응답출력처리와,
    상기 음성에 따라, 상기 사용자를 인증하는 사용자 인증처리를 가지고,
    상기 응답생성처리는,
    상기 사용자 인증처리의 인증결과에 의거하여, 음성입력자에 따라 상기 응답을 상이하게 하는
    것을 특징으로 하는 정보처리방법.
KR1020067013437A 1998-12-24 1999-12-24 정보처리장치, 전자페트장치 및 정보처리방법 KR100702645B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-1998-00365944 1998-12-24
JP10365944A JP2000187435A (ja) 1998-12-24 1998-12-24 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020007008863A Division KR100751957B1 (ko) 1998-12-24 1999-12-24 전자페트장치, 정보처리장치 및 정보처리방법

Publications (2)

Publication Number Publication Date
KR20060084455A true KR20060084455A (ko) 2006-07-24
KR100702645B1 KR100702645B1 (ko) 2007-04-02

Family

ID=18485522

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020067013437A KR100702645B1 (ko) 1998-12-24 1999-12-24 정보처리장치, 전자페트장치 및 정보처리방법
KR1020007008863A KR100751957B1 (ko) 1998-12-24 1999-12-24 전자페트장치, 정보처리장치 및 정보처리방법
KR1020067013436A KR20060086457A (ko) 1998-12-24 1999-12-24 정보처리장치, 전자페트장치 및 정보처리방법

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020007008863A KR100751957B1 (ko) 1998-12-24 1999-12-24 전자페트장치, 정보처리장치 및 정보처리방법
KR1020067013436A KR20060086457A (ko) 1998-12-24 1999-12-24 정보처리장치, 전자페트장치 및 정보처리방법

Country Status (7)

Country Link
US (1) US6792406B1 (ko)
EP (3) EP1750252A3 (ko)
JP (1) JP2000187435A (ko)
KR (3) KR100702645B1 (ko)
CN (6) CN1253810C (ko)
DE (2) DE69939755D1 (ko)
WO (1) WO2000038808A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10714117B2 (en) 2013-02-07 2020-07-14 Apple Inc. Voice trigger for a digital assistant

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP3676981B2 (ja) * 2001-01-16 2005-07-27 株式会社エイ・ジー・アイ 感性発生方法及び感性発生装置並びにソフトウェア
JP3676969B2 (ja) * 2000-09-13 2005-07-27 株式会社エイ・ジー・アイ 感情検出方法及び感情検出装置ならびに記録媒体
CN1392826A (zh) * 2000-10-05 2003-01-22 索尼公司 机器人设备及其控制方法
JP3419754B2 (ja) * 2000-10-30 2003-06-23 株式会社ソニー・コンピュータエンタテインメント 入力音声をキャラクタの動作に反映させるエンタテインメント装置、方法および記憶媒体
JP2002139987A (ja) * 2000-10-31 2002-05-17 Atr Media Integration & Communications Res Lab 仮想生物飼育システム
JP2002268699A (ja) * 2001-03-09 2002-09-20 Sony Corp 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP4646170B2 (ja) * 2001-04-13 2011-03-09 株式会社バンダイ 会話装置
GB2375969A (en) * 2001-05-31 2002-12-04 Nokia Corp Electronic gaming
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
US6850818B2 (en) * 2001-10-22 2005-02-01 Sony Corporation Robot apparatus and control method thereof
JP4596728B2 (ja) 2002-08-13 2010-12-15 ルネサスエレクトロニクス株式会社 外部モジュール及び移動体通信端末
JP4832701B2 (ja) * 2002-09-12 2011-12-07 株式会社ピートゥピーエー 遊技機、遊技制御方法、制御プログラム
KR20050074443A (ko) * 2002-09-27 2005-07-18 가부시키가이샤 깅가네트 원격 교육 시스템, 수강 확인 방법 및 수강 확인 프로그램
US7292976B1 (en) * 2003-05-29 2007-11-06 At&T Corp. Active learning process for spoken dialog systems
DE102004001801A1 (de) * 2004-01-05 2005-07-28 Deutsche Telekom Ag Dialogsystem insbesondere zur Unterstützung der Patientenbetreuung
JP4379131B2 (ja) * 2004-01-27 2009-12-09 パナソニック電工株式会社 バーチャルコンパニオンシステム
US7865566B2 (en) * 2004-01-30 2011-01-04 Yahoo! Inc. Method and apparatus for providing real-time notification for avatars
US7707520B2 (en) * 2004-01-30 2010-04-27 Yahoo! Inc. Method and apparatus for providing flash-based avatars
US7555717B2 (en) * 2004-04-30 2009-06-30 Samsung Electronics Co., Ltd. Method for displaying screen image on mobile terminal
US7472065B2 (en) * 2004-06-04 2008-12-30 International Business Machines Corporation Generating paralinguistic phenomena via markup in text-to-speech synthesis
US7873911B2 (en) * 2004-08-31 2011-01-18 Gopalakrishnan Kumar C Methods for providing information services related to visual imagery
WO2006040971A1 (ja) * 2004-10-08 2006-04-20 Matsushita Electric Industrial Co., Ltd. 対話支援装置
JP3962766B2 (ja) * 2004-10-08 2007-08-22 松下電器産業株式会社 対話支援装置
US7613613B2 (en) * 2004-12-10 2009-11-03 Microsoft Corporation Method and system for converting text to lip-synchronized speech in real time
US8340971B1 (en) * 2005-01-05 2012-12-25 At&T Intellectual Property Ii, L.P. System and method of dialog trajectory analysis
WO2006083684A2 (en) * 2005-01-28 2006-08-10 Aol Llc Web query classification
GB2427109B (en) 2005-05-30 2007-08-01 Kyocera Corp Audio output apparatus, document reading method, and mobile terminal
JP2007054102A (ja) * 2005-08-22 2007-03-08 Sanyo Product Co Ltd 遊技システム及び遊技機用の電子端末
WO2007033525A1 (fr) * 2005-09-22 2007-03-29 Zte Corporation Systeme et procede pour installer un animal electronique dans un telephone mobile
KR100869238B1 (ko) 2005-11-09 2008-11-18 삼성전자주식회사 휴대단말기의 상태 표현 장치 및 방법
CN101246475B (zh) * 2007-02-14 2010-05-19 北京书生国际信息技术有限公司 一种基于版面信息的检索方法
EP2132650A4 (en) * 2007-03-01 2010-10-27 Sony Comp Entertainment Us SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD
CN101075301A (zh) * 2007-06-28 2007-11-21 腾讯科技(深圳)有限公司 虚拟宠物系统和虚拟宠物聊天方法、装置
JP4392620B2 (ja) * 2007-08-14 2010-01-06 ソニー株式会社 情報処理装置、情報処理方法、演算装置、演算方法、プログラム、および記録媒体
CN101119209A (zh) * 2007-09-19 2008-02-06 腾讯科技(深圳)有限公司 虚拟宠物系统和虚拟宠物聊天方法、装置
JP2009104231A (ja) * 2007-10-19 2009-05-14 Ricoh Co Ltd 情報処理装置、音出力装置、記号表示装置、画像形成装置、ユーザ属性判定方法、プログラム
US8577685B2 (en) * 2008-10-24 2013-11-05 At&T Intellectual Property I, L.P. System and method for targeted advertising
CN101727904B (zh) * 2008-10-31 2013-04-24 国际商业机器公司 语音翻译方法和装置
JP5086302B2 (ja) * 2009-05-08 2012-11-28 ヤフー株式会社 デバイス間でキャラクタが移動するデバイス及び通信システムの制御方法
DE102010012427B4 (de) 2010-03-23 2014-04-24 Zoobe Gmbh Verfahren zur Zuordnung von Sprachmerkmalen zu Bewegungsmustern
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
CN101961553B (zh) * 2010-08-23 2013-06-05 福建捷联电子有限公司 一种用于发泄情绪的装置
JP5602653B2 (ja) * 2011-01-31 2014-10-08 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報処理装置、情報処理方法、情報処理システム、およびプログラム
CN102671383A (zh) * 2011-03-08 2012-09-19 德信互动科技(北京)有限公司 基于声控的游戏实现装置和方法
US9229974B1 (en) 2012-06-01 2016-01-05 Google Inc. Classifying queries
US9563627B1 (en) * 2012-09-12 2017-02-07 Google Inc. Contextual determination of related media content
CN103905619A (zh) * 2012-12-26 2014-07-02 腾讯科技(深圳)有限公司 一种基于移动终端的交互方法、系统及移动终端
KR101330158B1 (ko) * 2013-07-12 2013-11-15 주식회사 메조미디어 텍스트의 감정지수 분석 방법 및 컴퓨터 판독 가능한 기록 매체
JP6359327B2 (ja) * 2014-04-25 2018-07-18 シャープ株式会社 情報処理装置および制御プログラム
CN107516511B (zh) * 2016-06-13 2021-05-25 微软技术许可有限责任公司 意图识别和情绪的文本到语音学习系统
DE112017004363T5 (de) * 2016-08-29 2019-06-19 Groove X, Inc. Autonom agierender roboter, der die richtung einer geräuschquelle erkennt
US9786271B1 (en) 2016-09-28 2017-10-10 International Business Machines Corporation Voice pattern coding sequence and cataloging voice matching system
US11380319B2 (en) 2017-07-24 2022-07-05 Kyocera Corporation Charging stand, mobile terminal, communication system, method, and program
JP6953354B2 (ja) * 2018-05-24 2021-10-27 グリー株式会社 ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
CN108925456A (zh) * 2018-05-31 2018-12-04 广州粤创富科技有限公司 一种与宠物互动的方法、装置及可穿戴设备
JP6993314B2 (ja) * 2018-11-09 2022-01-13 株式会社日立製作所 対話システム、装置、及びプログラム
CN111496802A (zh) * 2019-01-31 2020-08-07 中国移动通信集团终端有限公司 人工智能设备的控制方法、装置、设备及介质
CN110033768A (zh) * 2019-04-22 2019-07-19 贵阳高新网用软件有限公司 一种智能搜索发言人的方法及设备
CN112669046B (zh) * 2019-10-16 2022-06-28 辰光能源科技有限公司 真食呈现系统
JP7437191B2 (ja) * 2020-03-04 2024-02-22 株式会社東海理化電機製作所 制御装置、制御システム、情報処理装置、およびプログラム
JP2021064947A (ja) * 2020-12-11 2021-04-22 京セラ株式会社 携帯端末およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4638445A (en) * 1984-06-08 1987-01-20 Mattaboni Paul J Autonomous mobile robot
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
EP0543329B1 (en) * 1991-11-18 2002-02-06 Kabushiki Kaisha Toshiba Speech dialogue system for facilitating human-computer interaction
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
US5732187A (en) * 1993-09-27 1998-03-24 Texas Instruments Incorporated Speaker-dependent speech recognition using speaker independent models
US5748841A (en) * 1994-02-25 1998-05-05 Morin; Philippe Supervised contextual language acquisition system
US5682469A (en) * 1994-07-08 1997-10-28 Microsoft Corporation Software platform having a real world interface with animated characters
CN1121680C (zh) * 1994-11-01 2003-09-17 英国电讯公司 语音识别
US5842168A (en) * 1995-08-21 1998-11-24 Seiko Epson Corporation Cartridge-based, interactive speech recognition device with response-creation capability
US5774841A (en) * 1995-09-20 1998-06-30 The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration Real-time reconfigurable adaptive speech recognition command and control apparatus and method
US5746602A (en) * 1996-02-27 1998-05-05 Kikinis; Dan PC peripheral interactive doll
JPH09305787A (ja) * 1996-03-13 1997-11-28 Sharp Corp アニメーション作成・再生装置、及びアニメーション検索装置
KR19980065482A (ko) * 1997-01-10 1998-10-15 김광호 스피킹 스타일을 변경하는 음성 합성 방법
JPH10206976A (ja) 1997-01-22 1998-08-07 Hitachi Ltd 背面投写型表示装置
JPH10260976A (ja) * 1997-03-18 1998-09-29 Ricoh Co Ltd 音声対話方法
JPH10276462A (ja) * 1997-03-27 1998-10-13 Canon Inc メッセージ伝送システム及びメッセージ伝送方法
JPH10313357A (ja) * 1997-05-13 1998-11-24 Nec Corp 留守番電話機
US5983190A (en) * 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
US5953700A (en) * 1997-06-11 1999-09-14 International Business Machines Corporation Portable acoustic interface for remote access to automatic speech/speaker recognition server
WO1999017854A1 (en) * 1997-10-07 1999-04-15 Health Hero Network, Inc. Remotely programmable talking toy
US6636219B2 (en) * 1998-02-26 2003-10-21 Learn.Com, Inc. System and method for automatic animation generation
US6185534B1 (en) * 1998-03-23 2001-02-06 Microsoft Corporation Modeling emotion and personality in a computer user interface
JP4036528B2 (ja) * 1998-04-27 2008-01-23 富士通株式会社 意味認識システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10714117B2 (en) 2013-02-07 2020-07-14 Apple Inc. Voice trigger for a digital assistant
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
US11557310B2 (en) 2013-02-07 2023-01-17 Apple Inc. Voice trigger for a digital assistant
US11636869B2 (en) 2013-02-07 2023-04-25 Apple Inc. Voice trigger for a digital assistant
US11862186B2 (en) 2013-02-07 2024-01-02 Apple Inc. Voice trigger for a digital assistant

Also Published As

Publication number Publication date
CN1551047A (zh) 2004-12-01
EP1748421A3 (en) 2007-07-25
EP1750252A2 (en) 2007-02-07
EP1748421A2 (en) 2007-01-31
CN1291112A (zh) 2001-04-11
DE69935909D1 (de) 2007-06-06
EP1072297A4 (en) 2005-12-14
EP1750252A3 (en) 2007-07-25
CN1549201A (zh) 2004-11-24
EP1072297B1 (en) 2007-04-25
CN1549199A (zh) 2004-11-24
CN1253810C (zh) 2006-04-26
CN1202511C (zh) 2005-05-18
KR100702645B1 (ko) 2007-04-02
DE69935909T2 (de) 2008-01-10
WO2000038808A1 (fr) 2000-07-06
KR100751957B1 (ko) 2007-08-24
EP1748421B1 (en) 2008-10-15
JP2000187435A (ja) 2000-07-04
CN1252620C (zh) 2006-04-19
EP1072297A1 (en) 2001-01-31
KR20010040942A (ko) 2001-05-15
CN1253812C (zh) 2006-04-26
CN1253811C (zh) 2006-04-26
US6792406B1 (en) 2004-09-14
KR20060086457A (ko) 2006-07-31
CN1549202A (zh) 2004-11-24
CN1549200A (zh) 2004-11-24
DE69939755D1 (de) 2008-11-27

Similar Documents

Publication Publication Date Title
KR100702645B1 (ko) 정보처리장치, 전자페트장치 및 정보처리방법
CN108962217B (zh) 语音合成方法及相关设备
CN101297355B (zh) 响应自然语言语音口头表达的系统和方法
CN105940446B (zh) 机器与人类的对话方法、计算机存储介质和仿人机器人
US20020068500A1 (en) Adaptive toy system and functionality
US20050154594A1 (en) Method and apparatus of simulating and stimulating human speech and teaching humans how to talk
CN108711423A (zh) 智能语音交互实现方法、装置、计算机设备及存储介质
JP2012215645A (ja) コンピュータを利用した外国語会話練習システム
JP2006061632A (ja) 感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法
JP2003114692A (ja) 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体
US11734520B2 (en) Dialog apparatus, method and program for the same
KR100917552B1 (ko) 대화 시스템의 충실도를 향상시키는 방법 및 컴퓨터이용가능 매체
Skidmore et al. Using Alexa for flashcard-based learning
JP2009151314A (ja) 情報処理装置及び情報処理方法
KR20020060975A (ko) 특정의 인간 음성을 템플릿하기 위한 시스템 및 방법
KR20010007842A (ko) 완구에 있어서 대화형 음성 및 다감각인식 시스템 및 이의방법
KR20010067934A (ko) 언어 학습 시스템
JP2001209644A (ja) 情報処理装置および情報処理方法、並びに記録媒体
JP4741817B2 (ja) 音声出力装置、キャラクタ画像表示装置、音声出力方法、およびキャラクタ画像表示方法
WO2021064947A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2020038397A (ja) 対話制御装置、対話制御方法及びプログラム
JP7160076B2 (ja) 対話制御装置、対話制御方法及びプログラム
CN116741143B (zh) 基于数字分身的个性化ai名片的交互方法及相关组件
WO2021064948A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2023053442A (ja) 対話システム、対話システムの制御方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee