KR19990023809A - 기억 매체, 로보트, 정보 처리 장치, 및 전자 페트시스템 - Google Patents

기억 매체, 로보트, 정보 처리 장치, 및 전자 페트시스템 Download PDF

Info

Publication number
KR19990023809A
KR19990023809A KR1019980034176A KR19980034176A KR19990023809A KR 19990023809 A KR19990023809 A KR 19990023809A KR 1019980034176 A KR1019980034176 A KR 1019980034176A KR 19980034176 A KR19980034176 A KR 19980034176A KR 19990023809 A KR19990023809 A KR 19990023809A
Authority
KR
South Korea
Prior art keywords
behavior
internal state
personality
information
state parameter
Prior art date
Application number
KR1019980034176A
Other languages
English (en)
Inventor
나오히로 요꾸
야스히꼬 가또
마사가즈 하또리
마사히로 후지따
히로아끼 기따노
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR19990023809A publication Critical patent/KR19990023809A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • A63F13/005
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/206Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99955Archiving or backup

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Robotics (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

여러가지의 장치로, 현실감 있는 전자 페트를 실현할 수 있다.
IC 카드(21)에서는, 전자 페트의 감정을 포함하는, 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여 전자 페트가 행동을 일으킨 경우에, 후의 행동에 대응하여 갱신되는 것을 기억하고, 전자 페트의 육체로서 기능하는 장치에 착탈 가능하도록 이루어져 있다. 가상 페트 장치(22)는 전자 페트의 육체로서 기능하는, 전자 페트를 표시하기 위한 처리를 행함으로써, IC 카드(21)가 착탈 가능한 슬롯(22A)을 갖고 있다. 페트형 로보트(23)는 전자 페트의 육체로서 기능하며, IC 카드(21)가 착탈 가능한 슬롯(23A)을 갖고 있다.

Description

기억 매체, 로보트, 정보 처리 장치, 및 전자 페트 시스템
본 발명은 기억 매체, 로보트, 정보 처리 장치, 및 전자 페트 시스템에 관한 것으로, 특히, 예를 들면, 전자 페트를, 각종의 장치로 실현할 수 있도록 하는 기억 매체, 로보트, 정보 처리 장치, 및 전자 페트 시스템에 관한 것이다.
최근, 실제의 동물을 페트로서 기르는 것보다 손쉬운 것 등의 이유로, 소위 전자 페트 장치(혹은, 육성 시뮬레이션 게임기)가 유행하고 있다.
전자 페트 장치에서는 페트가 되는 생명체의 대상물인 생명체 대상물이, 전자 페트로서 표시되며, 굶주림(공복)이나, 지친 정도 등의, 전자 페트의 상태를, 기르는 주인(전자 페트 장치의 사용자)에게, 화상 또는 음성으로 알린다. 기르는 주인은 전자 페트의 상태에 따라 전자 페트 장치를 조작함으로써, 먹이를 주거나, 놀아 주거나 한다. 그리고, 이러한 기르는 주인의 대응에 기초하여, 전자 페트의 상태가 변화하고, 육성되어 간다. 또한, 전자 페트는 시간의 경과와 함께 성장하고, 따라서, 그 상태는 시간의 경과에 따라서도 변화해 간다.
그런데, 전자 페트 장치에서는, 전자 페트는 표시되기만하기 때문에, 말하자면 가상적인 존재이다.
한편, 전자 페트를, 실제의 존재로서의, 예를 들면, 로보트로 실현한 경우, 전자 페트로서의 로보트가 실재하는 것이기 때문에, 전자 페트 장치보다도, 실제로 페트를 기르고 있는 경우에 가까운 감각을, 사용자에게 제공할 수 있다.
그러나, 전자 페트를, 로보트로 실현한 경우에 있어서는, 예를 들면, 여행 등을 할 때에 운반에 불편하다. 따라서, 예를 들면, 전자 페트를, 어떤 경우에는, 실제의 존재로서의 로보트로 실현하고, 다른 경우에는, 휴대 가능한 전자 페트 장치에서 가상적인 존재로서 실현할 수 있으면 편리하다.
또한, 종래의 전자 페트 장치 등에서 실현되는 전자 페트는 일반적으로, 사용자로부터의 입력이나, 또는 시간의 경과에 대응하여 상태가 변화하고, 행동을 일으키기 때문에 현실감이 부족하였다.
즉, 실제 페트인, 예를 들어 개의 경우에는, 놀아 주길 바라는 경우에, 짖거나, 꼬리를 치거나 하여, 기르는 주인의 주의를 끌려고 하는 경우가 있지만, 이 경우에, 기르는 주인이 무시하고 있으면, 페트는 지쳐서 짖거나, 꼬리를 치는 일을 그만두고, 예를 들면, 잠을 자는 등의 행동을 취한다. 그리고, 페트는 잠을 잠으로써 기분이 좋아지게 된다.
이에 대해, 종래의 전자 페트 장치에서는, 예를 들면, 놀아 주길 바라는 경우에는 짖거나, 꼬리를 치거나 하는 행동을 계속해서 하거나, 혹은, 시간의 경과에 따라 그와 같은 행동을 취하는 것을 그만둘 뿐으로, 짖거나, 꼬리를 치는 것으로 지쳐서 자는 일은 없다. 즉, 종래에 있어서는, 예를 들면, 짖거나, 꼬리를 치거나 하는, 전자 페트 자신의 행동에 대응하여 전자 페트의 상태가 변화하는 일이 없고, 따라서, 그와 같은 자신의 행동에 기인하는 상태의 변화에 대응하여 전자 페트가 행동(action)을 일으키는 경우도 없었다.
본 발명은, 보다 현실감 있는 전자 페트 등을, 각종의 장치로 실현할 수 있도록 하는 것이다.
본 발명의 기억 매체는 생명체의 대상물인 생명체 대상물의 감정을 포함하는, 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여 생명체 대상물이 행동을 일으킨 경우에, 그 행동에 대응하여 갱신되는 것을 기억하고, 생명체 대상물의 육체로서의 육체 장치에 착탈 가능하게 이루어져 있다. 따라서, 여러가지 육체 장치에 장착하여, 그 육체 장치를 생명체 대상물로서 기능시키는 것이 가능해진다.
본 발명의 로보트는 생명체 대상물의 감정을 포함하는, 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여 생명체 대상물이 행동을 일으킨 경우에, 그 행동에 대응하여 갱신되는 것을 기억하는 기억 매체가 착탈 가능하게 이루어져 있다. 따라서, 그 기억 매체에 대응하여 행동을 일으키는 생명체 대상물을, 로보트로 실현하는 것이 가능해진다.
본 발명의 정보 처리 장치는 생명체 대상물의 감정을 포함하는, 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여, 생명체 대상물이 행동을 일으킨 경우에, 그 행동에 대응하여 갱신되는 것을 기억하는 기억 매체가 착탈 가능하게 이루어져 있다. 따라서, 그 기억 매체에 대응하여 행동을 일으키는 생명체 대상물을 정보 처리 장치로 실현하는 것이 가능해진다.
본 발명의 전자 페트 시스템에 의하면, 기억 매체는 전자 페트의 감정을 포함하는, 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여 전자 페트가 행동을 일으킨 경우에, 그 행동에 대응하여 갱신되는 것을 기억하고, 전자 페트의 육체로서 기능하는 장치에 착탈 가능하도록 이루어져 있다. 로보트는 전자 페트의 육체로서 기능하고, 기억 매체가 착탈 가능하도록 이루어져 있다. 정보 처리 장치는 전자 페트의 육체로서 기능하는, 전자 페트를 표시하기 위한 처리를 행하는 정보 처리 장치로서, 기억 매체가 착탈 가능하도록 이루어져 있다. 따라서, 동일 내용의 전자 페트를, 로보트및 정보 처리 장치 중 어느 하나에 따라서도 실현하는 것이 가능해진다.
도 1은 본 발명을 적용시킨 전자 페트 시스템의 한 실시 형태의 개요를 나타낸 블럭도.
도 2는 전자 페트 시스템의, 보다 구체적인 구성예를 나타낸 도면.
도 3은 도 1의 육체부(2)의 구성예를 나타낸 블럭도.
도 4는 영혼부(1: IC 카드 21)에 기억되는 유전자 데이타의 포맷을 나타낸 도면.
도 5는 도 4의 유전자 데이타 중의 내부 상태의 상세를 나타낸 도면.
도 6은 도 4의 유전자 데이타 중의 피드백 데이타의 상세를 나타낸 도면.
도 7은 도 4의 유전자 데이타 중의 행동 발화 조건의 상세를 나타낸 도면.
도 8은 도 3의 육체부(2)의 처리를 설명하기 위한 플로우차트.
도 9는 도 2의 가상 페트 장치(22)의 하드웨어 구성예를 나타낸 블럭도.
도 10은 도 2의 페트형 로보트(23)의 하드웨어 구성예를 나타낸 블럭도.
도 11은 도 9 및 도 10의 CPU(31)가 행하는 행동 제어 처리를 설명하기 위한 플로우차트.
도 12는 도 9 및 도 10의 CPU(31)가 행하는 학습 처리를 설명하기 위한 플로우차트.
도 13은 학습 처리에 의해 전자 페트의 행동이나 행위를 올바르게 교육시키는 훈련을 행하는 것을 설명하기 위한 플로우차트.
도 14는 도 4의 유전자 데이타 중의 내부 상태의 상세를 나타낸 도면.
도 15는 도 4의 유전자 데이타 중의 피드백 데이타의 상세를 나타낸 도면.
도 16은 도 4의 유전자 데이타 중의 행동 발화 조건의 상세를 나타낸 도면.
도 17은 교배의 방법을 설명하기 위한 도면.
도 18은 교배를 행하는 방법을 설명하기 위한 도면.
도 19는 교배를 행하는 방법을 설명하기 위한 도면.
도 1은 본 발명을 적용시킨 전자 페트 시스템(본 명세서 중에서 시스템이란, 복수의 장치가 논리적으로 집합한 것을 말하며, 각 구성의 장치가 동일 케이스 중에 있는지의 여부는 묻지 않는다)의 한 실시 형태의 개요를 나타내고 있다.
예를 들면, 생명체인 동물은 일설에는, 육체와, 그 육체에 머물어 마음의 기능을 담당하는 영혼(魂)으로 이루어진다고 말해진다. 도 1에 있어서의 전자 페트 시스템은 그 영혼 또는 육체에 각각 대응하는 영혼부(1) 또는 육체부(2)로 구성되어 있다.
즉, 영혼부(1)는 전자 페트의 영혼으로서 기능하는 것으로, 전자 페트의 특징을 표현한다. 육체부(2)는 전자 페트의 육체로서 기능하는 것으로, 전자 페트의 행동을 표현한다. 그리고, 육체부(2)의 행동은 영혼부(1)가 갖는 전자 페트의 특징에 기초하여 행해지며, 따라서, 영혼부(1)는 전자 페트의 핵심이라고 할 수 있다.
또한, 영혼부(1)는 육체부(2)로부터 이탈되고, 다른 육체부(21, 22, …)에 머물 수 있도록 이루어져 있다. 이 경우, 영혼부(1)로부터 이탈된 육체부(2)는, 말하자면 유체 이탈 상태로 되어, 전자 페트로서는 기능하지 않게 된다. 한편, 영혼부(1)가 머물게 된 다른 육체부는 원래의 특징을 그대로 갖는 전자 페트로서 기능하도록 된다. 즉, 말하자면, 전자 페트의 영혼은 육체의 교환이 가능하게 되어 있다.
도 2는, 도 1의 전자 페트 시스템의 보다 구체적인 구성예를 나타내고 있다.
도 1의 영혼부는 예를 들면, IC(Integrated curcuit 카드(영혼 카드 :21) 등으로 실현된다. IC 카드(21)는 예를 들면, 플래시 메모리 등을 내장하고, 후술하는 바와 같은 유전자 데이타를 기억한다.
도 1의 육체부(2)는, 예를 들면, 가상 페트 장치(22)나, 페트형 로보트(23) 등으로 실현된다. 가상 페트 장치(22)는, 가상적인 전자 페트를 표시하기 위한 처리를 행하는 휴대형의 정보 처리 장치 등으로 이루어지며, IC 카드(21)를 장착하기 위한 슬롯(22A)을 갖고 있다. 또한, 페트형 로보트(23)는 전자 페트의 형상을 한 로보트로, 역시, IC 카드(21)를 장착하기 위한 슬롯(23A)을 갖고 있다.
가상 페트 장치(22) 및 페트형 로보트(23)는 어느 것이나, 전자 페트의 육체로서 기능하는 장치(육체 장치)로, 그것만으로는 행동을 일으키지 않는다. 즉, 육체인 가상 페트 장치(22) 및 페트형 로보트(23)는, 영혼인 IC 카드(21)를 장착함으로써, 전자 페트로서 기능하게 된다. 즉, 가상 페트 장치(22)에서는, 그 모니터에, 전자 페트가 표시되고, IC 카드(21)에 기억된 유전자 데이타에 기초하여 행동을 일으킨다. 또한, 페트형 로보트(23)도, IC 카드(21)에 기억된 유전자 데이타에 기초하여 행동을 일으킨다.
따라서, 예를 들면, 사용자는 집에 있을 때에는, IC 카드(21)를 페트형 로보트(23)의 슬롯(23A)에 장착함으로써, 실제로 페트를 기르고 있는 경우에 보다 가까운 감각을 향수할 수 있다. 또한, 사용자는 예를 들면, 여행 중에 있어서는, IC 카드(21)를 페트형 로보트(23)로부터 떼내어, 가상 페트 장치(22)에 장착함으로써 여행지에 용이하게 휴대할 수 있다.
다음에, 도 3은 도 1의 육체부(2)의 전기적 구성예를 나타내고 있다.
I/F(Interface: 10)는 도 2에 있어서의 가상 페트 장치(22)의 슬롯(22A)이나, 페트형 로보트(23)의 슬롯(23A)에 상당하며, 영혼부(1)와 육체부(2) 사이에서 데이타를 교환하기 위한 인터페이스로서 기능한다. 즉, I/F(10)는 영혼부(1)로부터, 전자 페트의 특징을 표현하는 정보(유전자 데이타)를 판독하고, 내부 상태 계산부(11)에 공급한다. 또한, I/F(10)는 내부 상태 계산부(11)에 있어서의 소정의 계산의 결과 얻어지는 정보를, 영혼부(1)에 기록하고, 그 기억 내용을 갱신한다.
내부 상태 계산부(11)에서는, 상술한 바와 같이, I/F(10)로부터 유전자 데이타가 공급되는 외에, 외적 입력부(12) 및 시간 입력부(13)로부터도, 입력이 제공되도록 이루어져 있다. 또한, 내부 상태 계산부(11)에서는, 행동 변환부(15)에 있어서 얻어지는, 전자 페트의 구체적인 행동도 피드백되도록 이루어져 있다. 내부 상태 계산부(1)는 모델 기억부(14)에 기억되어 있는 감정과 상태의 모델을, I/F(10), 외적 입력부(12), 시간 입력부(13), 또는 행동 변환부(15)로부터의 입력에 대응하여 구동하고, 전자 페트의 내부 상태를 갱신한다. 전자 페트의 내부 상태는 후술하는 바와 같이, I/F(10)로부터의 유전자 데이타에 포함되는 것으로, 갱신된 내부 상태는 I/F(10)를 통해 영혼부(1)에 기록된다. 또한, 내부 상태 계산부(11)는 갱신 후의 내부 상태에 기초하여 전자 페트에게 행하게 하는 개념적인 동작을 결정하고, 그 개념적인 동작을 행하도록 지시하는 명령(동작명령)을 행동 변환부(15)로 출력한다.
외적 입력부(12)는 사용자, 또한 환경 등의 외부로부터 주어지는 자극을, 내부 상태 계산부(11)에 공급하도록 이루어져 있다. 즉, 육체부(2)가 예를 들면, 가상 페트 장치(22)인 경우에는, 외적 입력부(12)는 키보드(또는 스위치나 버튼)나, 마이크(마이크로폰) 및 음성 인식 장치 등으로 이루어지고, 예를 들면, 사용자가 전자 페트를 보살피기 위해 행한 조작이나, 내보낸 음성을, 전기 신호로 하여 내부 상태 계산부(11)에 공급한다. 또한, 육체부(2)가 예를 들면, 페트형 로보트(23)인 경우에는, 외적 입력부(12)는 키보드나, 마이크 및 음성 인식 장치, 광전 변환 소자 및 화상 인식 장치, 센서(예를 들면, 온도 센서 등) 등으로 이루어지며, 역시 사용자가 전자 페트를 보살피기 위해 행한 조작이나, 내보낸 음성을, 전기 신호로 하여 내부 상태 계산부(11)에 공급하는 외에, 주위에 있는 물건이나 온도 등의 정보를, 내부 상태 계산부(11)에 공급한다.
시간 입력부(13)는, 시각(년월일을 포함)을 계시하고 있고, 그 시각(현재 시각)을, 내부 상태 계산부(11)에 공급하도록 이루어져 있다.
모델 기억부(14)는 전자 페트의 감정과 상태의 모델을 기억하고 있다. 즉, 전자 페트의 감정으로서는, 예를 들면, 노여움, 슬픔, 즐거움, 두려움, 놀라움, 혐오 등이 설정되어 있고, 모델 기억부(14)는 이들 감정의 모델(예를 들면, 이들 감정을 나타내는 파라메터를 구하기 위한 계산식)을 기억하고 있다. 또한, 전자 페트의 상태로서는, 예를 들면, 지침, 굶주림, 갈증(목 마름), 졸음, 배설감 등이 설정되어 있고, 모델 기억부(14)는 이들 상태의 모델도 기억하고 있다.
또, 육체부(2)는 그것이, 가상 페트 장치(22)이면, 페트형 로보트(23)임에도 불구하고, 동일 구성의 감정과 상태의 모델을 갖고 있고, 이로써 IC 카드(21)를, 가상 페트 장치(22)와 페트형 로보트(23) 사이에서, 서로 교체하더라도 전자 페트의 특징이나 행동이, 다른 전자 페트의 것으로 변화하지 않도록 되어 있다.
여기서, 본 실시 형태에서는, 전자 페트의 감정과 상태의 양쪽을 합춰서 전자 페트의 내부 상태라고 부르고 있다.
행동 변환부(15)는 내부 상태 계산부(11)로부터의 개념적인 동작 명령을, 육체부(2)에 따른, 구체적인 행동을 지시하는 명령(행동 명령)으로 변환하고, 출력부(16)에 공급함과 동시에, 내부 상태 계산부(11)에 피드백하도록 이루어져 있다.
출력부(16)는 행동 변환부(15)로부터의 행동 명령에 따른 출력을 행하도록 이루어져 있다(행동 변환부 15로부터의 행동 명령에 따른 행동을, 전자 페트에게 행하게 하도록 이루어져 있다). 즉, 육체부(2)가 예를 들면, 가상 페트 장치(22)인 경우에는, 출력부(16)는 모니터나, 음성 합성 장치(예를 들면, 규칙 음성 합성 장치) 및 스피커 등으로 이루어지며, 예를 들면, 전자 페트의 표시를 변화시키거나, 울음 소리 등을 출력시키거나 한다. 또한, 육체부(2)가 예를 들면, 페트형 로보트(23)인 경우에는, 출력부(16)는 손, 발, 몸통, 머리 등에 상당하는 부재를 구동하는 모터나, 음성합성 장치 및 스피커 등으로 이루어지며, 예를 들면, 소정의 모터를 회전시키거나, 울음 소리 등을 출력시키거나 한다.
다음에, 도 4는 영혼부(1: IC 카드 21)에 기억된 유전자 데이타의 포맷의 예를 나타내고 있다.
유전자 데이타의 최초의 32 바이트에는, 전자 페트의 이름과 주인의 이름(기르는 주인(사용자)의 이름)이 배치된다. 주인의 이름 뒤에는, 4바이트의 성장된 시간이 배치된다. 여기에는, 전자 페트가 태어나고 나서 현재까지의 경과 시간이 배치된다. 그 후에는, 60바이트의 내부 상태가 배치된다. 이 내부 상태에는, 전자 페트의 현재의 상태와 감정에 관한 파라메터(상태와 감정을 수치화한 것)가 배치된다.
내부 상태 뒤에는, 1바이트의 전생 윤회의 잔여 횟수가 배치된다. 즉, 본 실시 형태에서는, 전자 페트(의 영혼)는, 죽더라도 다시 태어날 수 있도록 이루어져 있고, 전생 윤회 잔여 횟수에는, 다시 태어날 수 있는 잔여 횟수가 배치된다. 그 후에는, 1바이트의 종족이 배치되고, 거기에는, 전자 페트가 예를 들면, 개나, 고양이나, 새 등의, 전자 페트의 종류가 배치된다. 또, 전자 페트의 종류는 반드시, 실재하는 동물일 필요는 없다.
또한, 그 후에는, 660바이트의 피드백 데이타(갱신량 정보)가 배치된다. 여기서, 상술한 바와 같이, 육체부(2: 도 3)에서는 내부 상태 계산부(11)에 있어서, 행동 변환부(15)로부터의 피드백에 대응하여, 내부 상태(에 관한 파라메터)가 갱신되지만, 그 내부 상태를 갱신할 때의 갱신량이, 피드백 데이타로서 배치되어 있다. 또, 내부 상태 계산부(11)에서는, 외적 입력부(12)나 시간 입력부(13)로부터의 입력에도 대응하여, 내부 상태가 갱신되도록 이루어져 있지만, 이 경우의 갱신량도 피드백 데이타로서 배치되어 있다.
피드백 데이타의 후에는, 2비트의 수명 인자, 2비트의 색, 8비트 크기의 최대치, 8비트의 동작 스피드, 2000비트의 학습 정보가 순차 배치된다. 수명 인자에는, S1과 S2의 2개가 있고, 이 2개의 수명 인자 S1, S2에 의해, 영혼부(1)의 수명, 즉, IC 카드(21)의 사용 기한이 결정된다. 여기서, IC 카드(21)의 사용 기한의 경과가 전자 페트(의 영혼)의 죽음에 상당한다. 색에는, 전자 페트의 색이 배치된다. 크기의 최대치에는, 전자 페트가 성장해 갈 때의, 그 크기를 제한하기 위한 값이 배치된다. 동작 스피드에는, 전자 페트의 동작 속도를 결정하기 위한 값이 배치된다. 학습 정보에는, 전자 페트가 소정의 재주를 부릴 수 있는지의 여부에 관한 정보가 배치된다. 즉, 본 실시 형태에서는, 전자 페트에게, 몇몇의 재주 부리기를 학습시킬 수 있도록 이루어져 있고, 학습 정보에는, 각 재주를 부릴 수 있는지의 여부를 나타내는 플래그가 배치된다.
학습 정보 후에는, 240비트의 행동 발화 조건(조건 정보)이 N개 배치된다. 즉, 본 실시 형태에서는 내부 상태의 파라메터가, 소정의 조건을 만족시킬 때에, 전자 페트가 소정의 행동을 일으키도록 이루어져 있고, 그 조건이, 행동 발화 조건에 기술되어 있다. 또한, 본 실시 형태에서는, N개의 행동 k1, k2, …, kN이 규정되어 있고, 그 각 행동에 대한 행동 발화 조건이 배치되어 있다.
N개의 행동 발화 조건의 후에는, 8비트의 음성 계속 시간, 16비트의 피치, 8비트의 액센트, 3N 비트의 행동 음성 플래그, 3N 비트의 행동 화상 플래그가, 순차 배치된다. 음성 계속 시간, 피치, 또는 액센트에는, 전자 페트의 울음 소리의 최대 계속 시간, 피치, 또는 액센트를 규정하는 정보가 각각 배치된다. 행동 음성 플래그및 행동 화상 플래그에는, N개의 행동 각각이 가능한지의 여부를 나타내는 플래그가 배치되어 있다. 즉, 여기에는, 예를 들면, 개는 달릴 수 있지만, 하늘을 나는 것은 불가능한다고 하는 점을 나타내는 플래그가 배치된다.
도 5는 도 4의 유전자 데이타 중의 내부 상태의 상세를 나타내고 있다.
도 5의 실시 형태에서는, 내부 상태는 노여움, 즐거움, 놀라움, 두려움, 슬픔의 감정을 나타내는 5개의 파라메터와, 굶주림, 배변, 순종, 지침, 갈증과, 졸음, 먹을 것, 마실 것, 재주 부리기, 성장의 상태를 나타내는 10의 파라메터와의 합계 15의 파라메터로 구성되어 있다. 여기서, 굶주림, 배변, 순종, 지침, 갈증, 졸음, 재주 부리기, 성장은 전자 페트의 상태 중의 신체적인 상태를 나타내며, 먹을 것, 마실 것은 전자 페트의 상태 중의 환경적인 상태를 나타낸다. 즉, 본 실시 형태에서는 전자 페트를, 먹을 것이나 마실 것이 있는 환경에 놓여지도록 이루어져 있고, 먹을 것, 마실 것의 상태는 전자 페트가 놓여져 있는 환경에 따라 변화한다. 또한, 전자 페트는 먹을 것이나 마실 것이 있는 환경에서는, 굶주림이나 갈증의 상태에 기초하여 스스로(사용자의 조작에 의해, 먹을 것이나 마실 것을 제공하지 않아도), 먹거나, 마실 수 있도록 이루어져 있다.
또, 본 실시 형태에서는 내부 상태에 관한 각 파라메터는, 0이 최소치가 되도록 이루어져 있다.
또한, 내부 상태를 나타내는 파라메터는 상술한 15에 한정되는 것은 아니다.
도 6은 도 4의 유전자 데이타 중의 피드백 데이타의 상세를 나타내고 있다.
피드백 데이타로서는, 외적 입력부(12)로부터 주어지는 외적 입력(사용자의 조작이나 음성 등), 시간 입력부(13)로부터 주어지는 시간 입력(시간의 경과), 전자 페트 자신이 일으킨 행동에 기초하여 행동 변환부(15)로부터 주어지는 내적 입력에 대응하여, 내부 상태를 갱신할 때의 갱신량이 내부 상태의 각 항목에 대해 각 입력마다 규정되어 있다. 또, 시간의 경과에 대응하는 갱신량은 소정의 단위 시간이 경과한 경우의 것으로 되어 있다.
이에 따라, 전자 페트의 내부 상태 중의, 예를 들면「노여움」의 감정에 주목한 경우, 외적 입력으로서, 예를 들면「칭찬하다」에 해당하는 입력이 있을 때에는 (예를 들면, 사용자가 전자 페트를 칭찬하는 음성을 내보낸 때에는), 전자 페트의 「노여움」은, -200000만큼 증가, 즉, 200000만큼 감소한다(여기서는, 「노여움」의 수치의 감소는 노여움의 감정의 감소에 대응하도록 한다). 또한, 예를 들면, 단위 시간이 경과하면, 그것에 대응하여 전자 페트의 「노여움」은 1000만큼 감소한다. 또한, 예를 들면, 내적 입력으로서, 예를 들면, 「짖다」에 해당하는 입력이 있을 때에는(전자 페트가, 짖는 행동을 행한 때에는), 전자 페트의 「노여움」은 10000만 큼 감소한다.
즉, 전자 페트의 「노여움」의 감정은 기르는 주인이 칭찬해 주거나, 시간이 경과함으로써 진정되게 된다. 또한, 전자 페트의 「노여움」의 감정은 전자 페트가 짖는 것, 즉, 전자 페트 자신의 행동에 의해서도 진정되게 된다. 이것은, 전자 페트가 화를 내고 있는 경우에, 짖음으로써 그 노여움이 발산되어 노여움의 감정이 억제되어 가는 것을 의미한다.
도 7은 도 4의 유전자 데이타 중의 행동 발화 조건의 상세를 나타내고 있다.
행동 발화 조건은, 내부 상태의 파라메터가 소정의 조건을 만족할 때에 일으키는 행동(예를 들면, 「달려들어 물다」나, 「짖다」, 「달리다」, 「걷다」, 「울다」, 「방심 상태로 되다」, 「자다」 등)으로 그 조건을 규정하고 있다. 즉, 어떤 행동에 대한 행동 발화 조건은, 그 행동을 일으킬 때에 만족시키는 내부 상태의 각 파라메터의 하한치(Min)과 상한치(Max)를 규정하고 있다. 구체적으로는, 도 7의 실시 형태에서는, 예를 들면「달려들어 문다」라는 행동은, 전자 페트의 내부 상태의 「노여움」의 감정이 90 내지 100, 「즐겁다」의 감정이 0 내지 100, …, 「굶주림」의 상태가 0 내지 100, 「순종하다」의 상태가 0 내지 20, …의 각 범위의 값으로 된 경우에 발생한다.
다음에, 도 8의 플로우차트를 참조하여 도 3의 육체부(2)의 동작에 대해 설명한다.
우선 최초에, 스텝 S1에 있어서, 내부 상태 계산부(1)는 영혼부(1)에 기억된 내부 상태를 갱신한다.
즉, 내부 상태를 나타내는 파라메터로서 P개의 파라메터 E1, E2, … EP가 있는 경우에 있어서, 어떤 시각(여기서는, 예를 들면, 전자 페트가 태어날 때를 기준으로 하는 시각(전자 페트가 태어나고 나서의 경과 시간)) t에 있어서의, 어떤 내부 상태의 파라메터를, EP(t)로 나타낼 때(p=1, 2, …, P), 내부 상태 계산부(11)는, 예를 들면, 다음 식에 따라 내부 상태를 갱신한다.
단, Ak(p, t)는, 어떤 행동 k가 일어날 때에 있어서의, 파라메터 EP의 갱신량으로, 이것은, 행동 변환부(15)로부터의 피드백에 기초하여 영혼부(1)에 기억되어 있는 피드백 데이타(도 4)에 따라 결정된다. 또한, Ij(p, t)는 외적 입력부(12)로부터, 어떤 입력 j가 제공될 때에 있어서의, 파라메터 EP의 갱신량으로, 이것은, 그 입력 j에 기초하여 영혼부(1)에 기억되어 있는 피드백 데이타에 따라 결정된다.
또, 여기서는, 갱신량 Ak(p, t)는 시각 t의 함수로 되어 있지만, 이것은, 갱신량 Ak(p, t)를, 시각의 경과, 즉, 전자 페트의 성장에 따라 갱신량을 변화시킬 수 있도록 하기 위함이다. 구체적으로는, 예를 들면, 어떤 자극에 대해, 아기일 때에는 민감하게 반응하고, 성장함에 따라 반응이 둔해지는 경우가 있다. 이러한, 성장에 따른 변화를 실현하기 위해, 갱신량 Ak(p, t)은 시각 t의 함수로 되어 있다. 또, 어떤 시각 t에서의 갱신량 Ak(p, t)는 그 값 그 자체를, 영혼부(1)에 기억시켜 두지 않아도, 예를 들면, 소정의 몇몇의 시각 T1, T2, …에 있어서의 갱신량 Ak(p, T1), Ak(p, T2), …를, 영혼부(1)에 기억시켜 놓고, 그들을 이용한 선형 보간 등을 행함으로써 구해지(생성하)게 하는 것이 가능하다. 또한, 갱신량 Ak(p, t)를, 시각 t에 대해 연속적으로 변화시킬 필요가 없는 경우에는, 시각 t가 0 내지 T1의 범위에서는 갱신량으로서 Ak(p, T1)를 이용하고, 시각 t가 T1 내지 T2의 범위에서는 갱신량으로서 Ak(p, T2)를 이용하고, 이하, 마찬가지로 하여, 이용하는 갱신량을, 시각 t에 의해서 선택하고, 변화시키도록 하여도 좋다.
갱신량 Ij(p, t)도, 시각 t의 함수로 되어 있지만, 이것도, 갱신량 Ak(p, t)가 시각 t의 함수로 되어 있는 것과 마찬가지의 이유 때문이다.
또, 본 실시 형태에서는 시각 t, 예를 들면, 100ms를 1로서(단위 시간으로서) 변화하도록 이루어져 있다.
내부 상태 계산부(11)는 영혼부(1)에 기억된 내부 상태를 갱신하면, 스텝 S2로 진행하고, 그 갱신 후의 내부 상태가, 영혼부(1)에 기억된 N개의 행동 발화 조건 중 어느 하나를 만족하는지의 여부를 판정한다. 여기서, 이 판정은 예를 들면, 다음과 같이 하여 행해진다.
즉, 영혼부(1)에 기억된 행동 발화 조건에 있어서는, 도 7에 도시한 바와 같이, 그 행동이 행해지기 위한 내부 상태의 최소치 및 최대치가 규정되어 있다. 지금, 어떤 행동 k에 대한 행동 발화 조건에 있어서 규정되어 있는, 내부 상태의 파라메터 Ep에 대한 최소치 또는 최대치를, 각각 cminP(k) 또는 cmaxP(k)로 나타내면, 행동 k에 대한 행동 발화 조건은, 예를 들면, 다음 식으로 표현하는 함수 f(E1, E2…EP)가 1일 때에 만족된다.
(cmin2(k) E2cmax2(k))
(cminP(k) EPcmaxP(k))
단, 상기 수학식에 있어서, 는 논리곱을 나타낸다. 또한, 상기 수학식에 있어서의 우변의 (cminP(k) E1cmaxP(k))는, 괄호 내의 조건을 만족할 때, 또는 만족하지 않을 때, 각각 1 또는 0이 되도록 한다.
스텝 S2에 있어서, 수학식 2를 1로 하는 행동 발화 조건이 있다고 판정된 경우, 스텝 S3으로 진행하고, 내부 상태 계산부(11)는 그 행동 발화 조건에 대응하는 행동을, 전자 페트에게 행하게 하도록 행동 변환부(15)에 명령을 출력하고, 스텝 S1로 되돌아간다. 또, 수학식 2를 1로 하는 행동 발화 조건이 복수 존재하는 경우에는, 예를 들면, 그 중 1이 랜덤으로 선택되고, 그 선택된 행동 발화 조건에 대응하는 행동을 행하도록 지시하는 명령이 행동 변환부(15)로 출력된다. 단, 복수의 행동 발화 조건에 대응하는 행동 중 2 이상을, 동시에 행하는 것이 가능한 경우에는, 그 2이상의 행동을 행하도록 지시하는 명령을, 행동 변환부(15)로 출력하는 것도 가능하다. 구체적으로는, 예를 들면, 「걷는다」와 「짖는다」라고 하는 행동은, 그 중 어느 한쪽만이 아니라, 양쪽을 동시에 행하게 하는 것도 가능하다.
한편, 스텝 S2에 있어서, 수학식 2를 1로 하는 행동 발화 조건이 없다고 판정된 경우, 스텝 S3을 스킵하여 스텝 S1로 되돌아가고, 스텝 S1에서의 처리가 반복된다. 즉, 이 경우, 전자 페트는 아무런 행동도 행하지 않는다(대기한다고 하는 행동을 행하게 하는 명령이, 내부 상태 계산부 11로부터 행동 변환부 15로 출력된다).
여기서, 이상과 같이, 내부 상태가 피드백 데이타에 기초하여 갱신되고, 그 갱신 후의 내부 상태가 행동 발화 조건을 만족시키는지의 여부로 전자 페트의 행동이 결정된다. 이 때문에, 갱신 전의 내부 상태가 동일하더라도, 피드백 데이타가 다르거나, 또한, 행동 발화 조건이 다르면, 전자 페트가 일으키는 행동은 다르다. 따라서, 피드백 데이타 및 행동 발화 조건은 전자 페트의 성격 또는 행동 경향을 규정하기 위한 정보(성격/행동 경향 규정 정보)라고 할 수 있다.
또, 행동 발화 조건도 상술한 갱신량 Ak(p, t) 및 Ij(p, t)와 마찬가지로, 시각t의 함수로 하고, 전자 페트의 성장과 동시에 변화시키는 것이 가능하다.
다음에, 도 9는 도 2의 가상 페트 장치(22)의 하드웨어 구성예를 나타내고 있다.
CPU(Central Processing Unit: 31)는, ROM(Read Only Memccy: 32)에 기억된 프로그램에 따라서 각종 처리를 행하도록 이루어져 있다. 타이머 회로(31A)는 도시하지 않은 클럭을 카운트하고, 그 카운트치에 기초하여 CPU(31)에 대해, 소정의 단위 시간(예를 들면, 상술한 바와 같이, 100ms)마다 타이머 인터럽트를 발생시키도록 이루어져 있다.
ROM(32)은 CPU(31)가 실행할 프로그램이나, 그 프로그램을 실행하는데 있어서 필요한 데이타를 기억하고 있다. RAM(Random Access Memory: 33)은 CPU(31)의 동작에 필요한 데이타를 기억하도록 이루어져 있다. I/F(34)는 CPU(31)와, A/D 변환기(36), 조작부(37), IC 카드용 커넥터(38), D/A 변환기(39), 액정 컨트롤러(41) 각각 사이의 인터페이스로서 기능하도록 이루어져 있다.
또, 이상 중 CPU(31), ROM(32), RAM(33), I/F(34)는 상호 버스(어드레스 버스나 데이타 버스 등)를 통해 접속되어 있다.
마이크(마이크로폰: 35)는 거기에 입력되는 음성(예를 들면, 피리 소리 그 밖의 소리를 포함)을, 아날로그의 전기 신호로서의 음성 신호로 변환하고, A/D 변환기(36)에 공급하도록 이루어져 있다. A/D 변환기(36)는 마이크(35)로부터의 아날로그의 음성 신호를 A/D 변환하고, 디지탈의 음성 신호로서, I/F(34)를 통해 CPU(31)에 출력하도록 이루어져 있다. 여기서, CPU(31)는 이와 같이 하여 음성 신호를 수신한경우, 예를 들면, 그 음성 신호를 선형 예측 분석함으로써, 그 특징량을 추출하고, 또한, 예를 들면, HMM(Hidden Markov Model)법에 기초하여 음성 인식을 행하도록 이루어져 있다. 여기서, CPU(31)가 음성 인식을 행하기 위해 실행하는 프로그램, 및 음성 인식의 대상으로 하는 단어의 모델은, 예를 들면, ROM(32)에 기억되어 있다. 또한, 여기서는, 음성 인식의 대상으로 하는 단어의 모델로서, 특히, 기르는 주인이 페트에 대해 말을 걸 때 이용하는 단어(예를 들면, 「요놈!」, 「아이고 착해라!」, 「안녕?」, 「잘자라」, 「손!」, 「앉아!」, 「뭐 하고 있는 거야?」 등)의 모델이 기억되어 있다.
또, 음향 분석의 수법은 선형 예측 분석으로, 음성 인식의 수법은 HMM법으로, 각각 한정되는 것은 아니다.
조작부(37)는 각종 버튼이나 키로 구성되며, 사용자가 조작하면, 그 조작에 대응한 신호가 I/F(34)로부터 CPU(31)에 공급되고, 이에 따라, CPU(31)에 있어서, 사용자가 조작한 버튼이나 키 등을 인식할 수 있도록 이루어져 있다. 또, 조작부(37)는 예를 들면, 전자 페트를 야단칠 때에 조작되는 「야단치다」 버튼이나, 칭찬할 때에 조작되는 「칭찬하다」버튼, 「안녕?」이나 「잘자!」 등의 말을 거는 것에 상당하는 「인사」버튼, 재주 부리기로서의, 예를 들면, 손을 내밀게 하거나, 앉으라고 명령할 때에 조작되는 「손!」 버튼이나 「앉아!」버튼 등의, 전자 페트에 대해 각종의 입력을 제공하기 위한 버튼을 갖고 있다.
IC 카드용 커넥터(38)는 가상 페트 장치(22)의 슬롯(22A: 도 2) 중에 설치되어 있고, IC 카드(21)가 슬롯(22A)에 장착될 때에, IC 카드(21)와 CPU(31)를, I/F(34)를 통해 전기적으로 접속하도록 이루어져 있다. 여기서, CPU(31)는 I/F(34) 및 IC 카드용 커넥터(38)를 통해 IC 카드(21)에 대해 데이타를 기록 및 판독하도록 이루어져 있다. 또한, CPU(31)는 IC 카드(21)의 장착의 유무를 검출할 수 있도록 이루어져 있다.
D/A 변환기(39)는 CPU(31)로부터 I/F(34)를 통해 공급되는 디지탈의 음성 신호를 D/A 변환하고, 아날로그의 음성 신호로서, 스피커(40)에 공급하도록 이루어져 있다. 스피커(40)는 증폭기를 내장하고, D/A 변환기(39)로부터의 음성을 증폭하여 출력하도록 이루어져 있다. 여기서, CPU(31)는 필요한 경우에는, 전자 페트의 울음 소리 외의 필요한 음성을, 예를 들면 음성 합성에 의해 생성하고, I/F(34)를 통해 D/A 변환기(39)로 출력하도록 이루어져 있다. 또, 음성 합성을 행하기 위한 프로그램, 및 음성 합성에 필요한 데이타는 예를 들면, ROM(32)에 기억되어 있다.
액정 컨트롤러(41)는 I/F(34)를 통해 CPU(31)에 제어되고, 액정 표시부(42)에, 각종 화상(예를 들면, 전자 페트의 화상 등)이나 문자 등을 표시시키도록 이루어져 있다. 액정 표시부(42)는 액정 컨트롤러(41)의 제어에 따라 화상이나 문자 등을 표시하도록 이루어져 있다. 또, ROM(32)은 액정 컨트롤러(41)를 제어함으로써 액정 표시부(42)에 화상이나 문자를 표시시키기 위한 프로그램을 기억하고 있고, CPU(31)는 이 프로그램을 실행함으로써 액정 표시부(42)에, 화상이나 문자 등을 표시시키도록 이루어져 있다.
다음에, 도 10은 도 2의 페트형 로보트(23)의 하드웨어 구성예를 나타내고 있다. 또, 도면 중, 도 9의 가상 페트 장치(22)에 있어서의 경우와 대응하는 부분에 대해서는 동일한 부호를 붙이고 있다. 즉, 페트형 로보트(23)는 액정 컨트롤러(41) 및 액정 표시부(42)를 대신하여 모터(51) 및 구동 기구(52)가 설치되어 있는 외에는, 가상 페트 장치(22)와, 기본적으로 마찬가지로 구성되어 있다.
모터(51)는 I/F(34)를 통해, CPU(31)로 제어되고, 구동 기구(52)를 구동하도록 이루어져 있다. 구동 기구(52)는 예를 들면, 페트형 로보트(23)의 가동 부분으로서의 머리나 팔 다리, 몸통 등을 구성하고, 모터(51)에 의해 구동되도록 이루어져 있다.
또, 도 3의 I/F(10)는 도 9 및 도 10의 I/F(34) 및 IC 카드용 커넥터(38)에 대응하고, 도 3의 내부 상태 계산부(11) 및 행동 변환부(15)는 도 9 및 도 10의 CPU(31) 및 ROM(32)에 대응한다. 또한, 도 3의 외적 입력부(12)는 도 9 및 도 10의 마이크(35) 및 A/D 변환기(36)나 조작부(37)에 대응한다. 또한, 도 3의 시간 입력부(13)는 도 9 및 도 10의 타이머 회로(31A)에 대응하고, 도 3의 모델 기억부(14)는 도 9 및 도 10의 ROM(32)에 대응한다. 또한, 도 3의 출력부(16)는 도 9 및 도10의 D/A 변환기(39) 및 스피커(40)나, 도 9의 액정 컨트롤러(41) 및 액정 표시부(42), 또는 도 10의 모터(51) 및 구동 기구(52)에 대응한다.
다음에, 도 11의 플로우차트를 참조하여 육체부로서의, 도 9에 도시한 가상 페트 장치(22) 및 도 10에 도시한 페트형 로보트(23)를 구성하는 CPU(31)의 처리에 대해 설명한다.
IC 카드용 커넥터(38)에, IC 카드(21)가 장착되고, 전원이 온으로 되면, CPU(31)에서는 전자 페트의 행동을 제어하기 위한 행동 제어 처리가 행해진다.
즉, CPU(31)는 각 블럭을 초기 상태로 리셋트한다. 이에 따라, 예를 들면, RAM(33)의 기억치는 클리어되고, 타이머 회로(31A)의 카운트치는 리셋트된다.
그 후, 타이머 회로(31A)에 의한 클럭의 카운트가 개시되고, 스텝 S11에 있어서, 소정의 단위 시간(상술한 바와 같이, 여기서는, 예를 들면, 100ms)이 경과했는지의 여부가 판정된다. 여기서, 타이머 회로(31A)는 클럭을 카운트하고, 그 카운트치가 소정의 단위 시간에 상당하는 값으로 되면, CPU(31)에 타이머 인터럽트를 발생시키고, 또한, 카운트치를 리셋트하여 클럭을 카운트하는 것을 반복하도록 이루어져있고, 스텝 S11에서는 타이머 회로(31A)에 의한 타이머 인터럽트에 기초하여, 소정의 단위 시간이 경과했는지의 여부가 판정된다.
스텝 S11에 있어서, 소정의 단위 시간이 경과하고 있지 않다고 판정된 경우, 스텝 S11로 되돌아간다. 또한, 스텝 S11에 있어서, 소정의 단위 시간이 경과하였다고 판정된 경우, 스텝 S12로 진행하고, CPU(31)는 외적 입력 및 내적 입력을 인식한다.
즉, 마이크(35)에 음성이 입력된 경우, 그 음성 신호는 A/D 변환기(36)에 있어서 A/D 변환되고, I/F(34)를 통해 외적 입력으로서 CPU(31)에 공급된다. CPU(31)는 그 음성 신호를 수신하고, 스텝 S12에 있어서, 상술한 바와 같이 하여 그 음성 인식을 행한다. 또한, 조작부(37)를 구성하는 어느 하나의 버튼이 조작된 경우, 그 조작에 대응하는 조작 신호가 외적 입력으로서, I/F(34)로부터 CPU(31)에 공급된다. CPU(31)는 그 조작 신호를 수신하고 스텝 S12에 있어서, 어떤 버튼이 조작된 것인지를 인식한다.
여기서, 음성 인식의 대상으로 되어 있는 단어와, 조작부(37)를 구성하는 각 버튼과는 그 개념에 따라 대응되고 있다. 즉, 예를 들면, 상술한 바와 같이, 「요놈!」, 「아이고 착해라!」,「안녕?」, 「잘자라」, 「손!」, 「앉아!」, 「뭐 하고 있는 거야?」가 음성 인식의 대상으로 되어 있음과 동시에, 조작부(37)가「야단치다」버튼, 「칭찬하다」버튼, 「인사」버튼, 「손을 내밀다」버튼, 「자리에 앉다」 버튼을 갖고 있는 경우에 있어서는, 등가의 개념의 입력을 제공하기 위한 단어「요놈!」과 「야단치다」버튼, 단어「아이고 착해라!」와「칭찬하다」버튼, 단어「안녕?」및 「잘자라」와 「인사」버튼, 단어「손!」과「손을 내밀다」버튼, 단어「앉아!」와 「자리에 앉다」버튼은 각각 대응되어 있고, 이 대응되어 있는 단어와 버튼끼리에 대해서는 그 단어가 입력되더라도, 또는, 버튼이 조작되더라도, 동일한 입력이 이루어졌다고 인식되도록 되어 있다. 즉, CPU(31)에서는 예를 들면, 음성「요놈! 」이 입력되더라도, 또는, 「야단치다」 버튼이 조작되더라도, 이 중 어느 한쪽의 경우에서도, 전자 페트를 야단치기 위한 입력이 제공되었다고 인식된다.
스텝 S12에서는, 이상과 같이 하여 외적 입력이 인식되는 외에, 내적 입력도 인식된다. 즉, 후술하는 스텝 S19에서는 전자 페트가 어떤 행동을 일으킬 때에, 그 행동을 식별하기 위한 식별 정보가 RAM(33)의 소정의 어드레스에 기록되도록 이루어져 있고, CPU(31)는 그 어드레스에 억세스함으로써 식별 정보를 수신하고, 이것에 기초하여, 전자 페트가 일으킨 행동을, 내적 입력으로서 인식한다.
또, 도 11의 실시 형태에서는, 설명의 편의상, CPU(31)에 있어서, 각 처리 스텝이 시켄셜로 행해지도록, 플로우차트를 도시하고 있지만, 실제로는, CPU(31)에서는 예를 들면, 각종 처리가 그 처리에 할당된 쓰레드에 있어서 병렬로 행해지도록 이루어져 있다. 이에 따라, 음성의 입력이나, 조작부(37)의 조작은 항상 행할 수 있도록 이루어져 있고, 또한, 스텝 S12에 있어서의 외적 입력 및 내적 입력의 인식 처리는 그 처리에 할당된 쓰레드로 행해지도록 이루어져 있다.
외적 입력 및 내적 입력의 인식 후에는, 스텝 S13으로 진행하고, 내부 상태(도 5)가, 외적 입력, 내적 입력, 및 시간 입력에 대응하여 갱신된다.
즉, CPU(31)는 I/F(34) 및 IC 카드용 커넥터(38)를 통해 IC 카드(21)에 기억되어 있는 유전자 데이타를 참조하고, 스텝 S12에서 인식된 외적 입력 또는 내적 입력 각각에 대응하는, 내부 상태의 각 항목에 대한 피드백 데이타를 인식한다. 또한, CPU(31)는 시간 입력에 대응하는, 내부 상태의 각 항목에 대한 피드백 데이타를 인식한다. 그리고, CPU(31)는 예를 들면, 외적 입력, 내적 입력, 또는 시간적 입력 각각에 대응하는, 내부 상태의 각 항목에 대한 피드백 데이타(도 6)를, 대응하는 내부상태의 항목의 파라메터에 가산하고, 그 가산치를, 내부 상태의 각 항목의 파라메터의 갱신치로서, IC 카드(21)에 공급하여 기억시킨다.
또, 전회의 타이머 인터럽트로부터 금회의 타이머 인터럽트까지의 동안에, 외적 입력이 없었던 경우에는, 외적 입력에 대응하는 피드백 데이타는 0으로 된다. 또한, 전회의 타이머 인터럽트로부터 금회의 타이머 인터럽트까지의 동안에, 전자 페트가 어떤 행동도 일으키지 않는 경우에는, 후술하는 스텝 S15에 있어서, 내적 입력은 없음으로 되고, 내적 입력에 대응하는 피드백 데이타도 0으로 된다. 단, 외적 입력및 내적 입력 중 어느 것도 없는 경우에서도, 내부 상태는 시간 입력에 대응하는 피드백 데이타에 의해 갱신된다. 즉, 내부 상태는 타이머 인터럽트가 발생할 때마다, 적어도, 시간의 경과에 대응하여 갱신된다.
내부 상태의 갱신 후에는, 스텝 S14로 진행하고, CPU(31)는 다시, 유전자 데이타를 참조하고, 갱신 후의 내부 상태가 어느 하나의 행동 발화 조건(도 7)을 만족시키는지의 여부를 판정한다. 스텝 S14에 있어서, 갱신 후의 내부 상태가 어느 하나의 행동 발화 조건도 만족시키지 않는다고 판정된 경우, 스텝 S15로 진행하고, 다음번의 타이머 인터럽트 시에 있어서의 내적 입력은 없음으로 되어, 스텝 S11로 되돌아간다.
또한, 스텝 S14에 있어서, 갱신 후의 내부 상태가 어느 하나의 행동 발화 조건을 만족시킨다고 판정된 경우, 스텝 S16으로 진행하고, 갱신 후의 내부 상태가 복수의 행동 발화 조건을 만족하는지의 여부가 판정된다. 스텝 S16에 있어서, 갱신 후의 내부 상태가, 복수의 행동 발화 조건을 만족시킨다고 판정된 경우, 스텝 S17로 진행하고, 그 복수의 행동 발화 조건에 대응하는 행동 중 어느 하나가 랜덤으로 선택되고, 스텝 S18로 진행한다. 스텝 S18에서는, 그 선택된 행동을 일으키도록 필요한 블럭이 제어되고, 스텝 S19로 진행한다.
즉, 스텝 S17에서 선택된 행동이, 예를 들면, 「짖다」인 경우, CPU(31)는 전자 페트의 울음 소리에 대응하는 음성 신호를 생성하고, I/F(34) 및 D/A 변환기(39)를 통해 스피커(40)로부터 출력시킨다. 또한, CPU(31)는 짖는 상태의 전자 페트의 그래픽스 데이타를 생성하고, 액정 컨트롤러(41)에 공급함으로써, 액정 표시부(42)에, 짖는 상태의 전자 페트를 표시시킨다. 혹은, CPU(31)는 모터(51)를 제어함으로써, 입에 대응하는 구동 기구(52)를, 전자 페트가 짖고 있는 것처럼 보이도록 움직이게 한다.
한편, 스텝 S16에 있어서, 갱신 후의 내부 상태가 복수의 행동 발화 조건을 만족시키지 않는다고 판정된 경우, 즉, 내부 상태가 어떤 1의 행동 발화 조건을 만족시키는 경우, 스텝 S17을 스킵하여 스텝 S18로 진행하고, 내부 상태를 만족시키는 행동 발화 조건에 대응하는 행동을 일으키도록, 필요한 블럭이 제어되고, 스텝 S19로 진행한다.
스텝 S19에서는, 스텝 S18에 있어서 일으킨 전자 페트의 행동의 식별 정보가 RAM(33)의 소정의 어드레스에 기록되고, 스텝 S11로 되돌아간다.
또, 도 11의 실시 형태에서는, 내부 상태가 복수의 행동 발화 조건을 만족시키는 경우, 그 중의 1에 대응하는 행동을 랜덤으로 선택하고, 그 행동을 전자 페트에게 행하게 하도록 하였지만, 그 밖에, 예를 들면, 행동에 우선 순위를 붙여 놓고, 가장 우선 순위가 높은 행동을 행하게 하도록 하는 것 등도 가능하다. 또한, 내부상태가, 복수의 행동 발화 조건을 만족시키는 경우에 있어서는, 상술한 바와 같이, 그 복수의 행동 발화 조건에 대응하는 행동의 2 이상을 동시에 행할 수 있는 것이면, 그 동시에 행할 수 있는 행동의 전부를 동시에 행하게 하도록 하여도 좋다.
또한, 도 11의 실시 형태에서는, 스텝 S13에 있어서, 갱신 후의 내부 상태를, IC 카드(21)에 기록하도록 하였지만, 그 밖에, 예를 들면, IC 카드용 커넥터(38)에, IC 카드(21)가 장착된 후에는, 거기에 기억되어 있는 유전자 데이타를, RAM(33)에 복사하고, RAM(33)에 기억된 유전자 데이타(내부 상태)를 재기록하도록 하여도 좋다. 단, 이 경우에, IC 카드(21)가 IC 카드용 커넥터(38)로부터 떼어 내지기 전에, RAM(33) 상의 유전자 데이타를, IC 카드(21)에 기록할 (IC 카드 21에 기억되어 있는 유전자 데이타를 갱신할) 필요가 있다.
다음에, 상술한 바와 같이, 피드백 데이타 및 행동 발화 조건은 전자 페트의 성격 또는 행동 경향을 규정하기 위한 성격/행동 경향 규정 정보이고, 따라서, 이들을 변경한 경우, 전자 페트의 성격 또는 행동 경향도 변화한다. 즉, 예를 들면, 짖는다고 하는 행동의 행동 발화 조건을 느슨하게 하면, 그 전자 페트는 빈번하게 짖게 된다. 한편, 짖는다고 하는 행동의 행동 발화 조건을 엄격하게 하면, 그 전자 페트는 그다지 짖지 않게 된다.
따라서, 예를 들면, 전자 페트가 짖는 경우에 있어서, 기르는 주인(사용자)이 칭찬할 때에는, 짖는다고 하는 행동의 행동 발화 조건을 느슨하게 하도록 변경하고, 반대로, 기르는 주인이 화가 났을 때에는, 짖는다고 하는 행동의 행동 발화 조건을 엄격하게 하도록 변경하면, 기르는 주인이 취한 태도에 의해 전자 페트의 성격 또는 행동 경향을 바꿀 수 있다. 즉, 전자 페트의 학습을 행할 수 있다.
도 12의 플로우차트는 전자 페트를 학습시키기 위해 CPU(31)가 하는 학습 처리를 나타내고 있다.
이 학습 처리는, 전자 페트가 행동을 일으킨 경우에 행해진다.
즉, 전자 페트가 행동을 일으키면, 구체적으로는, 도 11의 스텝 S18에 있어서 전자 페트가 일으킨 행동의 식별 정보가, 스텝 S19에 있어서, RAM(33)의 소정의 어드레스에 기록되면, 학습 처리가 개시되고, 스텝 S21에 있어서, 그 행동에 대해, 사용자로부터 어떠한 입력(외적 입력)이 있었는지의 여부가 판정된다. 스텝 S21에 있어서, 아무런 입력도 없었다고 판정된 경우, 학습 처리를 종료한다.
또한, 스텝 S21에 있어서, 전자 페트가 일으킨 행동에 대해 사용자로부터, 어떠한 입력이 있었다고 판정된 경우에, 스텝 S22로 진행하고, 그 입력이 행동의 억제를 지령하는 것인지의 여부가 판정된다. 스텝 S22에 있어서, 사용자로부터의 입력이 행동의 억제를 지령하는 것이라고 판정된 경우에, 즉, 사용자로부터의 입력이 예를 들면, 「요놈!」이라는 음성이거나, 「야단치다」 버튼에 대응하는 조작 신호인 경우에, 스텝 S23으로 진행하고, 전자 페트가 일으킨 행동(RAM 33 상에 기억되어 있는 식별 정보에 의해 특정되는 행동)에 대응하는 행동 발화 조건이, 그 행동이 일어날 가능성이 낮아지도록 변경되어(행동 발화 조건이 엄격하게 되어), 학습 처리를 종료한다.
한편, 스텝 S22에 있어서, 사용자로부터의 입력이 행동의 억제를 지령하는 것이 아니라고 판정된 경우에, 스텝 S24로 진행하고, 그 입력이 행동을 장려하는 것이었는지의 여부가 판정된다. 스텝 S24에 있어서, 사용자로부터의 입력이 행동을 장려하는 것이 아니라고 판정된 경우에, 즉, 사용자로부터의 입력이 행동을 억제하는 것 라도, 장려하는 것이 아닌 경우, 학습 처리를 종료한다.
또한, 스텝 S24에 있어서, 사용자로부터의 입력이 행동을 장려하는 것이라고 판정된 경우, 즉, 사용자로부터의 입력이, 예를 들면, 「아이고 착해라!」라는 음성이거나, 「칭찬하다」 버튼에 대응하는 조작 신호인 경우에, 스텝 S25로 진행하고, 전자 페트가 일으킨 행동에 대응하는 행동 발화 조건이 그 행동이 발생될 가능성이 높아지도록 변경되어(행동 발화 조건이 느슨하게 되어), 학습 처리를 종료한다.
이상과 같은 학습 처리에 의하면, 예를 들면, 전자 페트의 행동이나 행위를 올바르게 교육시키기 위한 훈련을 행할 수 있다.
즉, 예를 들면, 전자 페트가 짖는 경우에, 그 짖는다라고 하는 행동을 억제하는, 야단친다라고 하는 외적 입력을, 사용자가 제공함으로써, 학습 처리에서는 도 13의 플로우차트에 도시된 바와 같이, 사용자의 입력이 있었다고 판정된다(스텝 S31). 또한, 사용자로부터의, 야단친다라고 하는 외적 입력이, 행동을 억제하는 것이라고 판정된다(스텝 S32 ). 그리고, 짖는다라고 하는 행동의 행동 발화 조건이, 짖는다고 하는 행동이 발생될 가능성이 낮아지도록 변경된다(스텝 S33).
그 결과, 전자 페트는, 그다지 짖지 않는다.
또, 사용자로부터의 외적 입력이 행동을 억제하는 것인지, 또는 장려하는 것인지의 판정은, 예를 들면, 도 6에 도시한 외적 입력의 각 항목에, 그 입력이 어느 쪽인지를 나타내는 것인지를 도시한 1비트의 플래그를 붙여 놓도록 하고, 그 플래그에 기초하여 행하도록 하면 좋다. 또한, 행동 발화 조건을, 그 행동이 발생될 가능성이 낮거나, 또는 높게 되도록 변경한다고 하는 것은, 기본적으로는, 도 6에 도시한 하한치와 상한치와의 차를 작거나, 또는 크게 하는 것을 의미하지만, 엄밀하게는, 내부 상태의 항목이나, 행동에 의해 행동 발화 조건의 변경 방법은 다르다.
다음에, 이상의 학습 처리에 의하면, 예를 들면, 전자 페트에게 재주 부리기를 기억시키는 것도 가능해진다.
즉, 전자 페트의 내부 상태에서는, 도 5에서 설명한 바와 같이, 그 항목의 하나로서「재주 부리기」가 있지만, 이 항목「재주 부리기」는 도 14에 도시한 바와 같이, 보다 구체적인 재주 부리기의 항목으로 세분화되어 있다. 여기서, 도 14의 실시 형태에서는, 항목「재주 부리기」는, 구체적인 재주 부리기인 「손을 내밀다」, 「자리에 앉다」, …로 세분화되어 있다.
이것에 대응하여, 피드백 데이타도, 도 15에 도시한 바와 같이, 외적 입력, 시간 입력, 내적 입력의 각각마다, 구체적인 재주 부리기(내부 상태)「손을 내밀다」, 「자리에 앉다」, … 에 대한 것이 규정되어 있다. 또한, 외적 입력에는, 사용자가 재주 부리기「손!」이나 「앉아!」를 요구하는 입력에 관한 항목이 설치되어 있고, 내적 입력에도, 재주 부리기(행동「손을 내밀다」나 「자리에 앉다」에 대한 것이 설치되어 있다.
또한, 행동 발화 조건에 대해서도, 도 l6에 도시한 바와 같이, 구체적인 재주 부리기(행동) 「손을 내밀다」나 「자리에 앉다」를 하는 경우가 설치되어 있다.
도 15의 실시 형태에 의하면, 예를 들면, 내부 상태「손을 내밀다」의 파라메터는 외적 입력「손!」이 있으면, 즉, 사용자가 음성「손!」을 내보내면, 1000 단위로 증가한다. 그리고, 도 16의 실시 형태에 도시한 바와 같이, 내부 상태「손을 내밀다」가 90000 이상 100000 이하의 값으로 되고, 또한, 다른 내부 상태도 소정의 값으로 되어, 모든 내부 상태가, 행동「손을 내밀다」의 행동 발화 조건을 만족시키게 되면, 전자 페트는, 행동「손」을 내밀게 된다.
즉, 내부 상태가 「손을 내밀다」만이라고 가정한 경우에, 사용자가, 음성「손!」을 반복 내보내면, 내부 상태「손을 내밀다」의 파라메터가 1000씩 증가하고, 그것이, 90000 이상으로 되면, 전자 페트는 「손」을 내밀게 된다. 또,「손」을 계속해서 내밀면, 도 15에 도시한 바와 같이, 내적 입력「손을 내밀다」에 대응하는 피드백 데이타에 기초하여 내부 상태「손을 내밀다」의 파라메터는 100 단위로 감소해 가므로, 그 값이 행동「손을 내밀다」의 행동 발화 조건을 만족시키지 않게 되면, 즉, 90000 미만으로 하면, 전자 페트는 「손」을 내미는 일을 그만두게 된다.
또, 재주 부리기에 관한 항목은, 내부 상태, 피드백 데이타, 및 행동 발화 조건에 미리 설치해 놓는 것이 아니라, 학습에 의해 후에 추가하도록 하는 것도 가능하다.
즉, 예를 들면, 가상 전자 페트 장치(22)에 있어서, 「손!」이라는 외적 입력과, 「손을 내밀다」에 관한 내부 상태, 피드백 데이타, 및 행동 발화 조건을 대응시키고, 소정의 테이블에 등록해 놓음과 동시에, 각종 행동을 행한 상태의 전자 페트의 그래픽스데이타를 등록해 놓는다. 또한, 예를 들면, 가상 전자 페트 장치(22)에서는, 외적 입력「손!」이 입력된 경우에는, 각종 행동을 행한 상태의 전자 페트의 그래픽스 데이타를 랜덤으로 선택하여 표시하도록 하고, 사용자는, 행동「손」을 내밀고 있는 상태의 전자 페트가 표시될 때에는, 칭찬하기 위한 외적 입력을 제공하고, 그 이외의 상태의 전자 페트가 표시될 때에는, 야단치기 위한 외적 입력을 제공하도록 한다. 그리고, 가상 전자 페트 장치(22)에 있어서, 이러한 사용자의 외적 입력에 기초하여 학습을 행하고, 외적 입력「손!」과, 전자 페트가 「손」을 내밀고 있는 상태의 그래픽스 데이타를 대응시키고, 그 후에, 재주 부리기「손을 내밀다」에 관한 항목을, 내부 상태, 피드백 데이타, 및 행동 발화 조건에 추가하도록 하면 좋다.
또한, 도 12의 학습 처리에서는, 전자 페트가 행동을 일으키고, 사용자로부터 외적 입력이 있던 경우에, 그 직전의 행동을 장려 또는 억제하도록 하였지만, 그 밖에, 예를 들면, 전자 페트가 일으킨 행동의 이력을 기억해 놓고, 과거에 행해진 복수의 행동의 1 이상을 선택하여, 그 행동을 장려 또는 억제하도록 하는 것도 가능하다.
다음에, 영혼부(1)에 기억되어 있는 유전자 데이타는 실제 생물의 유전자에 상당하고, 따라서, 부모로서의 전자 페트끼리를 교배시켜, 그 부모의 특징을 구비하는 아이로서의 전자 페트를 태어나게 (작성하게) 하는 것이 가능해진다.
교배는, 예를 들면, 도 17a에 도시한 바와 같이, 부모(예를 들면, 부친) A로서의 전자 페트의 유전자 데이타의 일부와, 부모(예를 들면, 모친) B로서의 전자 페트의 유전자 데이타의 일부를 추출하고, 이들을, 아이 C로서의 전자 페트의 유전자 데이타로 함으로써 행할 수 있다. 또한, 예를 들면, 도 17b에 도시한 바와 같이, 부모A로서의 전자 페트의 유전자 데이타와, 부모 B로서의 전자 페트의 유전자 데이타와의 가중 가산을 하고, 그 가산 결과를, 아이 C로서의 전자 페트의 유전자 데이타로 하는 것도 가능하다. 또한, 예를 들면, 도 17c에 도시한 바와 같이, 아이 C로서의 전자 페트의 유전자 데이타의 일부를, 부모 A 및 B로서의 전자 페트의 유전자 데이타로 구성하고, 나머지를, 부모 A나 B와는 무관계의 데이타로 구성하는 것도 가능하다. 이 경우, 아이 C로서의 전자 페트는, 소위 돌연 변이가 된다.
교배는, 예를 들면, 도 18에 도시한 바와 같이 하여 행할 수 있다.
즉, 가상 페트 장치(122)는 도 2의 가상 페트 장치(22)와 마찬가지로 구성된다. 단, 가상 페트 장치(l22)에는 슬롯(22A)과 마찬가지의 슬롯이 2개 설치되어 있고, 거기에, 부모 A 또는 B 각각의 영혼인 IC 카드(l21A 또는 121B)를 장착한다. 이 경우, 가상 페트 장치(122)에서는 IC 카드(121A 또는 121B)에 기억된 유전자 데이타로부터, 도 17에서 설명한 바와 같이 하여, 아이 C의 유전자 데이타가 작성된다. 이 유전자 데이타는 예를 들면, 부모 A 또는 B를 각각 부친 또는 모친으로 하면, 모친인 부모 B의 IC 카드(121B)나, 가상 페트 장치(122)가 내장되는 메모리에 기억된다.
그 후, 부모 A의 IC 카드(121A)를, 가상 페트 장치(122)의 슬롯으로부터 추출하고, 그 슬롯에, 아이 C의 영혼이 되는 IC 카드(121C)를 장착한다. 이에 따라, 부모 B의 IC 카드(121B), 또는 가상 페트 장치(122)가 내장되는 메모리에 기억된 아이C의 유전자 데이타가 IC 카드(121C)에 전송되어 기억된다.
또한, 교배는 예를 들면, 도 19에 도시한 바와 같이 하여 행하는 것도 가능해진다.
즉, 가상 페트 장치(122) 외에, 그것과 마찬가지로 구성되는 가상 페트 장치(222: 단, 가상 페트 장치 222의 슬롯은 1개라도 좋다)를 준비한다. 그리고, 예를 들면, 가상 페트 장치(122)에, 부모 A의 IC 카드(121A)와, 아이 C의 영혼이 되는 IC 카드(121C)를 장착하고, 가상 페트 장치(222)에, 부모 B의 IC 카드(121B)를 장착한다. 그리고, 가상 페트 장치(122 및 222)를, 소정의 통신 회선으로 접속하고, 부모 B의 IC 카드(121B)에 기억된 유전자 데이타를, 가상 페트 장치(222)로부터, 통신 회선(l22)을 통해 가상 페트 장치(122)로 전송한다. 가상 페트 장치(122)에서는, 가상 페트 장치(122)로부터 전송되어온 부모 B의 유전자 데이타와, IC 카드(121A)에 기억된 부모 A의 유전자 데이타로부터, 도 17에서 설명한 바와 같이 하여, 아이 C의 유전자 데이타가 작성되고, 아이 C의 IC 카드(121C)에 기억된다.
이상과 같이 하여, 부모의 특징을 계승하는 새로운 전자 페트를 탄생시킬 수있다. 또, 도 19에 있어서의 통신 회선은, 유선이어도, 무선이어도 상관 없다. 또한, 통신 회선은 예를 들면, 수미터의 케이블만이어도, 공중 회선이나, 인터넷 CATV(Cable Televsion)망 등이어도 상관 없다.
또한, 상술한 경우에 있어서는, 육체부(2)로서 가상 페트 장치를 이용하여 교배를 행하도록 하였지만, 교배에 있어서는, 육체부(2)로서 페트형 로보트를 이용하는 것도 가능하다.
이상과 같이, 내부 상태에, 전자 페트의 감정에 대응하는 파라메터를 포함시키도록 하였으므로, 화를 내기 쉬운 전자 페트나, 울보인 전자 페트 등을 실현할 수 있다. 그리고, 전자 페트에게 그와 같은 감정을 가미한 행동을 일으키고, 또한, 그 자기 자신이 한 행동에 의해 감정을 변화시키는 것이 가능해진다.
구체적으로는, 예를 들면, 전자 페트가, 배가 고픈 상태에서, 그것에 따라, 분노의 감정이 높아져 있는 경우에, 전자 페트에게 울거나, 재우는 행동을 행하게 하여, 그 행동에 의해 분노의 감정이 고조된 상태를 진정시키도록 하는 것이 가능해진다.
그 결과, 현실감 있는 전자 페트를 실현하는 것이 가능해진다.
또한, 내부 상태 등을, 가상 페트 장치(22)나 페트형 로보트(23)에 대해 착탈가능한 IC 카드(21)에 기억시키도록 하였으므로, 사용자의 환경에 있던 형태로, 전자 페트를 즐기는 것이 가능해진다.
또, 본 실시 형태에서는 IC 카드(21)를, 가상 페트 장치(22)나, 페트형 로보트(23)에 장착하고, 전자 페트로서 기능시키도록 하였지만, IC 카드(21)는 예를 들면, 일반적인 컴퓨터 등에 장착하도록 할 수 있어, 이것에 따라, 컴퓨터를 전자 페트로서 기능시키는 것도 가능하다.
또한, 상술한 경우에 있어서는, 갱신량 Ak(p, t)나, Ij(p, t), 행동 발화 조건을, 전자 페트의 성장, 즉, 시간의 경과와 함께 변화시키는 것이 가능하게 하였지만, 그 밖의 유전자 데이타, 예를 들면, 음성 계속 시간이나, 피치, 액센트, 색, 동작 스피드 등도, 전자 페트의 성장과 함께 변화시키도록 하는 것이 가능하다.
또한, 본 실시 형태에서는, 본 발명을, 전자 페트를 대상으로 하여 설명하였지만, 본 발명은, 전자 페트 이외의 생명체의 대상물(예를 들면, 식물의 대상물 등)도 대상으로 하는 것이 가능하다.
또한, 본 실시 형태에 있어서는, 유전자 데이타를, IC 카드에 기억시키도록 하였지만, 유전자 데이타를 기억시키는 기억 매체로서는, 그 밖에, 예를 들면, 메모리카드, 광자기 디스크, 자기 디스크 등의, 휴대에 편리하고, 장치에 착탈 가능한 것을 채용할 수 있다.
또한, 본 실시 형태에서는, 행동 제어 처리(도 1) 및 학습 처리(도 12)를, CPU(31)에 행하게 하도록 하였지만, 이들 처리는 예를 들면, IC 카드(21)가 프로세서를 내장하고 있는 경우에는, 그 프로세서에 행하게 하는 것도 가능하다.
또한, 본 실시 형태에서는 유전자 데이타를 기억하는 영혼부(1)를, 육체부(2)에 대해 착탈 가능하게 하였지만, 유전자 데이타는, 육체부(2)에착탈 불가능한 메모리를 설치하고, 그 메모리에 기억시키더라도 좋다.
또, 가상 페트 장치(22)에서는, 전자 페트는 모니터에 표시되는 가상적인 존재이기 때문에, 그 외관의 변경은 용이하지만, 페트형 로보트(23)가 그 외관의 변경을 자신이 행하는 것은 곤란하다. 따라서, 페트형 로보트(23)에서는 유전자 데이타중, 외관에 관한 것은 기본적으로 무시된다. 단, 예를 들면, 페트형 로보트(23)가 개 형태인 경우에, 유전자 데이타의 종족이 새(鳥)로 되어 있을 때 등에 있어서는, 페트형 로보트(23)에 파트를, 새 형태로 변경하도록 요구시키(예를 들면, 합성음 등에 의해 요구시킴)도록 하는 것 등이 가능하다.
보다 현실감 있는 전자 페트 를 실현할 수 있다.

Claims (69)

  1. 생명체의 대상물인 생명체 대상물의 감정을 포함하는, 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여 상기 생명체 대상물이 행동을 일으킨 경우에, 그 행동에 대응하여 갱신되는 것을 기억하고,
    상기 생명체 대상물의 육체로서의 육체 장치에 착탈 가능하게 이루어져 있는것을 특징으로 하는 기억 매체.
  2. 제1항에 있어서,
    상기 육체 장치는, 로보트 또는 상기 생명체 대상물을 표시하기 위한 처리를 행하는 정보 처리 장치인 것을 특징으로 하는 기억 매체.
  3. 제1항에 있어서,
    상기 내부 상태 파라메터는, 외부로부터의 입력에도 대응하여 갱신되는 것을 특징으로 하는 기억 매체.
  4. 제1항에 있어서,
    상기 내부 상태 파라메터는, 시간의 경과에도 대응하여 갱신되는 것을 특징으로 하는 기억 매체.
  5. 제1항에 있어서,
    상기 생명체 대상물의 성격 또는 행동 경향을 규정하기 위한 성격/행동 경향 정보도 기억하고,
    상기 생명체 대상물과 상기 성격/행동 경향 정보 및 내부 상태 파라메터에 기초하여 행동을 일으키는 것을 특징으로 하는 기억 매체.
  6. 제5항에 있어서,
    상기 성격/행동 경향 정보는, 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖는 것을 특징으로 하는 기억 매체.
  7. 제5항에 있어서,
    상기 성격/행동 경향 정보는, 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖는 것을 특징으로 하는 기억 매체.
  8. 제7항에 있어서,
    상기 생명체 대상물은, 상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족할 때, 그 행동을 일으키는 것을 특징으로 하는 기억 매체.
  9. 제8항에 있어서,
    상기 성격/행동 경향 정보는 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖고,
    상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족함으로써, 상기 생명체 대상물이 행동을 일으킨 경우, 상기 내부 상태 파라메터는 상기 생명체 대상물이 일으킨 행동에 대응하는 상기 갱신량 정보에 기초하여 갱신되는 것을 특징으로 하는 기억 매체.
  10. 제8항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족할 때, 상기 생명체 대상물은 그 복수의 행동 중 1을 선택하고, 선택한 행동을 일으키는 것을 특징으로 하는 기억 매체.
  11. 제8항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족하는 경우에 있어서, 그 복수의 행동 중 2 이상을 동시에 행할 수 있을 때, 상기 생명체 대상물은 그 2 이상의 행동을 동시에 일으키는 것을 특징으로 하는 기억 매체.
  12. 제5항에 있어서,
    상기 성격/행동 경향 정보는, 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 기억 매체.
  13. 제12항에 있어서,
    상기 성격/행동 경향 정보는, 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖고,
    상기 조건 정보 중, 재주 부리기로서의 행동에 관한 것이 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 기억 매체.
  14. 제12항에 있어서,
    상기 성격/행동 경향 정보는, 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖고,
    새로운 행동에 대응하는 상기 조건 정보가 외부로부터의 입력에 대응하여 추가되는 것을 특징으로 하는 기억 매체.
  15. 제5항에 있어서,
    상기 생명체 대상물에 행동을 일으키게 하기 위해 이용되는 상기 성격/행동 경향 정보가, 시간의 경과에 대응하여 갱신되는 것을 특징으로 하는 기억 매체.
  16. 제15항에 있어서,
    복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/행동 경향 정보 중에서 상기 생명체 대상물에 행동을 일으키게 하기 위해 이용하는 것이, 시간의 경과에 대응하여 선택되는 것을 특징으로 하는 기억 매체.
  17. 제15항에 있어서,
    복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/행동 경향 정보에 기초하여 보간을 행함으로써 각 시각에있어서 이용하는 상기 성격/행동 경향 정보가 생성되는 것을 특징으로 하는 기억 매체.
  18. 제1항에 있어서,
    IC(Integrated Curcuit) 카드 또는 자기 디스크인 것을 특징으로 하는 기억 매체.
  19. 생명체의 대상물인 생명체 대상물의 육체로서 기능하는 로보트에 있어서,
    상기 생명체 대상물의 감정을 포함하는 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여 상기 생명체 대상물이 행동을 일으킨 경우에, 그 행동에 대응하여 갱신되는 것을 기억하는 기억 매체가 착탈 가능하게 이루어져 있는 것을 특징으로 하는 로보트.
  20. 제19항에 있어서,
    상기 내부 상태 파라메터는 외부로부터의 입력에도 대응하여 갱신되는 것을 특징으로 하는 로보트.
  21. 제19항에 있어서,
    상기 내부 상태 파라메터는 시간의 경과에도 대응하여 갱신되는 것을 특징으로 하는 로보트.
  22. 제19항에 있어서,
    상기 기억 매체는 상기 생명체 대상물의 성격 또는 행동 경향을 규정하기 위한 성격/행동 경향 정보도 기억하고,
    상기 생명체 대상물은, 상기 성격/행동 경향 정보 및 내부 상태 파라메터에 기초하여 행동을 일으키는 것을 특징으로 하는 로보트.
  23. 제22항에 있어서,
    상기 성격/행동 경향 정보는 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖는 것을 특징으로 하는 로보트.
  24. 제22항에 있어서,
    상기 성격/행동 경향 정보는, 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖는 것을 특징으로 하는 로보트.
  25. 제24항에 있어서,
    상기 생명체 대상물은 상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족할 때, 그 행동을 일으키는 것을 특징으로 하는 로보트.
  26. 제25항에 있어서,
    상기 성격/ 행동 경향 정보는 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖고,
    상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족함으로써, 상기 생명체 대상물이 행동을 일으킨 경우, 상기 내부 상태 파라메터는 상기 생명체 대상물이 일으킨 행동에 대응하는 상기 갱신량 정보에 기초하여 갱신되는 것을 특징으로 하는 로보트.
  27. 제25항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족할 때, 상기 생명체 대상물은 그 복수의 행동 중 1을 선택하고 선택한 행동을 일으키는 것을 특징으로 하는 로보트.
  28. 제25항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족하는 경우에 있어서, 그 복수의 행동 중 2 이상을 동시에 행할 수 있을 때, 상기 생명체 대상물은 그 2 이상의 행동을 동시에 일으키는 것을 특징으로 하는 로보트.
  29. 제22항에 있어서,
    상기 성격/행동 경향 정보는, 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 로보트.
  30. 제29항에 있어서,
    상기 성격/ 행동 경향 정보는 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖고,
    상기 조건 정보 중, 재주 부리기로서의 행동에 관한 것이 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 로보트.
  31. 제29항에 있어서,
    상기 성격/행동 경향 정보는 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖고,
    새로운 행동에 대응하는 상기 조건 정보가 외부로부터의 입력에 대응하여 추가되는 것을 특징으로 하는 로보트.
  32. 제22항에 있어서,
    상기 생명체 대상물에 행동을 일으키게 하는데 이용하는 상기 성격/행동 경향 정보가, 시간의 경과에 대응하여 갱신되는 것을 특징으로 하는 로보트.
  33. 제32항에 있어서,
    상기 기억 매체는 복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/행동 경향 정보 중에서 상기 생명체 대상물에 행동을 일으키게 하기 위해 이용하는 것이 시간의 경과에 대응하여 선택되는 것을 특징으로 하는 로보트.
  34. 제32항에 있어서,
    상기 기억 매체는 복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/행동 경향 정보에 기초하여 보간을 행함으로써 각 시각에있어서 이용하는 상기 성격/행동 경향 정보가 생성되는 것을 특징으로 하는 로보트.
  35. 제19항에 있어서,
    상기 기억 매체는 IC(Integrated Curcuit) 카드 또는 자기 디스크인 것을 특징으로 하는 로보트.
  36. 생명체의 대상물인 생명체 대상물의 육체로서 기능하는 상기 생명체 대상물을 표시하기 위한 처리를 행하는 정보 처리 장치에 있어서,
    상기 생명체 대상물의 감정을 포함하는 그 내부 상태를 나타내는 내부 상태 파라메터로서 그 내부 상태 파라메터에 기초하여 상기 생명체 대상물이 행동을 일으킨 경우에, 그 행동에 대응하여 갱신되는 것을 기억하는 기억 매체가 착탈 가능하게 이루어져 있는 것을 특징으로 하는 정보 처리 장치.
  37. 제36항에 있어서,
    상기 내부 상태 파라메터는 외부로부터의 입력에도 대응하여 갱신되는 것을 특징으로 하는 정보 처리 장치.
  38. 제36항에 있어서,
    상기 내부 상태 파라메터는 시간의 경과에도 대응하여 갱신되는 것을 특징으로 하는 정보 처리 장치.
  39. 제36항에 있어서,
    상기 기억 매체는 상기 생명체 대상물의 성격 또는 행동 경향을 규정하기 위한 성격/행동 경향 정보도 기억하고,
    상기 생명체 대상물는 상기 성격/행동 경향 정보 및 내부 상태 파라메터에 기초하여 행동을 일으키는 것을 특징으로 하는 정보 처리 장치.
  40. 제39항에 있어서,
    상기 성격/행동 경향 정보는 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖는 것을 특징으로 하는 정보 처리 장치.
  41. 제39항에 있어서,
    상기 성격/행동 경향 정보는 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖는 것을 특징으로 하는 정보 처리 장치.
  42. 제41항에 있어서,
    상기 생명체 대상물은 상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족할 때, 그 행동을 일으키는 것을 특징으로 하는 정보 처리 장치.
  43. 제42항에 있어서,
    상기 성격/ 행동 경향 정보는 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖고,
    상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족함으로써 상기 생명체 대상물이 행동을 일으킨 경우, 상기 내부 상태 파라메터는 상기 생명체 대상물이 일으킨 행동에 대응하는 상기 갱신량 정보에 기초하여 갱신되는 것을 특징으로 하는 정보 처리 장치.
  44. 제42항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족할 때, 상기 생명체 대상물은 그 복수의 행동 중 1을 선택하고 선택한 행동을 일으키는 것을 특징으로 하는 정보 처리 장치.
  45. 제42항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족하는 경우에 있어서, 그 복수의 행동 중 2 이상을 동시에 행할 수 있을 때, 상기 생명체 대상물은 그 2 이상의 행동을 동시에 일으키는 것을 특징으로 하는 정보 처리 장치.
  46. 제39항에 있어서,
    상기 성격/행동 경향 정보는, 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 정보 처리 장치.
  47. 제46항에 있어서,
    상기 성격/행동 경향 정보는, 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖고,
    상기 조건 정보 중, 재주로서의 행동에 관한 것이 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 정보 처리 장치.
  48. 제46항에 있어서,
    상기 성격/행동 경향 정보는, 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖고,
    새로운 행동에 대응하는 상기 조건 정보가 외부로부터의 입력에 대응하여 추가되는 것을 특징으로 하는 정보 처리 장치.
  49. 제39항에 있어서,
    상기 생명체 대상물에 행동을 일으키게 하기 위해 이용하는 상기 성격/ 행동 경향 정보가 시간의 경과에 대응하여 갱신되는 것을 특징으로 하는 정보 처리 장치.
  50. 제49항에 있어서, 상기 기억 매체는 복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/행동 경향 정보 중에서, 상기 생명체 대상물에 행동을 일으키게 하는데 이용하는 것이 시간의 경과에 대응하여 선택되는 것을 특징으로 하는 정보 처리 장치.
  51. 제49항에 있어서, 상기 기억 매체는 복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/행동 경향 정보에 기초하여 보간을 행함으로써 각 시각에 있어서 이용하는 상기 성격/행동 경향 정보가 생성되는 것을 특징으로 하는 정보 처리 장치.
  52. 제36항에 있어서,
    상기 기억 매체는 IC(Integrated Curcuit) 카드 또는 자기 디스크인 것을 특징으로 하는 정보 처리 장치.
  53. 전자 페트의 감정을 포함하는 그 내부 상태를 나타내는 내부 상태 파라메터로서, 그 내부 상태 파라메터에 기초하여 상기 전자 페트가 행동을 일으킨 경우에 그 행동에 대응하여 갱신되는 것을 기억하는 상기 전자 페트의 육체로서 기능하는 장치에 착탈 가능한 기억 매체와,
    상기 전자 페트의 육체로서 기능하는 상기 기억 매체가 착탈 가능한 로보트와,
    상기 전자 페트의 육체로서 기능하는 상기 전자 페트를 표시하기 위한 처리를 행하는 정보 처리 장치로서, 상기 기억 매체가 착탈 가능한 것을 구비하는 것을 특징으로 하는 전자 페트 시스템.
  54. 제53항에 있어서,
    상기 내부 상태 파라메터는, 외부로부터의 입력에도 대응하여 갱신되는 것을 특징으로 하는 전자 페트 시스템.
  55. 제53항에 있어서,
    상기 내부 상태 파라메터는, 시간의 경과에도 대응하여 갱신되는 것을 특징으로 하는 전자 페트 시스템.
  56. 제53항에 있어서,
    상기 기억 매체는, 상기 생명체 대상물의 성격 또는 행동 경향을 규정하기 위한 성격/ 행동 경향 정보도 기억하고,
    상기 생명체 대상물은 상기 성격/행동 경향 정보 및 내부 상태 파라메터에 기초하여 행동을 일으키는 것을 특징으로 하는 전자 페트 시스템.
  57. 제56항에 있어서,
    상기 성격/행동 경향 정보는, 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖는 것을 특징으로 하는 전자 페트 시스템.
  58. 제56항에 있어서,
    상기 성격/행동 경향 정보는 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족해야 할 조건에 관한 조건 정보를 갖는 것을 특징으로 하는 전자 페트 시스템.
  59. 제58항에 있어서,
    상기 생명체 대상물은 상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족할 때, 그 행동을 일으키는 것을 특징으로 하는 전자 페트 시스템.
  60. 제59항에 있어서,
    상기 성격/행동 경향 정보는 상기 내부 상태 파라메터를 상기 생명체 대상물의 행동에 대응하여 갱신할 때의 갱신량에 관한 갱신량 정보를 갖고,
    상기 내부 상태 파라메터가 소정의 행동에 대응하는 상기 조건 정보를 만족함으로써 상기 생명체 대상물이 행동을 일으킨 경우, 상기 내부 상태 파라메터는 상기 생명체 대상물이 일으킨 행동에 대응하는 상기 갱신량 정보에 기초하여 갱신되는 것을 특징으로 하는 전자 페트 시스템.
  61. 제59항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족할 때 상기 생명체 대상물은 그 복수의 행동 중 1을 선택하고, 선택한 행동을 일으키는 것을 특징으로 하는 전자 페트 시스템.
  62. 제59항에 있어서,
    상기 내부 상태 파라메터가 복수의 행동에 대응하는 상기 조건 정보를 만족하는 경우에 있어서, 그 복수의 행동 중 2 이상을 동시에 행할 수 있을 때, 상기 생명체 대상물은 그 2 이상의 행동을 동시에 일으키는 것을 특징으로 하는 전자 페트 시스템.
  63. 제56항에 있어서,
    상기 성격/ 행동 경향 정보는 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 전자 페트 시스템.
  64. 제63항에 있어서,
    상기 성격/행동 경향 정보는 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족할 조건에 관한 조건 정보를 갖고,
    상기 조건 정보 중, 재주 부리기로서의 행동에 관한 것이 외부로부터의 입력에 대응하여 갱신되는 것을 특징으로 하는 전자 페트 시스템.
  65. 제63항에 있어서, 상기 성격/행동 경향 정보는 상기 생명체 대상물이 소정의 행동을 일으키기 위해, 상기 내부 상태 파라메터가 만족해야 할 조건에 관한 조건 정보를 갖고,
    새로운 행동에 대응하는 상기 조건 정보가 외부로부터의 입력에 대응하여 추가되는 것을 특징으로 하는 전자 페트 시스템.
  66. 제56항에 있어서,
    상기 생명체 대상물에 행동을 일으키게 하기 위해 이용되는 상기 성격/행동 경향 정보가 시간의 경과에 대응하여 갱신되는 것을 특징으로 하는 전자 페트 시스템.
  67. 제66항에 있어서,
    상기 기억 매체는 복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/행동 경향 정보 중으로부터 상기 생명체 대상물에 행동을 일으키게 하기 위해 이용하는 것이 시간의 경과에 대응하여 선택되는 것을 특징으로 하는 전자 페트 시스템.
  68. 제66항에 있어서,
    상기 기억 매체는 복수의 상기 성격/행동 경향 정보를 기억하고,
    복수의 상기 성격/ 행동 경향 정보에 기초하여 보간을 행함으로써 각 시각에있어서 이용하는 상기 성격/ 행동 경향 정보가 생성되는 것을 특징으로 하는 전자 페트 시스템.
  69. 제53항에 있어서,
    상기 기억 매체는 IC(Integrated Curcuit) 카드 또는 자기 디스크인 것을 특징으로 하는 전자 페트 시스템.
KR1019980034176A 1997-08-22 1998-08-22 기억 매체, 로보트, 정보 처리 장치, 및 전자 페트시스템 KR19990023809A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP97-226055 1997-08-22
JP22605597 1997-08-22
JP98-030793 1998-02-13
JP3079398A JPH11126017A (ja) 1997-08-22 1998-02-13 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム

Publications (1)

Publication Number Publication Date
KR19990023809A true KR19990023809A (ko) 1999-03-25

Family

ID=26369206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980034176A KR19990023809A (ko) 1997-08-22 1998-08-22 기억 매체, 로보트, 정보 처리 장치, 및 전자 페트시스템

Country Status (4)

Country Link
US (2) US6449518B1 (ko)
EP (1) EP0898237A2 (ko)
JP (1) JPH11126017A (ko)
KR (1) KR19990023809A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100371163B1 (ko) * 2000-05-16 2003-02-06 엘지전자 주식회사 웹 서버를 이용한 성장형 완구 관리 방법
KR100396750B1 (ko) * 2000-08-17 2003-09-02 엘지전자 주식회사 웹 서버를 이용한 완구의 학습/성장 시스템 및 방법
KR100503652B1 (ko) * 2003-03-04 2005-07-22 한국과학기술원 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어시스템
KR100980722B1 (ko) * 2010-07-23 2010-09-07 전성택 가상 감정을 가지는 인공 감정모델의 감정 처리방법
KR101399199B1 (ko) * 2007-07-16 2014-05-27 삼성전자주식회사 소프트웨어 로봇의 유전자 코드 구성 방법

Families Citing this family (184)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
JP2000064933A (ja) 1998-08-19 2000-03-03 Yamaha Motor Co Ltd 2サイクル筒内噴射エンジンの始動方法
KR100721075B1 (ko) * 1998-09-10 2007-05-23 소니 가부시끼 가이샤 로봇 장치, 로봇 장치의 제어 방법, 표시 방법 및 컴퓨터로 판독 가능한 기록 매체
US7440993B1 (en) 1998-09-11 2008-10-21 Lv Partners, L.P. Method and apparatus for launching a web browser in response to scanning of product information
US7386600B1 (en) 1998-09-11 2008-06-10 Lv Partners, L.P. Launching a web site using a personal device
US7191247B1 (en) 1998-09-11 2007-03-13 Lv Partners, Lp Method for connecting a wireless device to a remote location on a network
US6636896B1 (en) 1998-09-11 2003-10-21 Lv Partners, L.P. Method and apparatus for utilizing an audibly coded signal to conduct commerce over the internet
US6704864B1 (en) 1999-08-19 2004-03-09 L.V. Partners, L.P. Automatic configuration of equipment software
US7392945B1 (en) 1998-09-11 2008-07-01 Lv Partners, L.P. Portable scanner for enabling automatic commerce transactions
US6823388B1 (en) 1998-09-11 2004-11-23 L.V. Parners, L.P. Method and apparatus for accessing a remote location with an optical reader having a programmable memory system
US6829650B1 (en) * 1998-09-11 2004-12-07 L. V. Partners, L.P. Method and apparatus for opening and launching a web browser in response to an audible signal
US6868433B1 (en) 1998-09-11 2005-03-15 L.V. Partners, L.P. Input device having positional and scanning capabilities
US7379901B1 (en) 1998-09-11 2008-05-27 Lv Partners, L.P. Accessing a vendor web site using personal account information retrieved from a credit card company web site
US6745234B1 (en) 1998-09-11 2004-06-01 Digital:Convergence Corporation Method and apparatus for accessing a remote location by scanning an optical code
CN1328721A (zh) * 1998-12-21 2001-12-26 索尼公司 机器人装置及其充电方法和系统、充电装置、记录介质
EP1103352A1 (en) * 1999-01-18 2001-05-30 Sony Corporation Robot, main unit of robot, and coupling unit of robot
WO2000053281A1 (fr) * 1999-03-05 2000-09-14 Namco, Ltd. Dispositif d'animal virtuel et support d'enregistrement de son programme de commande
JP4006873B2 (ja) * 1999-03-11 2007-11-14 ソニー株式会社 情報処理システム、情報処理方法及び装置、並びに情報提供媒体
KR20010053322A (ko) 1999-04-30 2001-06-25 이데이 노부유끼 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
KR20010053488A (ko) * 1999-05-10 2001-06-25 이데이 노부유끼 로봇 장치 및 그 제어방법
US6445978B1 (en) * 1999-05-10 2002-09-03 Sony Corporation Robot device and method for controlling the same
US6663393B1 (en) 1999-07-10 2003-12-16 Nabil N. Ghaly Interactive play device and method
JP2001062157A (ja) * 1999-08-24 2001-03-13 Bandai Co Ltd 電子玩具装置
US6604091B2 (en) * 1999-09-10 2003-08-05 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence
US6446056B1 (en) 1999-09-10 2002-09-03 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence
US7442107B1 (en) 1999-11-02 2008-10-28 Sega Toys Ltd. Electronic toy, control method thereof, and storage medium
JP2001142862A (ja) * 1999-11-12 2001-05-25 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2001147718A (ja) * 1999-11-19 2001-05-29 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
KR20010101883A (ko) 1999-11-30 2001-11-15 이데이 노부유끼 로봇 장치와 그 제어 방법, 및 로봇 장치의 성격 판별 방법
JP2001250045A (ja) * 1999-12-30 2001-09-14 Sony Corp 購入システム及び方法、受注装置及び方法、データ販売代行システム、データ販売装置及び方法並びにコンピュータプログラム
JP2001222316A (ja) 2000-02-09 2001-08-17 Sony Corp ロボットの管理システム及びロボットの管理方法
KR20010111503A (ko) * 2000-02-09 2001-12-19 이데이 노부유끼 정보 처리 장치 및 방법, 데이터 유지 장치 및 프로그램
JP2001222624A (ja) * 2000-02-10 2001-08-17 Sony Corp 情報提供システム、情報提供方法、部品情報提供装置及び部品情報提供方法
JP2001242780A (ja) * 2000-02-29 2001-09-07 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2001246580A (ja) * 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
US6462498B1 (en) 2000-05-09 2002-10-08 Andrew J. Filo Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered
JP2001353679A (ja) * 2000-06-13 2001-12-25 Oki Electric Ind Co Ltd ペット用ロボット
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
KR100396753B1 (ko) * 2000-08-18 2003-09-02 엘지전자 주식회사 싸이버 공동체를 이용한 완구 학습 장치 및 방법
KR100417402B1 (ko) 2000-08-18 2004-02-05 엘지전자 주식회사 중앙 연산부가 착탈 가능한 완구
KR100779978B1 (ko) * 2000-09-12 2007-11-27 소니 가부시끼 가이샤 정보제공시스템, 정보제공장치 및 정보제공방법과데이터기록매체
TW528976B (en) * 2000-09-12 2003-04-21 Sony Corp Information providing system, information providing apparatus and information providing method as well as data recording medium
FR2814965A1 (fr) * 2000-10-11 2002-04-12 Janick Simeray Ordinateur et jouets cooperants
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2002166378A (ja) * 2000-11-30 2002-06-11 Sony Corp ロボット装置
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
US6910186B2 (en) 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
US6705917B2 (en) 2000-12-15 2004-03-16 Andrew S. Filo Self-phase synchronized walking and turning quadruped apparatus
KR20020061961A (ko) * 2001-01-19 2002-07-25 사성동 지능형 애완로봇
US20020138246A1 (en) * 2001-03-08 2002-09-26 Czora Gregory J. System and method for simulating conciousness
JP2002273067A (ja) * 2001-03-16 2002-09-24 Uizu:Kk 育成シミュレーション装置
WO2002085480A1 (de) * 2001-04-23 2002-10-31 Andreas Stadlbauer Mobiltelefon, datenverarbeitungsanlage oder spielcomputer und reales, bewegbares spielzeug
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
KR20020097477A (ko) * 2001-06-21 2002-12-31 현명택 감성지수 성숙형 로봇완구 및 로봇완구의 감성성숙방법
KR100489211B1 (ko) * 2001-07-24 2005-05-17 현명택 감성지수성숙형 가상로봇을 기반으로 하는 게임방법
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
KR100486382B1 (ko) * 2001-08-28 2005-04-29 주식회사유진로보틱스 로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을이용한 다이나믹 교육 방법 및 시스템
KR20040062601A (ko) * 2001-10-30 2004-07-07 임머숀 코퍼레이션 가상 애완동물과 상호작용시 촉각 피드백을 제공하는방법들 및 장치
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
KR100580617B1 (ko) * 2001-11-05 2006-05-16 삼성전자주식회사 오브젝트 성장제어 시스템 및 그 방법
US6705919B2 (en) * 2002-01-08 2004-03-16 Mattel, Inc. Electronic amusement device with long duration timer
JP2004001162A (ja) 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
US20040204127A1 (en) * 2002-06-24 2004-10-14 Forlines Clifton L. Method for rendering with composited images on cellular telephones
US7179171B2 (en) * 2002-06-24 2007-02-20 Mitsubishi Electric Research Laboratories, Inc. Fish breeding toy for cellular telephones
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US7593030B2 (en) * 2002-07-25 2009-09-22 Intouch Technologies, Inc. Tele-robotic videoconferencing in a corporate environment
US20040029625A1 (en) * 2002-08-07 2004-02-12 Ed Annunziata Group behavioral modification using external stimuli
US7452268B2 (en) 2002-08-07 2008-11-18 Sony Computer Entertainment America Inc. System and method for modifying actions of a group of characters via group interactions
US7103447B2 (en) * 2002-09-02 2006-09-05 Sony Corporation Robot apparatus, and behavior controlling method for robot apparatus
US7118443B2 (en) 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
US6901298B1 (en) * 2002-09-30 2005-05-31 Rockwell Automation Technologies, Inc. Saving and restoring controller state and context in an open operating system
WO2004032086A1 (ja) * 2002-10-04 2004-04-15 Fujitsu Limited ロボットシステムおよび自律走行ロボット
JP2004173940A (ja) * 2002-11-27 2004-06-24 Nec Interchannel Ltd 情報端末による対戦ゲームシステム及びその方法、情報端末、プログラム
US7158859B2 (en) * 2003-01-15 2007-01-02 Intouch Technologies, Inc. 5 degrees of freedom mobile robot
US7171286B2 (en) * 2003-02-24 2007-01-30 Intouch Technologies, Inc. Healthcare tele-robotic system with a robot that also functions as a remote station
US7262573B2 (en) 2003-03-06 2007-08-28 Intouch Technologies, Inc. Medical tele-robotic system with a head worn device
US7862428B2 (en) 2003-07-02 2011-01-04 Ganz Interactive action figures for gaming systems
JP3963162B2 (ja) * 2003-08-28 2007-08-22 ソニー株式会社 ロボット装置及びロボット装置の制御方法ロボット装置
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US7534157B2 (en) 2003-12-31 2009-05-19 Ganz System and method for toy adoption and marketing
US7465212B2 (en) * 2003-12-31 2008-12-16 Ganz System and method for toy adoption and marketing
US7677948B2 (en) * 2003-12-31 2010-03-16 Ganz System and method for toy adoption and marketing
JP2005193331A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法
US20050204438A1 (en) 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
JP4561209B2 (ja) * 2004-07-13 2010-10-13 日本ビクター株式会社 ロボット
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US7222000B2 (en) * 2005-01-18 2007-05-22 Intouch Technologies, Inc. Mobile videoconferencing platform with automatic shut-off features
US20060259193A1 (en) * 2005-05-12 2006-11-16 Yulun Wang Telerobotic system with a dual application screen presentation
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US8007339B2 (en) 2005-11-04 2011-08-30 Mattel, Inc. Virtual character video toy with movable display
JP4825015B2 (ja) * 2006-02-01 2011-11-30 株式会社コナミデジタルエンタテインメント 仮想生命体キャラクタ育成装置
JP4837390B2 (ja) * 2006-02-01 2011-12-14 株式会社コナミデジタルエンタテインメント 仮想生命体キャラクタ育成装置
US7769492B2 (en) * 2006-02-22 2010-08-03 Intouch Technologies, Inc. Graphical interface for a remote presence system
US7607962B2 (en) 2006-05-04 2009-10-27 Mattel, Inc. Electronic toy with alterable features
US20070291128A1 (en) * 2006-06-15 2007-12-20 Yulun Wang Mobile teleconferencing system that projects an image provided by a mobile robot
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US8062089B2 (en) 2006-10-02 2011-11-22 Mattel, Inc. Electronic playset
US8292689B2 (en) * 2006-10-02 2012-10-23 Mattel, Inc. Electronic playset
US7761185B2 (en) * 2006-10-03 2010-07-20 Intouch Technologies, Inc. Remote presence display through remotely controlled robot
NZ564006A (en) 2006-12-06 2009-03-31 2121200 Ontario Inc System and method for product marketing using feature codes
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US8086551B2 (en) 2007-04-16 2011-12-27 Blue Oak Mountain Technologies, Inc. Electronic system with simulated sense perception and method of providing simulated sense perception
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US8116910B2 (en) * 2007-08-23 2012-02-14 Intouch Technologies, Inc. Telepresence robot with a printer
US9108108B2 (en) 2007-09-05 2015-08-18 Sony Computer Entertainment America Llc Real-time, contextual display of ranked, user-generated game play advice
US9126116B2 (en) 2007-09-05 2015-09-08 Sony Computer Entertainment America Llc Ranking of user-generated game play advice
US8429754B2 (en) * 2007-12-21 2013-04-23 The Invention Science Fund I, Llc Control technique for object production rights
US9626487B2 (en) * 2007-12-21 2017-04-18 Invention Science Fund I, Llc Security-activated production device
US8752166B2 (en) * 2007-12-21 2014-06-10 The Invention Science Fund I, Llc Security-activated operational components
US20090164379A1 (en) * 2007-12-21 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Conditional authorization for security-activated device
US9128476B2 (en) * 2007-12-21 2015-09-08 The Invention Science Fund I, Llc Secure robotic operational system
US20110178619A1 (en) * 2007-12-21 2011-07-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Security-activated robotic tasks
US9071436B2 (en) * 2007-12-21 2015-06-30 The Invention Science Fund I, Llc Security-activated robotic system
US8286236B2 (en) * 2007-12-21 2012-10-09 The Invention Science Fund I, Llc Manufacturing control system
US9818071B2 (en) 2007-12-21 2017-11-14 Invention Science Fund I, Llc Authorization rights for operational components
JP5159375B2 (ja) 2008-03-07 2013-03-06 インターナショナル・ビジネス・マシーンズ・コーポレーション メタバースにおけるオブジェクトの真贋判断システム、方法及びそのコンピュータ・プログラム
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) * 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8041614B2 (en) * 2008-09-04 2011-10-18 International Business Machines Corporation Inventory item expiration and renewal in a virtual universe
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US20100306084A1 (en) * 2009-05-28 2010-12-02 Yunus Ciptawilangga Need-based online virtual reality ecommerce system
US20100306120A1 (en) * 2009-05-28 2010-12-02 Yunus Ciptawilangga Online merchandising and ecommerce with virtual reality simulation of an actual retail location
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US8425289B2 (en) 2009-09-23 2013-04-23 Disney Enterprises, Inc. Traveling virtual pet game system
US8795072B2 (en) * 2009-10-13 2014-08-05 Ganz Method and system for providing a virtual presentation including a virtual companion and virtual photography
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US20130102379A1 (en) * 2011-01-07 2013-04-25 Candace Sargent Method of Simulation Reproductive Creatures
US12093036B2 (en) 2011-01-21 2024-09-17 Teladoc Health, Inc. Telerobotic system with a dual application screen presentation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
EP2668008A4 (en) 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US9186575B1 (en) * 2011-03-16 2015-11-17 Zynga Inc. Online game with animal-breeding mechanic
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US10315119B2 (en) * 2011-05-17 2019-06-11 Activision Publishing, Inc. Video game with concurrent processing of game-related physical objects
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
WO2013176758A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9833707B2 (en) 2012-10-29 2017-12-05 Sony Interactive Entertainment Inc. Ambient light control and calibration via a console
JP6053847B2 (ja) * 2014-06-05 2016-12-27 Cocoro Sb株式会社 行動制御システム、システム及びプログラム
JP6519199B2 (ja) * 2015-01-27 2019-05-29 カシオ計算機株式会社 ロボットおよびロボットシステム
KR20170052976A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 모션을 수행하는 전자 장치 및 그 제어 방법
CN109070330B (zh) * 2016-04-08 2022-07-15 Groove X 株式会社 认生的行为自主型机器人
JP6055147B1 (ja) * 2016-04-14 2016-12-27 株式会社バンダイ ゲーム装置及びプログラム
US11185989B2 (en) * 2016-06-06 2021-11-30 Sony Corporation Virtual creature control system and virtual creature control method
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10561942B2 (en) 2017-05-15 2020-02-18 Sony Interactive Entertainment America Llc Metronome for competitive gaming headset
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US10128914B1 (en) 2017-09-06 2018-11-13 Sony Interactive Entertainment LLC Smart tags with multiple interactions
CN109635616B (zh) * 2017-10-09 2022-12-27 阿里巴巴集团控股有限公司 互动方法和设备
US11498206B2 (en) 2017-12-14 2022-11-15 Sony Interactive Entertainment Inc. Entertainment system, robot device, and server device
US10864443B2 (en) 2017-12-22 2020-12-15 Activision Publishing, Inc. Video game content aggregation, normalization, and publication systems and methods
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
CN109107166B (zh) 2018-08-24 2023-03-17 腾讯科技(深圳)有限公司 虚拟宠物的繁育方法、装置、设备及存储介质
CN109260707A (zh) * 2018-08-30 2019-01-25 腾讯科技(深圳)有限公司 虚拟宠物的展示方法、装置、设备及存储介质
US10682575B1 (en) 2019-10-03 2020-06-16 Mythical, Inc. Systems and methods for generating in-game assets for a gaming platform based on inheriting characteristics from other in-game assets
US11389735B2 (en) * 2019-10-23 2022-07-19 Ganz Virtual pet system
US11712627B2 (en) 2019-11-08 2023-08-01 Activision Publishing, Inc. System and method for providing conditional access to virtual gaming items
US11358059B2 (en) 2020-05-27 2022-06-14 Ganz Live toy system
US11192034B1 (en) * 2020-07-08 2021-12-07 Mythical, Inc. Systems and methods for determining how much of a created character is inherited from other characters

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3913721A (en) * 1973-10-09 1975-10-21 Wang Laboratories Single tape editing
US5438674A (en) * 1988-04-05 1995-08-01 Data/Ware Development, Inc. Optical disk system emulating magnetic tape units
US5455926A (en) * 1988-04-05 1995-10-03 Data/Ware Development, Inc. Virtual addressing of optical storage media as magnetic tape equivalents
US5014267A (en) * 1989-04-06 1991-05-07 Datapoint Corporation Video conferencing network
US5393070A (en) 1990-11-14 1995-02-28 Best; Robert M. Talking video games with parallel montage
US5901246A (en) * 1995-06-06 1999-05-04 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JP2848219B2 (ja) 1993-12-13 1999-01-20 カシオ計算機株式会社 画像表示装置及び画像表示方法
US5659691A (en) 1993-09-23 1997-08-19 Virtual Universe Corporation Virtual reality network with selective distribution and updating of data to reduce bandwidth requirements
AU2471995A (en) 1994-05-05 1995-11-29 Catapult Entertainment, Inc. Network architecture for real-time video games
US5586257A (en) 1994-05-05 1996-12-17 Perlman; Stephen G. Network architecture to support multiple site real-time video games
JP3127084B2 (ja) 1994-08-11 2001-01-22 シャープ株式会社 電子秘書システム
JP2840923B2 (ja) 1994-11-11 1998-12-24 富士通株式会社 プロダクションシステム
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
JP3859018B2 (ja) 1995-07-12 2006-12-20 ソニー株式会社 3次元仮想現実空間共有方法、3次元仮想現実空間共有システム、アドレス管理方法、並びにアドレス管理サーバ端末
US5956028A (en) 1995-09-14 1999-09-21 Fujitsu Ltd. Virtual space communication system, three-dimensional image display method, and apparatus therefor
GB9519678D0 (en) * 1995-09-27 1995-11-29 Philips Electronics Nv Behaviour prediction
JP3745802B2 (ja) 1995-10-13 2006-02-15 株式会社日立製作所 画像生成/表示装置
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US5727950A (en) 1996-05-22 1998-03-17 Netsage Corporation Agent based instruction system and method
JP3685877B2 (ja) 1996-07-19 2005-08-24 富士通株式会社 通信装置
US5802296A (en) 1996-08-02 1998-09-01 Fujitsu Software Corporation Supervisory powers that provide additional control over images on computers system displays to users interactings via computer systems
US5926179A (en) 1996-09-30 1999-07-20 Sony Corporation Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US5982372A (en) 1996-11-14 1999-11-09 International Business Machines Corp. Visual metaphor for shortcut navigation in a virtual world
US5983003A (en) 1996-11-15 1999-11-09 International Business Machines Corp. Interactive station indicator and user qualifier for virtual worlds
US5812126A (en) 1996-12-31 1998-09-22 Intel Corporation Method and apparatus for masquerading online
JP3044116U (ja) 1997-03-18 1997-12-16 株式会社バンダイ 仮想生命体の育成シミュレーション装置
US5941770A (en) 1997-05-05 1999-08-24 Gamecraft, Inc. Computer gaming system
US5971855A (en) 1997-09-30 1999-10-26 Tiger Electronics, Ltd. Apparatus and method of communicating between electronic games

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100371163B1 (ko) * 2000-05-16 2003-02-06 엘지전자 주식회사 웹 서버를 이용한 성장형 완구 관리 방법
KR100396750B1 (ko) * 2000-08-17 2003-09-02 엘지전자 주식회사 웹 서버를 이용한 완구의 학습/성장 시스템 및 방법
KR100503652B1 (ko) * 2003-03-04 2005-07-22 한국과학기술원 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어시스템
KR101399199B1 (ko) * 2007-07-16 2014-05-27 삼성전자주식회사 소프트웨어 로봇의 유전자 코드 구성 방법
KR100980722B1 (ko) * 2010-07-23 2010-09-07 전성택 가상 감정을 가지는 인공 감정모델의 감정 처리방법

Also Published As

Publication number Publication date
JPH11126017A (ja) 1999-05-11
EP0898237A2 (en) 1999-02-24
US6449518B1 (en) 2002-09-10
US6438457B1 (en) 2002-08-20
US20020035405A1 (en) 2002-03-21

Similar Documents

Publication Publication Date Title
KR19990023809A (ko) 기억 매체, 로보트, 정보 처리 장치, 및 전자 페트시스템
Blumberg Old tricks, new dogs: ethology and interactive creatures
KR100751957B1 (ko) 전자페트장치, 정보처리장치 및 정보처리방법
US20070128979A1 (en) Interactive Hi-Tech doll
WO2000066239A1 (fr) Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
WO2001039932A1 (fr) Robot, son procede de commande et procede d'appreciation du caractere du robot
CN101648079B (zh) 情感娃娃
JP2000107442A (ja) ビデオゲームにおけるキャラクタ挙動制御方法、ビデオゲーム装置及びビデオゲームプログラムが記録された可読記録媒体
KR100879417B1 (ko) 음성 출력 장치
Yoon et al. Interactive training for synthetic characters
JP2003071763A (ja) 脚式移動ロボット
JP2002049385A (ja) 音声合成装置、疑似感情表現装置及び音声合成方法
JP3696685B2 (ja) 疑似生物玩具
JP2024108175A (ja) ロボット、音声合成プログラム、及び音声出力方法
CN114712862A (zh) 虚拟宠物交互方法、电子设备及计算机可读存储介质
Brown Juliet's taming of Romeo
Wang et al. Internet of toys: an e-Pet overview and proposed innovative social toy service platform
WO2002030629A1 (fr) Appareil robot, systeme d"affichage d"information et procede d"affichage d"information
JP2001142862A (ja) 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
Salwiczek et al. Birdsong: An evolutionary parallel to human language
Yoon Affective synthetic characters
CN112494956A (zh) 一种将物品转换成宠物的拟化方法和宠物拟化系统
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2002192485A (ja) ロボット装置、情報表示システム及び方法、ロボットシステム、並びに記録媒体

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid