WO2006030529A1 - 擬似感情形成手段を備えた模擬生物装置 - Google Patents

擬似感情形成手段を備えた模擬生物装置 Download PDF

Info

Publication number
WO2006030529A1
WO2006030529A1 PCT/JP2004/014033 JP2004014033W WO2006030529A1 WO 2006030529 A1 WO2006030529 A1 WO 2006030529A1 JP 2004014033 W JP2004014033 W JP 2004014033W WO 2006030529 A1 WO2006030529 A1 WO 2006030529A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
parameter
event
simulated
action
Prior art date
Application number
PCT/JP2004/014033
Other languages
English (en)
French (fr)
Inventor
Takanori Shibata
Kotarou Hayashi
Hidekazu Shimada
Original Assignee
National Institute Of Advanced Industrial Science And Technology
Microjenics, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute Of Advanced Industrial Science And Technology, Microjenics, Inc. filed Critical National Institute Of Advanced Industrial Science And Technology
Priority to PCT/JP2004/014033 priority Critical patent/WO2006030529A1/ja
Publication of WO2006030529A1 publication Critical patent/WO2006030529A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life

Definitions

  • the present invention relates to a simulated biological apparatus provided with a simulated emotion forming means for expressing various actions by computer control, and more particularly to optimization of sensitivity and response to externally received stimuli.
  • the above-mentioned conventional simulated biological device is for the purpose of providing a simulated organism that does not get tired of the user, and the simulated organism itself creates and adds a new operation pattern, but it is newly created and added.
  • the restriction that the movement pattern that remains is limited to the combination of action elements stored in advance in memory, it is important to express the mood and emotions of the moment only with such combinations of action elements.
  • the present invention has been proposed in view of the above circumstances, and even when the same reaction behavior is manifested, it can be applied to the organism of each behavioral piece according to the emotion that is simulated by the detection history of the stimulus.
  • the purpose is to provide a simulated biological device that can be inflicted in the near future.
  • the present invention relates to a simulated biological apparatus that causes a plurality of operations to be generated by control by a computer, each of which detects a stimulus received by the simulated biological apparatus as an external parameter and generates an event; and A simulation emotion forming means for expressing simulated emotion as an internal parameter according to a detection situation, and a reaction action for a combination of the external parameter and the internal parameter are determined, and the reaction action is converted into a motion of a predetermined part in response to the event.
  • the emotion calculation that forms an emotion parameter composed of a combination of two kinds of parameters expressing the opposite mental states in response to the event in the simulated emotion forming means A movement element according to the emotion parameter.
  • Gosuru forming operation spread parameters for comprises an act spillover volume calculation unit to be sent to the operation execution unit.
  • Each parameter is expressed by a combination of two types of parameters that express the opposite mental states in response to the event, for example, a parameter that expresses pleasant Z discomfort and a parameter that expresses excitement Z calmness.
  • a structure is provided with an emotion judgment unit that outputs simulated emotion areas that indicate which quadrants are in two quadrants that are two-dimensionally partitioned at the boundaries of conflicting mental states. Also good.
  • the simulated emotion forming means may be configured to include an emotion calculation unit that performs an emotion focusing step for bringing the emotion parameter closer to the emotion concentration point as time passes.
  • a configuration may be provided that includes an emotion calculation unit that performs a character formation step of moving according to the positive / negative of the cumulative increase / decrease amount of the two types of parameters expressing the conflicting mental states each time it is received.
  • the reaction pattern selected by the same event as well as the action pattern corresponding to the type of stimulus and the detection history detected at any time according to the external parameter and the internal parameter are developed.
  • the behavioral elements of the reaction action are increased or decreased according to the feelings and moods expressed by the internal parameters, and as a result, the reaction action of the simulated biological device produces an inflection similar to a living thing.
  • FIG. 1 is a block diagram showing an example of perception means of a simulated biological apparatus according to the present invention.
  • Figure 2 is Oh functional block diagram of the whole showing an example of a simulated biological apparatus according to the present invention 0
  • FIG. 3 is a block diagram showing an example of simulated emotion forming means of the simulated biological apparatus according to the present invention.
  • FIG. 4 is a block diagram showing an example of the operation means of the simulated biological apparatus according to the present invention.
  • FIG. 5 is a flowchart showing an example of external parameter detection processing in the simulated biological apparatus according to the present invention.
  • FIG. 6 is a flowchart showing an example of external parameter analysis processing in the simulated biological apparatus according to the present invention.
  • FIG. 7 () is a flowchart showing an example of event detection processing and priority event determination processing in the simulated biological apparatus according to the present invention.
  • FIG. 7 () is a flowchart showing an example of priority event determination processing in the flowchart of FIG. 7 ().
  • FIG. 8 is a chart showing an example of an outline of emotion parameters in the simulated biological apparatus according to the present invention.
  • the illustrated embodiment is a simulated biological apparatus that generates a plurality of operations under the control of a computer system, a so-called Lopot system, which includes a plurality of sensors 7 and a plurality of sensors as shown in FIG.
  • the computer is composed of a computer having a switch, a memory, and a CPU that controls the sensor 7 and the sensor 7, and is housed in a casing having a predetermined outer shape and a movable structure.
  • perception means 1 for generating an event (reaction event) for detecting a stimulus received by the simulated biological device as an external parameter and generating a reaction action, and an external parameter by the stimulus Even when no data is detected, an event (autonomous event) for generating an autonomous action is generated spontaneously, and an action for selecting an event that is positively expressed from either the reaction event or the autonomous event Included in the reaction event, a determination means 4, a simulated emotion forming means 2 that guides internal parameters for expressing simulated emotions on the memory according to the detection status of external parameters included in the reaction event For combinations of external parameters and internal parameters (including those included in autonomous events; the same shall apply hereinafter)
  • a database 3 in which assignments of a plurality of operation patterns are stored, and external parameters included in the reaction event by referring to the database 3 in response to the reaction event or autonomous event (hereinafter referred to as an event).
  • the action execution means for determining the reaction pattern for the combination with the internal parameter or the action pattern for the autonomous action and embodying the action pattern for the reaction action or the autonomous action in the movement of a predetermined part upon receiving the event. And a simulated biological device having a timer 18 for outputting time information (see FIG. 2).
  • the motion determination means 4 generates the autonomous event including internal parameters (autonomous parameters) relating to autonomous motion that are spontaneously expressed even when no externally detectable stimulus is detected and no external parameter is detected.
  • Autonomous action generation unit 1 1 to be generated, reaction events that generate the reaction action output from the perceptual means 1, and the autonomic events are received and analyzed, and the priority is set based on the following event priority information.
  • the acceptance / rejection decision unit 12 outputs either a reaction event or an autonomous event derived based on the ranking (see Fig. 2).
  • the event event information includes event classification information for distinguishing the autonomous event from the reaction event, and event priority information indicating the priority order of various events, and in the case of the reaction event, as the external parameter Identifies the sensor or sensors that have detected the stimulus from the outside world (acceleration sensor, tactile sensor, etc.) and event intensity information that represents the amount of stimulus detected by the sensor or sensors. Yes.
  • the event classification information indicates a tactile sensor
  • the stimulus category such as “stroke”, “hit”, “strongly press”, etc. can be specified by the amount of the stimulus.
  • the autonomous parameter is included as the event classification information.
  • the action execution means 5 selects various actuators 19 including motors, speakers, etc., and selects the operation pattern according to the external parameters and autonomous parameters included in various events by referring to the database 3 upon receiving the event. And a control amount calculation unit 1 for deriving the control parameters of the motion elements related to the motion pattern selected by the motion selection unit 13 based on the motion propagation parameters given from the simulated emotion forming means 2 4 and an actuator controller 15 that adjusts control signals such as drive energy to the various actuators 19 in response to the control parameters (see FIG. 4).
  • the sensory means 1 includes a sensor 7 that detects sound, light, infrared, heat, acceleration, or pressure built in the simulated biological device, and performs an arithmetic process on the output of the sensor 7 and includes external parameters. It consists of a sensor processing unit 8 that outputs as a reaction event.
  • the sensor processing unit 8 of the sensory means 1 is obtained through an input interface unit 27 that detects the external parameter from the output of the sensor 7 and the input interface unit 27 from the sensor 7.
  • the competition between the event generation unit 25 that generates the reaction event assigned to the external parameter or the combination of multiple external parameters and the reaction event output from the event generation unit 25 is detected, That is, when a reaction event is continuously output from the event generating unit 25 with a relatively short time difference in a certain time zone, the reaction event to be adopted by the operation execution means 5 is changed to an old and new reaction.
  • This is provided with a stimulus priority determination means 26 that determines one from any of the events.
  • Each input interface unit 27 includes a level detection unit 20 that detects the amount of stimulation detected from the sensor 7 as an external parameter, and a level determination unit that distributes the level level of the external parameter based on one or more threshold values.
  • the event generator 25 has the contents shown in the left part of Table 1 provided in the memory, for example. Referring to the event table, the type of the sensor 7 and the level determination (e.g., stroking) according to the detection status of the sensors (tactile sensors are illustrated in the table) attached to each part of the housing Various reaction events occur depending on the result of the tactile sensor detection level (equivalent to tapping or pressing hard) (Fig. 1).
  • the processing at each event generation unit 25 5 periodically shows the presence or absence of sensor information (external parameters) based on inputs from multiple sensors 7 in Fig. 2.
  • a series of processing detects sequentially, and the series of processing (external parameter analysis processing) shown in Fig. 3 shows that there are no detected external parameters, only one case, and multiple cases. In this case, different reaction events are processed to limit the number of newly generated reaction events to one.
  • the external parameter detection process is further repeated to detect a new external parameter (non-detection process).
  • the detection of the external parameters corresponding to the “lifting” stimulus by the acceleration sensor and the detection of the external parameters corresponding to the “stroking” stimulus are performed as multiple processing. Whether or not there is a combination of external parameters that are conditions for generating a specific composite event, such as generating another event (composite event) such as “easy” by conflicting If the combination exists, the reaction event corresponding to the combination is adopted as a new event (simultaneous combined processing).
  • A1 Interrupts the current operation (although different from the interrupt judgment criteria) and moves to the operation for a new event.
  • A1 Interrupts the current operation (although different from the interrupt judgment criteria) and moves to the operation for a new event.
  • the priority determination unit 26 periodically verifies the presence or absence of a new reaction event sent from the event generation unit 25 and the presence or absence of a previous reaction event currently being executed. If a new reaction event is detected from the event generation unit 25 to which the interface unit 27 of each sensor is connected in the event detection process, or a previous reaction event is detected.
  • the reaction event to be adopted by the action execution means 5 when determining the reaction action is, for example, as shown in Table 2 and Table 3, as shown in Table 2 and Table 3.
  • the step of determining the priority between categories determined based on the obtained priority is given to each response event in advance. This is determined through at least one of the intra-category priority determination steps determined based on the priority.
  • the new reaction event detected by the event detection process is sent to the action determination means 4 and the action determination means 4
  • the operation execution means 5 starts to execute an operation pattern for the new event.
  • the destination of the ongoing operation pattern is expressed.
  • the intra-category priority determination step is performed, and in the case of different categories, the inter-category priority determination step is performed.
  • any of the intra-category priority determination step and the inter-category priority determination step if the priority of the previous event wins, the new event that occurred later is discarded and the ongoing operation pattern is changed. If the priority of the new event is higher, the execution of the ongoing action pattern is stopped and a new event is sent to the action determining means 4.
  • the action executing means 5 starts executing the action pattern for the new event. (See Figure 6).
  • the latest reaction event is sent to the action determining means 4.
  • the simulated biological device is a seal-type robot.
  • priority is set only by the type of sensor 7 by setting events for many events in detail. From the judgment that this is not appropriate, detection from the sensor 7 associated with system movement, and the sensor (heat sensor, current sensor, etc.) that detects contents associated with system abnormalities such as battery exhaustion and abnormal overheating.
  • the priority of the event by detection from 7 is set higher than the event by detection from other types of sensors 7, and all other types of sensors 7 have the same priority. (See Table 2 and Table 3.)
  • the contents of the judgment criterion table are basically set such that an event caused by a strong stimulus has a higher priority than an event caused by a weak stimulus, regardless of whether the sensor 7 is the same. Examples of these criteria are shown in Table 2 and Table 3 above, and examples of the relationship between the previous event and the new event that occurred later are shown in Tables 2 and 3 above. Stored in memory.
  • the priority among sensors of the same type in the case of sound sensor input, (priority of event due to detection of relatively weak sound) (priority of event due to detection of relatively strong sound), In case of optical sensor input, (priority of event ⁇ ⁇ due to detection of daily light quantity) ⁇ (priority of event due to detection of extraordinary light quantity (camera flashlight, etc.)), tactile (pressure) sensor In the case of input, (priority of event by detection of stroking) ⁇ (priority of event by detection of strong press) ⁇ (priority of event by detection of striking), Or, in the case of acceleration sensor input, the priority of the event is relative (for example, (priority of event by detecting relatively weak vibration)) (priority of event by detecting relatively strong vibration).
  • Priority ⁇ (Priority by event based on detection of speech recognition input using microphone and language recognition means (speech recognition chip, etc.)). (Priority of event based on detection of the voice direction input, the voice recognition input, and the tactile sensor input) ⁇ (acceleration) Instinct to detect danger when a strong vibration such as an earthquake is detected. (Priority of event by detecting voice recognition input, voice direction input, optical sensor input, ⁇ ⁇ ⁇ sensor input, and relatively weak acceleration sensor input) ⁇ (relatively strong acceleration sensor input The priority of each event is set as follows.
  • the boiled event without countering the fur generated in the event generating unit 25 of the sensor processing unit by detecting the time difference from the back to the front at the plural positions of the tactile sensor input.
  • the simulated emotion forming means 2 includes an emotion calculation unit 9 for deriving one emotion parameter of the internal parameter using the external parameter obtained from the perception means 1, and a reaction action or an autonomous action based on the calculated emotion parameter.
  • Operation ripple amount calculation unit for deriving the movement spread parameter, which is an internal parameter for changing the holding time, number of iterations, movement amount (amplitude), steady position, and movement speed (hereinafter collectively referred to as movement elements) 10 (see Fig. 2 and Fig. 3).
  • the emotion calculation unit 9 is provided with an emotion calculation unit 9 that forms an emotion parameter composed of a combination of two kinds of parameters that express the opposite mental states in response to the event.
  • an emotion calculation unit 9 that forms an emotion parameter composed of a combination of two kinds of parameters that express the opposite mental states in response to the event.
  • a four-quadrant simulated emotion region divided two-dimensionally at the boundary of pleasant Z discomfort and the boundary of excitement Z calm by combining the parameter expressing pleasure / discomfort and the parameter expressing excitement Z calm.
  • An emotion determination unit 21 is provided that outputs an emotion parameter (emotion information) indicating which quadrant it is in.
  • the emotion parameters are the pleasant and unpleasant parameter Kkh, and the excitement and calmness parameter. It is a combination of numerical data consisting of Kkt (Kkh, Kkt), and when the simulated emotion forming means 2 detects the external parameters of various reaction events, the numerical value of the pleasant Z discomfort parameter Kkh and the excitement calming parameter Kkt
  • Kkt Kkh, Kkt
  • the data is increased or decreased as appropriate (for example, see Table 4).
  • the simulated emotions of the simulated biological device are changed to “joy”, “anger”, “sorrow”, “easy” as shown in Table 5. It will transition to one of the four simulated emotion zones consisting of Table 4
  • the numerical data composed of the comfort / discomfort parameter Kkh and the excitement / sedation parameter Kkt are extremely prominent among the four simulated emotion zones in a region where the numerical data is higher than a certain threshold.
  • the motion propagation amount calculation unit 10 corresponds to the emotion parameter (emotion state) output by the emotion calculation unit 9 every time the emotion calculation unit 9 detects a reaction event.
  • Output parameters while adjusting parameters (repetition number increase / decrease parameter, steady position parameter, operation holding time increase / decrease parameter, speed parameter, amplitude increase / decrease parameter, etc.), and the operation execution means 5 reflects those operation propagation parameters. It will be expressed as a reaction action.
  • the steady position of the eyelid for example, for each of the behavioral segments is lowered according to the emotion that is simulated by the detection history of the stimulus.
  • the simulated emotion changes under certain conditions each time a stimulus is received, and the number of facial expressions cannot be counted even if only the steady-state position and the movement speed change are taken into account. Become. Table 6
  • the simulated emotion forming means 2 in the example includes an emotion calculation unit 9 that performs an emotion focusing step for bringing the emotion parameter closer to the emotion focusing point as time passes.
  • the emotion convergence point is an emotion parameter in an emotional state to be restored when a long time has passed without receiving any stimulus from the outside world, and can also be the individuality of the simulated biological device.
  • the emotion focusing point is assumed to be a combination of the comfort / discomfort parameter focusing point Kkh 1 base and the excitement / sedation parameter focusing point Kkt_base (Kkh_base, Kkt_base).
  • the emotion parameter (Kkh Kkt) force every time a certain time elapses
  • the emotion calculation unit 9 of the simulated emotion forming means 2 moves the emotion convergence point according to the positive / negative of the cumulative increase / decrease amount of the two kinds of parameters expressing the opposite mental state every time the event is received.
  • a forming step is performed.
  • the emotion gathering step is unconditionally performed as time passes, whereas the personality formation step is different in that it is performed on condition that an event is received.
  • the personality formation step takes more time than the emotion convergence step.
  • the behavioral tendency cultivated by communication with the intentional process is intentionally increased so that the behavioral trend shifts to a relatively stable point, and the emotional convergence step forms the character that should settle down. To go.
  • the personality formation step is performed using the increase / decrease amount of the comfort / discomfort parameter Kkh shown in Table 1: AKkh and the increase / decrease amount of the excitement / sedation parameter Kkt: AKkt, and the emotion calculation unit 9 detects the event.
  • the increase / decrease amount AKkh of the comfort / discomfort parameter Kkh and the increase / decrease amount of the excitement Z-sedation parameter Kkt: AKkt are accumulated, respectively. Kkh).
  • the character formation point is determined according to the judgment formula shown in Table 7 below, and the pleasant Z unpleasant parameter cumulative increase / decrease amount ⁇ ( ⁇ Kkh) or the excitement / sedation parameter cumulative increase / decrease amount ⁇ ( ⁇ Kkh) Is positive, the pleasant Z discomfort parameter convergence point Kkh-base and excitement / sedation parameter collection point Kkt_base are added to 2 so that the comfort / discomfort parameter Kkh and excitement / sedation parameter Kkt tend to be in a positive tendency or excitement tendency.
  • Table 8 shows that when the pleasant / unpleasant parameter focusing point Kkh_base and the excited calming parameter focusing point Kkt-base are positive, 1 is subtracted from the pleasant / unpleasant parameter focusing point Kkh_base and the exciting Z calming parameter focusing point Kkt_base.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

コンピュータによる制御によって複数の動作を発現させる模擬生物装置であり、当該模擬生物装置が受ける刺激をそれぞれ外部パラメータとして検出しイベントを発生する知覚手段(1)と、前記外部パラメータの機出状況によって模擬感情を内部パラメータとして表現する模擬感情形成手段(2)と、前記外部パラメータと内部パラメータとの組み合わせに対する反応動作を決定すると共に、前記イベントを受けて前記反応動作を所定部位の運動に具現化する動作実行手段(5)とを有し、前記模擬感情形成手段(2)に、前記イベントを受けて相反する精神状態を表現する二種類のパラメータの組み合わせからなる感情パラメータを形成する感情演算部(9)を備えると共に、前記感情パラメータに応じて動作要素を制御する為の動作波及パラメータを形成し前記動作実行手段(5)へ送出する動作波及量演算部(10)とを備え、同じ反応動作を発現する場合にあっても、刺激の検出履歴によって模擬的に形成された感情に応じて各行動素片の生物に近い抑揚付け出来る。

Description

明 細 書 模擬感情形成手段を備えた模擬生物装置 技術分野
本発明は、 コンピュータ制御により種々の動作を発現させる模擬感情形成手 段を備えた模擬生物装置に関するものであり、 特に、 外部から受ける刺激に対 する感度や反応の適正化に関するものである。 背景技術
今日、 コンピュータによる制御によって複数の動作を発現させる模擬生物装 置が種々提案されており、 なかには、 模擬生物装置自らが動作パターンを新た に生成する手法も、 例えば、 特開 2 0 0 2 - 1 6 3 6 3 1号公報に開示されて いる。
上記従来の模擬生物装置は、 使用者に飽きの来ない疑似生物の提供を目的と し、 疑似生物自体が新たな動作パターンを作成し追加していくものであるが、 新たに作成され追加されていく動作パターンは予めメモリに記憶されている行 動素片の組み合わせに留まるという制約を持つ他、 その様な行動素片の組み合 わせのみでその時々の機嫌や感情を表現することでは所詮限られた行動素片の 繰り返しに過ぎず、 同じ行動パターンを行うにしても、 その都度発生するであ ろう表現の抑揚を表現することは叶わないと言う課題がある。 この様な状況で は、 模擬生物装置とユーザとのコミュニケーションは、 依然として物理的な働 きかけの交換行為というレベルに止まってしまう。
本発明は上記実情に鑑みて提案なされたものであって、 同じ反応動作を発現 する場合にあっても、 刺激の検出履歴によって模擬的に形成された感情に応じ て各行動素片の生物に近い抑揚付け出来る模擬生物装置を提供することを目的 としている。 発明の開示 本発明は、 コンピュータによる制御によって複数の動作を発現させる模擬生 物装置であって、 当該模擬生物装置が受ける刺激をそれぞれ外部パラメータと して検出しイベントを発生する知覚手段と、 前記外部パラメータの検出状況に よって模擬感情を内部パラメータとして表現する模擬感情形成手段と、 前記外 部パラメータと内部パラメータとの組み合わせに対する反応動作を決定すると 共に、 前記ィベントを受けて前記反応動作を所定部位の運動に具現化する動作 実行手段と、 を有する模擬生物装置において、 前記模擬感情形成手段に、 前記 イベントを受けて相反する精神状態を表現する二種類のパラメータの組み合わ せからなる感情パラメータを形成する感情演算部を備えると共に、 前記感情パ ラメータに応じて動作要素を制御する為の動作波及パラメータを形成し前記動 作実行手段へ送出する動作波及量演算部を備えることから成る。
前記模擬感情形成手段に、 前記イベントを受けて相反する精神状態を表現す る二種類のパラメータ、 例えば、 快 Z不快を表現するパラメータと興奮 Z沈静 を表現するパラメータの組み合わせにより、 各パラメータが表現する相反する 精神状態の境界で二次元的に仕切られた四象限の模擬感情領域を構成し、 いず れの象限に存在するかを示す感情情報を出力する感情判定部を備える構成を採 つてもよい。
更に、 前記模擬感情形成手段に、 時間の経過に従って前記感情パラメータを 感情集柬点へ近づける感情集束ステップを行う感情演算部を備える構成を採つ てもよく、 前記感情集束点を、 前記イベントを受ける毎に、 前記相反する精神 状態を表現する二種類のパラメータの累積増減量の正負に従って移動させる性 格形成ステツプを行う感情演算部を備える構成を採ってもよい。
本発明による模擬生物装置によれば、 外部パラメータと内部パラメータに応 じて随時検出する刺激の種類や検出履歴に対応した動作パターンを発現させる ことはもとより、 同じイベントにより選択された反応動作であっても、 内部パ ラメータで表現される感情や機嫌の善し悪しに応じて当該反応動作の動作要素 が増減され、 その結果、 当該模擬生物装置の反応動作に生物に近い抑揚が生じ ることとなるので、 人間と模擬生物装置間のより高度なコミュニケーションを 築くことが出来る。 図面の簡単な説明
第 1図は、 本発明による模擬生物装置の知覚手段の一例を示すブロック図で
¾3 Ό o
第 2図は、 本発明による模擬生物装置の一例を示す全体の機能ブロック図で あ 0
第 3図は、 本発明による模擬生物装置の模擬感情形成手段の一例を示すプロ ック図である。
第 4図は、 本発明による模擬生物装置の動作手段の一例を示すブロック図で οる。
第 5図は、 本発明による模擬生物装置における外部パラメータ検出処理の一 例を示すフローチヤ一卜である。
第 6図は、 本発明による模擬生物装置における外部パラメータ解析処理の一 例を示すフローチヤ一トである。
第 7図 (Α ) は、 本発明による模擬生物装置におけるイベント検出処理及び 優先ィベン卜判定処理の一例を示すフローチヤ一卜である。
第 7図 (Β ) は、 第 7図 (Α ) のフローチャート中における優先イベント判 定処理の一例を示すフローチャートである。
第 8図は、 本発明による模擬生物装置における感情 ラメータの概要の一例 を示すチヤ一ト図である。 発明を実施するための最良の形態
本発明による模擬生物装置の実施の形態を図面に基づき説明する。
図示の実施例は、 コンピュータシステムによる制御によって複数の動作を発 現させる模擬生物装置、所謂ロポットシステムであって、当該模擬生物装置は、 第 2図に示すように、 複数のセンサ 7、 及び複数のァクチユエータ 1 9、 並び に、 前記センサ 7ゃァクチユエータ 1 9を制御するスィッチ、 メモリ、 及び C P Uからなるコンピュータ等で構成され、 所定の外形と可動構造を有する筐体 に収納されている。 そして、 これらによって形成される機能モジュールとして、 当該模擬生物装 置が受ける刺激をそれぞれ外部パラメータとして検出し反応動作を発現する為 のイベント (反応イベント) を発生する知覚手段 1と、 刺激による外部パラメ ータが検出されない場合でも自律動作を発現する為のィベント(自律ィベント) を自発的に発生し前記反応ィベン卜又は当該自律ィベン卜のいずれかから正に 発現する動作のィベン卜を選択する動作決定手段 4と、 前記反応ィベン卜に含 まれる外部パラメータの検出状況に応じ模擬感情を表現する為の内部パラメ一 タを前記メモリ上に導く模擬感情形成手段 2と、 前記反応ィベントに含まれる 外部パラメータと内部パラメータ (自律イベントに含まれるものを含む。 以下 同じ。)との組み合わせに対応した複数の動作パターンの割り当てが保存された データベース 3と、 前記反応イベント又は自律イベント (以下、 イベントと記 す。)を受けて当該データベース 3を参照し前記反応ィベン卜に含まれる外部パ ラメータと内部パラメータとの組み合わせに対する前記反応動作、 又は前記自 律動作の動作パターンを決定すると共に、 前記ィベントを受けて前記反応動作 又は自律動作の動作パターンを所定部位の運動に具現化する動作実行手段 5と、 時刻情報を出力するタイマ 1 8とを有する模擬生物装置である (第 2図参照)。 前記動作決定手段 4は、 外部から検出可能な刺激が無く外部パラメータが検 出されない場合であっても自発的に発現させる自律動作に関する内部パラメ一 タ (自律パラメータ) を含んだ前記自律イベントを発生させる自律動作発生部 1 1 と、 前記知覚手段 1から出力された反応動作を発現する反応イベント、 及 び前記自律イベントを受けてそれらを解析し、 予め定められた下記ィベント優 先情報に基づく優先順位に基づいて導かれた反応ィベント又は自律ィベン卜の いずれかを出力する採否決定部 1 2とで構成される (第 2図参照)。
前記ィベン卜は、 前記自律イベントと反応イベントとを区別するィベント区 分情報、及び種々のィベン卜の優先順位を示すィベント優先情報を備え、更に、 前記反応ィベントである場合には前記外部パラメータとして外界から刺激を検 出した単数又は複数のセンサを特定する (加速度センサ、或いは触覚センサ等) ィベン卜分類情報、 及び前記単数又は複数のセンサが検出した刺激の量を表す イベント強度情報を備えている。 これらの外部パラメータによって、 例えば、 前記イベント分類情報が触覚センサを示す場合には、 その刺激量によって "撫 でる"、 "叩ぐ'、 "強く押す"などの刺激のカテゴリーが特定出来ることとなる。 尚、 前記自律イベントである場合には、 前記イベント区分情報として前記自律 パラメータが含まれることとなる。
前記動作実行手段 5は、 モータやスピーカ等からなる各種ァクチユエータ 1 9と、 前記ィベントを受けて前記データベース 3を参照し種々のィベン卜に含 まれる外部パラメータや自律パラメータに応じた動作パターンを選定する動作 選択部 1 3と、 前記模擬感情形成手段 2から与えられる動作波及パラメータに 基づいて前記動作選択部 1 3により選定された動作パターンにかかる前記動作 要素の制御パラメータを導く制御量演算部 1 4と、 当該制御パラメータを受け て前記各種ァクチユエータ 1 9への駆動エネルギー等の制御信号を調整するァ クチユエータ制御部 1 5とで構成される (第 4図参照)。
前記知覚手段 1は、 当該模擬生物装置に内蔵された音、 光、 赤外線、 熱、 加 速度、 或いは圧力を検出するセンサ 7と、 当該センサ 7の出力に対し演算処理 等を行い外部パラメータを含んだ反応イベントとして出力するセンサ処理部 8 とで構成されている。
前記知覚手段 1のセンサ処理部 8は、 前記センサ 7の出力から前記外部パラ メータを検出する入力インターフェース部 2 7と、 前記センサ 7から各々の入 力インタ一フェース部 2 7を経て得られる一件の外部パラメータ又は複数件の 外部パラメータの組み合わせに割り当てられた反応ィベン卜を発生するィベン ト発生部 2 5と、 前記ィベント発生部 2 5から出力された反応ィベン卜の競合 を検知した場合、 即ち、 一定の時間帯に前記イベント発生部 2 5から反応ィべ ン卜が比較的短い時間差を以て連続して出力された場合に、 前記動作実行手段 5で採用すべき反応ィベン卜を新旧の反応ィベン卜のいずれかから一つ決定す る刺激優先度判定手段 2 6を備えたものである。
各入力インターフェース部 2 7は、 センサ 7から検出した刺激の量を外部パ ラメータとして検出するレベル検出部 2 0と、 当該外部パラメータのレベル段 階を単数又は複数の閾値を基準として振り分けるレベル判定部 6を備え、 前記 ィベント発生部 2 5は、 例えばメモリに設けられた表 1の左部に示す様な内容 のイベントテーブルを参照し、 前記筐体の各部に取り付けられたセンサ (当該 表では触覚センサが例示されている。)の検出状況に応じて当該センサ 7の種類 と前記レベル判定 (例えば、 なでる、 叩く、 又は強く押す等に相当する触覚セ ンサの検出レベル判定) の結果によって種々の反応イベントを発生する (第 1 図)。
表 1
Figure imgf000009_0001
しっぽ 叩く o - - 4.0 3.0 にぎる
〇 一 -4.0 3.0 (強く m)
抱き上げ中に、 センサ tず
しかる 〇 一 -9.5 9.0 れ く 当該例における各ィベント発生部 2 5での処理は、 複数のセンサ 7からの入 力に基づくセンサ情報 (外部パラメータ) の有無を、 定期的に第 2図に示す一 連の処理 (外部パラメータ検出処理) で順次検出し、 第 3図に示す一連の処理 (外部パラメータ解析処理) を以て、 検出された外部パラメータが皆無である 場合と一件のみである場合と複数件である場合とで異なる処理を行い、 新規に 発生する反応ィベントを一つに絞り込むものである。
例えば、 検出された外部パラメータが検出されたセンサ情報が皆無である場 合には、 更に前記外部パラメータ検出処理を反復して新規な外部パラメータの 検出を図る (不検出処理)。
一件のみである場合には、 一件処理として、 特に触覚センサからの外部パラ メータであつたか否かを確認し、 触覚センサ以外からの外部パラメータであつ た場合には、 前記イベントテーブルを参照し、 当該外部パラメータのカテゴリ と刺激の量に対応した反応ィベントを前記新規イベントとして採用する。一方、 当該外部パラメータが触覚センサからの外部パラメータであった場合には、 過 去最新数回 (2〜5回程度) の外部パラメータの検出履歴のなかに当該触覚セ ンサの近傍に配置された他の触覚センサから検出した外部パラメータが存在す るか否かを確認し、 存在した場合には "なでる" 刺激と判断して当該触覚セン ザから検出した前後の外部パラメータの相対的な位置関係から "順なで"と "逆 なで" の区別を行うと共に、 何れか相当な反応イベントを新規イベントとして 採用する (異時複合処理)。
また、検出された外部パラメータが複数である場合には、複数件処理として、 加速度センサによる "抱き上げ" 刺激に相当する外部パラメータの検出と、 前 記 "なでる" 刺激に相当する外部パラメータの検出とが競合することによって "あやす" といった別のイベント (複合イベント) を発生する等、 特定の複合 イベントを発生する条件となる外部パラメータの組み合わせが存在するか否か を確認し、 当該組み合わせが存在した場合には、 当該組み合わせに相当する反 応イベントを新規イベントとして採用する (同時複合処理)。
一方、 前記組み合わせが存在しない場合には、 個々の外部パラメータを検出 したセンサの中から最も優先度の高いセンサを選択し、 当該センサの種類及び 刺激の量に基づいて、 カテゴリ間優先度テーブル (例えば、 表 5又は表 6にお けるカテゴリ間優先度参照。)又はカテゴリ内優先度テーブル(例えば、表 5又 は表 6におけるカテゴリ内優先度参照。)を参照し一つ選択する。この様に選択 されたセンサが単一となったところで、 更に、 上記一件処理を経て新規ィベン トとして採用する反応イベントを決定する。 表 2
先に入ったイベント _ なでる 麵
頭、 あ や 逆 撫 強く押 (ひ しかる 背中 す で頭、 す れ、胴 順 な (抱上 背顿 + 叩 で + な ire 叩^) く) ひれ、 でる)
胴 同
胁ら入ったイベント 時 撫
イベント イベント内谷 カテゴリ間 → 1
カテゴリ mm カテゴリ 1 2 2 2 3 3
ϊ 内優先
音 (マイクによる 音 (上下 1 A CI
1
掛喑 (上下 2
A CI
1
辞 舌徵ッ K名 ttfeど1)
1
腿 ±iナ'中、 離上げ中)
橄 化 0© 1 A
観 ¾¾ίヒ 1 1
フラッシ^ ϋ出 2
ひげセ y " ひげ襟鎖 1 1 A
加 DC 水 艇 働き _Bfの ϋ綱 A A A ―
1 ― A
1
速 (姿 平
度 勢 仰向睛向けの 8綱 A A A A A A
1
出 ¾έ吊 L6^吊しの raw A A A A A A
1 10
Figure imgf000012_0002
Figure imgf000012_0001
A (割込判定基準に伴い)現在の動作を中断し、新たなイベントに対する動作に移行す る。
A1 (割込判定基準と異なるが)現在の動作を中断し、新たなイベントに対する動作に移行 する。
C (割込判定基準に伴レ、)後から入つてきたイベントをキャンセルする。
C1 (割込判定基準と異なるが)後力 入ってきたイベントをキャンセルする。
一 一:検出不可能な組合わせ。 表 3
先に入ったイベント
セ ^イベント
音 (マイクによる左 音声 ひ げ
S 喑 ^喑 舌镥 相 相 フ セ :名前 対 対 ラ ン など 光 光 V サ 量 シ 変 変 ί ら入つたイベント 化 化 検 m 出 イベント ィ ト 7"ゴリ間 → 1 1 1 1 カテゴリ カテゴリ
1 2 1 1 1 1 ϊ
音 (マイクによる ^、音 (上下 1 1 A C
C1 A A 喑 (上下 +¾) A A
辞 舌徵ッ K名 ど)
書 (驗 _Bf中、鍵上げ中) 1 A C1 A A 樹 ¾¾¾匕 0© 1 A A C 橄¾Κ化激 1 1 A A A A C A フラッシ^ 出 A A A ひげセ ひげ擬纖 1 1 A A A A 加 DC 水
平 1
度 勢) 仰向け (仰向けの!^
検 及«麟 1
出 吊 1Λ吊しの TO
1
抱き下ろ U艇 _bf→
水 水權 « 1
平 (仰向け、 吊し)→
1 1 A A A A
AC 弱 あやす
(振 振 腿 J f中の !/ » 1
鋤 動 (仰向け、趣)中の^働 1
くり
冰种の i侧 1
強 働
(抱き中、仰向け中、逆さ中、 2
触 なでる なでる、頭 or背中嫩で
1
(ひれ、月 よで
セ あや なでる) 2
ン ; «領 or背 1 2 A A A A サ - 2
n[K (ひれ、胴醉 ) 3
し力 き : f+PIK) 3
Figure imgf000014_0002
Figure imgf000014_0001
A (割込判定基準に伴い)現在の動作を中断し、新たなイベントに対する動作に移行す る。
A1 (割込判定基準と異なるが)現在の動作を中断し、新たなイベントに対する動作に移行 する。
C (割込判定基準に伴い)後力 入ってきたイベントをキャンセルする。
C1 (割込判定基準と異なるが)後力 入ってきたイベントをキャンセルする。
一 一:検出不可能な組合わせ。 前記優先度判定部 2 6では、 定期的に、 前記イベント発生部 2 5から送出さ れた新規な反応イベントの有無、 並びに、 現在反応動作実行中の先の反応ィべ ン卜の有無を検証するィベント検出処理を行うと共に、 当該ィベン卜検出処理 において各センサのインターフェース部 2 7が接続されたィベント発生部 2 5 から新規な反応ィベン卜を検出し、 或いは先の反応ィベントを検出した場合に は、 優先ィベン卜判定処理として、 前記反応動作を決定する際に前記動作実行 手段 5で採用すべき反応イベントを、 例えば、 表 2や表 3に示すように、 各反 応ィベン卜にかかる外部パラメータを検出したセンサ 7のカテゴリ毎に予め与 えられた優先度に基づいて決定するカテゴリ間優先度判定ステップ、 又は、 各 反応ィベン卜の元となる刺激から推定される生物への影響に鑑み、 各反応ィべ ン卜に予め与えられた優先度に基づいて決定するカテゴリ内優先度判定ステツ プの少なくとも一方を経て決定する。
前記ィベント検出処理において先の反応ィベン卜が存在しない場合には、 前 記ィベン卜検出処理によって検出された新規な反応ィベン卜が前記動作決定手 段 4へ送出され、 当該動作決定手段 4によって当該新規ィベン卜が前記動作実 行手段 5へ送出されるイベントとして採用された場合には、 当該動作実行手段 5において当該新規イベントに対する動作パターンの実行を開始することとな る。 一方、 前記イベント検出処理において先の反応イベントが存在した場合に は、 即ち、 当該時点で先のイベントによる動作パターンが継続中である場合に は、 先ず、 継続中の動作パターンを発現させた先のイベントと新規イベントと を比較し、同一カテゴリ、即ち、同種類のセンサに依るものか否かを判定する。 同一カテゴリの場合には、 前記カテゴリ内優先度判定ステップが行われ、 相違 するカテゴリの場合には、 前記カテゴリ間優先度判定ステップが行われる。 これらのカテゴリ内優先度判定ステップとカテゴリ間優先度判定ステップの いずれにあっても、 前記先のィベン卜の優先度が勝る場合には後に生じた新規 イベントを破棄して継続中の動作パターンを更に継続し、 逆に、 新規イベント の優先度が勝る場合には、 継続中の動作パターンの実行を中止して新規ィベン トを前記動作決定手段 4へ送出する。 そして、 当該動作実行手段 4において当 該新規ィベン卜が前記動作実行手段 5へ送出するイベントとして採用された場 合には、 当該動作実行手段 5において当該新規ィベン卜に対する動作パターン の実行を開始する(図 6参照)。尚、同じ優先度のィベン卜が競合した場合には、 最新の反応ィベントを前記動作決定手段 4へ送出することとする。
次に、 前記模擬生物装置をァザラシ型のロボットとした例を挙げると、 当該 システムにおいては、 数多くの事象に対するイベントを事細かく設定したこと で、 単にセンサ 7の種類のみによって優先度の優劣を設けることは適当でない という判断から、 システムの機動に伴うセンサ 7からの検出や、 電池切れ及び 異常過熱などシステム異常に伴う内容を検出するセンサ (熱センサ、 電流セン サ、 或いは電位センサ等) 7からの検出によるイベントの優位度を、 他の種類 のセンサ 7からの検出によるイベントより高く設定し、 それ以外の種類のセン サ 7の優先度は全て同格としてある (表 2及び表 3参照)。
前記判断基準テーブルの内容は、 基本的にはセンサ 7の同異に関わらず強い 刺激によるイベントの方を弱い刺激によるイベントよリ高い優先度に設定され ている。 生物の反応に近づけるべくこれらを具体的に表現し、 先のイベントと 後に発生した新規ィベン卜との関係について示した例が前記表 2及び表 3に示 す様な判断基準テーブルであり、 前記メモリに保存されている。
同種のセンサ間における優先度にあっては、音センサ入力の場合に、 (相対的 に弱い音の検出によるイベントの優先度) く (相対的に強い音の検出によるィ ベントの優先度)、 光センサ入力の場合に、 (日常的な光量の検出によるィベン 卜の優先度) < (非日常的な光量 (カメラのフラッシュ光等) の検出によるィ ベントの優先度)、 触覚 (圧力) センサ入力の場合に、 (撫でられた事の検出に よるイベントの優先度) < (強く押された事の検出によるイベントの優先度) < (叩かれた事の検出によるィベン卜の優先度)、或いは加速度センサ入力の場 合に、 (相対的に弱い振動の検出によるイベントの優先度) く(相対的に強い振 動の検出によるイベントの優先度) といった具合に、 イベントの優先度は相対 的に弱い刺激の検出によるィベントょリ相対的に強い刺激の検出によるィベン 卜の方が勝る設定されている。 生態において強い刺激によって感覚が麻痺して いる間は、 弱い刺激を感知し難いであろうと言うことが根拠となっている。 又、 ユーザが発する言葉に対する注意力を与えるべく、 意味を含まない音声 よりも、言葉など意味を含んだ音声に対して反応させるベく、 (マイクのみを用 いた音声方向入力の検出によるイベントの優先度) < (マイク及び言語認識手 段 (音声認識チップ等) を用いた音声認識入力の検出によるイベントによる優 先度) という設定がなされ、 仰向けや逆さ吊るし等の大きな姿勢変化に対する 生物の動揺を表現すべく、 音声よリも姿勢変化に対して優先的に反応するよう に、 (前記音声方向入力、前記音声認識入力、及び前記触覚センサ入力の検出に よるイベントの優先度) < (加速度入力の検出によるイベントの優先度) とい う設定がなされ、 更に、 地震など強い振動を検出した際に危険を察知する本能 を表現すべく (前記音声認識入力、 前記音声方向入力、 前記光センサ入力、 髭 センサ入力、 及び相対的に弱い加速度センサ入力の検出によるィベン卜の優先 度) < (相対的に強い加速度センサ入力の検出によるイベントの優先度) とい つた形で各ィベン卜の優先度が設定されている。
又、 例えば、 動物の身体を撫でる場合に、 毛並みに逆らわずに撫でた場合と 逆撫でした場合との反応の相違、 更には、 いきなり逆撫でした場合と、 毛並み に逆らわずに撫でた後に逆撫でを行った場合との相違を表現すべく、 前記触覚 センサ入力の複数箇所での後から前への時間差検出によリ前記センサ処理部の イベント発生部 2 5で発生する毛並みに逆らわずに撫でたイベント (逆撫でィ ベント) の優先度を極力下げると共に、 (逆撫でイベント) < (前記触覚センサ 入力の複数箇所での前から後への時間差検出による毛並みに逆らわずに撫でた イベント (順撫でイベント) として設定し、 逆撫でに対しては無視する傾向を 強く設定しても良い。 尚、 刺激を検出したセンサ箇所と、 その刺激の検出によ リ発生するイベントと、 感情パラメータの変化との関係を表した例として前記 表 1が挙げられる。
前記模擬感情形成手段 2は、 前記知覚手段 1から得た外部パラメータを用いて 前記内部パラメータの一つの感情パラメータを導く感情演算部 9と、 算出され た前記感情パラメータから反応動作や自律動作の動作保持時間、 反復回数、 動 作量 (振幅)、 定常位置、 及び動作速度 (以下、 動作要素と総称する。) を変化 させる為の内部パラメータであるところの動作波及パラメータを導く動作波及 量演算部 1 0とで構成される (第 2図及び第 3図参照)。
前記感情演算部 9には、 前記ィベントを受けて相反する精神状態を表現する 二種類のパラメータの組み合わせからなる感情パラメータを形成する感情演算 部 9が備えられている。 当該例では、 快/不快を表現するパラメータと興奮 Z 沈静を表現するパラメータとの組み合わせにより、 快 Z不快の境界及び興奮 Z 沈静の境界で二次元的に区分けされた四象限の模擬感情領域を構成し、 いずれ の象限に存在するかを示す感情パラメータ (感情情報) を出力する感情判定部 2 1を備えている。
前記感情パラメータは、 快 不快パラメータ Kkhと、 興奮 沈静パラメータ Kktからなる数値データの組み合わせ (Kkh, Kkt) であって、 各種反応ィベン 卜の外部パラメータを模擬感情形成手段 2が検出することで、 前記快 Z不快パ ラメータ Kkhと、 興奮 沈静パラメータ Kktなる数値データの増減が適宜行わ れ (例えば、表 4参照)、それら感情パラメータの増減に基づき当該模擬生物装 置の模擬感情が、 表 5の如く "喜"、 "怒"、 "哀"、 "楽" からなる四つの模擬感 情帯の何れかに推移することとなる。 表 4
Figure imgf000018_0001
表 5
Figure imgf000018_0002
即ち、 前記快 Z不快パラメータ Kkhが正の数であって興奮 Z沈静パラメータ Kktが正の数である場合には "喜" の傾向、 前記快 Z不快パラメータ Kkhが正 の数であって興奮 Z沈静パラメータ Kktが負の数である場合には"楽"の傾向、 前記快 Z不快パラメータ Kkhが負の数であって興奮 Z沈静パラメータ Kktが正 の数である場合には "怒" の傾向、 前記快 Z不快パラメータ Kkhが負の数であ つて興奮 Z沈静パラメータ Kktが負の数である場合には "哀" の傾向を示して いるとして前記快 Z不快パラメータ Kkhと、 興奮 Z沈静パラメータ Kktからな る数値データの組み合わせを認定する (第 8図参照)。
更に、 上記感情パラメータに基づいて、 例えば表 2の如く、 Kkh≥70で、 且 つ Kkt≥70の場合には "喜"、 Kkh≤-70で、且つ Kkt≥70の場合には "怒"、 Kkh
70で、 且つ Kkt≤- 70の場合には "哀"、 Kkh 70で、 且つ Kkt≤-70の場合 には "楽"、 そして、 -70く Kkhく 70又は -70<Kktく 70の場合には "ニュートラ ル" として模擬感情の位置づけが行われる。
この様に、 当該例おいては、 前記快 不快パラメータ Kkhと、 興奮 沈静パ ラメータ Kktからなる数値データが、 一定の閾値よりも高い領域を、 前記四つ の模擬感情帯のうちでも極めて顕著な感情状態にある"喜"、 "怒"、 "哀"、 "楽" の状態いずれかとして位置づけると共に、 一定の閾値よりも低い領域を、 前記 "喜"、 "怒"、 "哀"、 "楽" のいずれの感情状態の要素をも含み、 またいずれの 感情状態とも異なる "ニュートラル" な感情領域として位置づけて五つ目の模 擬感情帯として扱っている。
前記動作波及量演算部 1 0は、 前記感情演算部 9が反応イベントを検出する 度に、 当該感情演算部 9が出力する感情パラメータ (感情状態) に応じて、 例 えば表 6の如く動作波及パラメータ (反復回数増減パラメータ、 定常位置パラ メータ、 動作保持時間増減パラメータ、 速度パラメータ、 或いは振幅増減パラ メータ等) を調整しつつ出力し、 前記動作実行手段 5によって、 それらの動作 波及パラメータを反映した反応動作として表現されることとなる。
その結果、 同じ動作パターンの反応動作を発現する場合にあっても、 刺激の 検出履歴によって模擬的に形成された感情に応じ、各行動素片の個々について、 例えば、 まぶたの定常位置が下がることによって徐々に微睡んでいく表情や、 まぶたの開閉スピードが変化することによって徐々に覚醒していく様子等を具 現化出来る等、 極めて生物に近い抑揚が加わり、 当該模擬生物装置の感情が模 擬的に表現される。 しかも、 その模擬感情は、 刺激を受ける毎に一定条件で変 化することとなり、 その表情の数は、 定常状態の位置や動作のスピード変化の みを考慮に入れたとしても数えきれないものとなる。 表 6
Figure imgf000020_0001
また、 当該例における前記模擬感情形成手段 2は、 時間の経過に従って前記 感情パラメータを感情集束点へ近づける感情集束ステツプを行う感情演算部 9 を備えている。 前記感情集束点とは、 外界から刺激を何等受けないまま長時間 経過した際に復帰すべき感情状態における感情パラメータであって、 その模擬 生物装置の個性とも成り得るものである。 当該感情集束点を、 仮に、 快/不快 パラメータ集束点 Kkh一 baseと、 興奮 沈静パラメータ集束点 Kkt_baseの組み 合わせたる (Kkh_base, Kkt_base) とする。
前記感情集束ステップによって、当該例においては、前記感情パラメータ(Kkh Kkt) 力 一定の時間が経過する毎に、
(Kkh (t) , Kkt (t) ) =
(Kkh_base+ (Kkh (0) - Kkh— base) x a , Kkt— base+ (Kkt (0) - Kkt一 base) x a ) , ただし (0 < < 1 )
として更新される。 更に、 前記模擬感情形成手段 2の感情演算部 9は、 前記感情集束点を、 前記 イベントを受ける毎に、 前記相反する精神状態を表現する二種類のパラメータ の累積増減量の正負に従って移動させる性格形成ステップを行う。 前記感情集 束ステップが時間の経過に従って無条件に行われるのに対して、 当該性格形成 ステップは、 イベントを受け付けることを条件として行われる点で両者は異な る他、 前記感情集束ステツプにおいては感情パラメータが前記感情集束点に向 かって比較的急速に集束していく様に処理されるのに対し、 当該性格形成ステ ップは、 前記感情集束ステップと比較するとゆつくりと長期間をかけてユーザ とのコミュニケーションによって培われる行動傾向を意図的に高めながら前記 行動傾向が比較的安定する点へ推移していく様に処理を行い、 前記感情集束ス テツプによって感情が集束した後に落ち着くべき性格を形作っていく。
即ち、 前記性格形成ステップは、 表 1に示した前記快 不快パラメータ Kkh の増減量: AKkhと、興奮 沈静パラメータ Kktの増減量: AKktを用いて行わ れ、 前記感情演算部 9がィベン卜を検出する度に前記快 不快パラメータ Kkh の増減量 AKkhと、興奮 Z沈静パラメータ Kktの増減量: AKktをそれぞれ累 積し、快 不快パラメータ累積増減量∑ ( AKkh)と興奮 沈静パラメータ累積増 減量∑ (A Kkh)を求める。そして、それぞれの累積増減量に応じ、前記性格形成 点を下記表 7に示す判定式に従って、前記快 Z不快パラメータ累積増減量∑ (Δ Kkh)や興奮/沈静パラメータ累積増減量∑ ( Δ Kkh)が正である場合には、前記快 Z不快パラメータ集束点 Kkh—baseや興奮 沈静パラメータ集柬点 Kkt_baseに 2を加えて、 前記快 不快パラメータ Kkhや興奮 沈静パラメータ Kktが快傾 向又は興奮傾向に集束しやすいように前記快 不快パラメータ集束点
Kkh_baseや興奮 沈静パラメータ集束点 Kkt— baseを移動させる。 表 7
Figure imgf000022_0001
上記表 7の判定式に従って移動させた場合に、 もし、 前記感情集束点の移動 が早すぎて比較的長期間をかけての安定した推移が得られない場合には、 更に 下記表 8に示す判定式に従って前記感情集束点を移動させても良い。 表 8は、 前記快 不快パラメータ集束点 Kkh_baseや興奮 沈静パラメータ集束点 Kkt— b aseが正である場合には、前記快/不快パラメータ集束点 Kkh_baseや興奮 Z沈 静パラメータ集束点 Kkt_baseから 1を減じて、 前記快 Z不快パラメータ Kkh や興奮/沈静パラメータ Kktが快傾向又は興奮傾向に集束し難いように前記快 ノ不快パラメータ集束点 Kkh— baseや興奮ノ沈静パラメータ集束点 Kkt— baseを 移動させるものである。 表 8
Figure imgf000022_0002
産業上の利用可能性
同じ反応動作を発現する場合にあっても、 刺激の検出履歴によって模擬的に 形成された感情に応じて各行動素片の動作要素に対して抑揚付けが行えること によって、 生物に近い表情や動きのメリハリが表現出来ることとなり、 模擬生 物装置自体の仕様を大きく変更することなく、 見かけ上、 動作パターンの種類 を大きく増加させるに余りあるデリケートなボディーランゲージの出力が可能 となり、 模擬生物装置の感情表現力を飛躍的に高める事が可能となる。

Claims

請 求 の 範 囲
1 . コンピュータによる制御によって複数の動作を発現させる模擬生物装置 であって、 当該模擬生物装置が受ける刺激をそれぞれ外部パラメータとして検 出しイベントを発生する知覚手段 (1 ) と、 前記外部パラメータの検出状況に よって模擬感情を内部パラメータとして表現する模擬感情形成手段 (2 ) と、 前記外部パラメータと内部パラメータとの組み合わせに対する反応動作を決定 すると共に、 前記イベントを受けて前記反応動作を所定部位の運動に具現化す る動作実行手段 (5 ) と、
前記模擬感情形成手段 (2 ) に、 前記イベントを受けて相反する精神状態を 表現する二種類のパラメータの組み合わせからなる感情パラメータを形成する 感情演算部 (9 ) と、 前記感情パラメータに応じて動作要素を制御する為の動 作波及パラメータを形成し前記動作実行手段 (5 ) へ送出する動作波及量演算 部 (1 0 ) と、 を備えるたことを特徴とする。
2 . 前記模擬感情形成手段 (2 ) に、 前記イベントを受けて相反する精神状 態を表現する二種類のパラメータの組み合わせによリ、 各パラメータが表現す る相反する精神状態の境界で二次元的に仕切られた四象限の模擬感情領域を構 成し、いずれの象限に存在するかを示す感情情報を出力する感情判定部(2 1 ) を備えたことを特徴とする請求の範囲第 1項記載の模擬生物装置。
3 . 前記模擬感情形成手段 (2 ) に、 時間の経過に従って前記感情パラメ一 タを感情集束点へ近づける感情集束ステップを行う感情演算部 (9 ) を備えた ことを特徴とする請求の範囲第 1項又は第 2項のいずれかに記載の模擬生物装 置。
4 . 前記模擬感情形成手段 (2 ) に、 前記感情集束点を、 前記イベントを受 ける毎に、 前記相反する精神状態を表現する二種類のパラメータの累積増減量 の正負に従って移動させる性格形成ステップを行う感情演算部 (9 ) を備えた ことを特徴とする請求の範囲第 3項記載の模擬生物装置。
5 . 快 不快を表現するパラメータと興奮 Z沈静を表現するパラメータとの 組み合わせからなる感情パラメータを形成することを特徴とする請求の波に第 項乃至第 4項のいずれかに記載の模擬生物装置。
PCT/JP2004/014033 2004-09-17 2004-09-17 擬似感情形成手段を備えた模擬生物装置 WO2006030529A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/014033 WO2006030529A1 (ja) 2004-09-17 2004-09-17 擬似感情形成手段を備えた模擬生物装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/014033 WO2006030529A1 (ja) 2004-09-17 2004-09-17 擬似感情形成手段を備えた模擬生物装置

Publications (1)

Publication Number Publication Date
WO2006030529A1 true WO2006030529A1 (ja) 2006-03-23

Family

ID=36059796

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/014033 WO2006030529A1 (ja) 2004-09-17 2004-09-17 擬似感情形成手段を備えた模擬生物装置

Country Status (1)

Country Link
WO (1) WO2006030529A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
WO2002099545A1 (en) * 2001-06-01 2002-12-12 Sony International (Europe) Gmbh Man-machine interface unit control method, robot apparatus, and its action control method
JP2003208161A (ja) * 2001-11-12 2003-07-25 Sony Corp ロボット装置及びその制御方法
JP2003285285A (ja) * 2002-03-27 2003-10-07 Nec Corp ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1256931A1 (en) * 2001-05-11 2002-11-13 Sony France S.A. Method and apparatus for voice synthesis and robot apparatus
WO2002099545A1 (en) * 2001-06-01 2002-12-12 Sony International (Europe) Gmbh Man-machine interface unit control method, robot apparatus, and its action control method
JP2003208161A (ja) * 2001-11-12 2003-07-25 Sony Corp ロボット装置及びその制御方法
JP2003285285A (ja) * 2002-03-27 2003-10-07 Nec Corp ソフトウェアエージェントを有するロボット装置及びその制御方法とプログラム
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム

Similar Documents

Publication Publication Date Title
JP6517762B2 (ja) 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
JP2019164352A (ja) 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット
JP5167368B2 (ja) 移動体制御装置及び移動体制御方法
EP3456487A2 (en) Robot, method of controlling the same, and program
KR20170027704A (ko) 자율 생활 능력을 갖는 휴머노이드 로봇
JP2005199402A (ja) 行動制御システム及びロボット装置の行動制御方法
EP3790500B1 (en) Methods and systems for adjusting behavior of oral care device based on status of oral cavity
KR20160072621A (ko) 학습과 추론이 가능한 로봇 서비스 시스템
JP2007143886A (ja) 電動車椅子システム
JP7120060B2 (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP2003200370A (ja) オブジェクトの成長制御システム及びオブジェクトの成長制御方法
JP7370531B2 (ja) 応答装置および応答方法
WO2006030529A1 (ja) 擬似感情形成手段を備えた模擬生物装置
Takanishi et al. An anthropomorphic head-eye robot expressing emotions based on equations of emotion
CN111671621B (zh) 助动装置控制系统
JP2019155546A (ja) 制御装置、制御方法、及び制御プログラム
CN113661036A (zh) 信息处理装置、信息处理方法以及程序
WO2006030530A1 (ja) 刺激優先度判定手段を備えた模擬生物装置
Murai et al. Voice activated wheelchair with collision avoidance using sensor information
JP2020124392A (ja) 情報処理装置および情報処理システム
JP2003266353A (ja) ロボット装置及びその制御方法
JP7414735B2 (ja) 複数のロボットエフェクターを制御するための方法
Lee et al. Development of therapeutic expression for a cat robot in the treatment of autism spectrum disorders
JP2017077595A (ja) 動作体の感情動作制御装置及び感情動作制御方法
JP4635486B2 (ja) 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 04773415

Country of ref document: EP

Kind code of ref document: A1