JP2005084789A - Personal computer - Google Patents

Personal computer Download PDF

Info

Publication number
JP2005084789A
JP2005084789A JP2003313862A JP2003313862A JP2005084789A JP 2005084789 A JP2005084789 A JP 2005084789A JP 2003313862 A JP2003313862 A JP 2003313862A JP 2003313862 A JP2003313862 A JP 2003313862A JP 2005084789 A JP2005084789 A JP 2005084789A
Authority
JP
Japan
Prior art keywords
user
personal computer
computer according
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003313862A
Other languages
Japanese (ja)
Inventor
Michio Okada
美智男 岡田
Takeshi Yamaguchi
毅 山口
Takayuki Shiose
隆之 塩瀬
Meigi Lee
銘義 李
Kiyoshi Kogure
潔 小暮
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003313862A priority Critical patent/JP2005084789A/en
Publication of JP2005084789A publication Critical patent/JP2005084789A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a personal computer PC capable of drawing a user's attachment to the PC. <P>SOLUTION: The casing of the PC 10 is formed in a shape capable of being associated with a living matter. The PC 10 can perform panning motion (lateral shaking) and tilting motion (vertical shaking), and performs tilting motion when it shows a positive attitude and panning motion when it shows a negative attitude. The PC 10 comprises a moving means and comes to a user when it finds out the user. When the user makes a wrong operation, it expresses that the wrong operation is performed by longitudinally shaking the casing by use of the moving means. It gets close to the user when showing sympathy and gets away from the user when showing disgust. When the user raps or strokes the PC 10, it detects the degree of shaking by an acceleration sensor to determine whether it is rapped or stroked depending on the degree of shaking, and shows a reaction according to the determination. When an e-mail is received, it informs that by a high-speed tilting motion or a composite sound. When the user is absent for a fixed period, the PC 10 shows tedium and performs a slow panning motion, bending slightly forward, to promote the user's action. Accordingly, the user's attachment to the PC can be deepened. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、パーソナルコンピュータに関し、特にたとえば、ユーザにパーソナルコンピュータに対する愛着をもたせ得る、パーソナルコンピュータに関する。   The present invention relates to a personal computer, and more particularly to a personal computer that can give a user attachment to the personal computer.

従来のこの種のパーソナルコンピュータの一例が、特許文献1に開示されている。   An example of a conventional personal computer of this type is disclosed in Patent Document 1.

特許文献1のパーソナルコンピュータでは、ディスプレイに擬人化エージェントを表示し、擬人化エージェントに小遣いを与えて買い物をさせるなどのやり取りを擬人化エージェントとの間で行うことによって擬人化エージェントに対する愛着を引き出している。
特開2002−298012号公報[G06F 17/60]
In the personal computer of Patent Document 1, an anthropomorphic agent is displayed on the display, and exchanges with the anthropomorphic agent such as giving a pocket money to the anthropomorphic agent and shopping are performed to draw out attachment to the anthropomorphic agent. Yes.
JP 2002-298012 A [G06F 17/60]

しかし、特許文献1のパーソナルコンピュータでは、擬人化エージェントはディスプレイ上の二次元的な存在であり、ユーザの愛着を引き出すには限界があった。また、従来の技術では、擬人化エージェントに対する愛着を引き出すものであり、パーソナルコンピュータそのものに対する愛着を直接的に引き出すものではなかった。   However, in the personal computer of Patent Document 1, the anthropomorphic agent is a two-dimensional existence on the display, and there is a limit in drawing out the attachment of the user. Further, in the conventional technology, the attachment to the anthropomorphic agent is drawn out, and the attachment to the personal computer itself is not directly drawn out.

それゆえに、この発明の主たる目的は、パーソナルコンピュータへの愛着を引き出すことができる、パーソナルコンピュータを提供することである。   Therefore, a main object of the present invention is to provide a personal computer that can bring out attachment to the personal computer.

請求項1の発明は、パーソナルコンピュータ本体、および本体に設けられてその本体自身を動かす駆動手段を備える、パーソナルコンピュータである。   The invention of claim 1 is a personal computer comprising a personal computer main body and a driving means provided in the main body and moving the main body itself.

請求項1の発明では、さまざまなシチュエーションにおいて駆動手段がパーソナルコンピュータ本体を動かしてアクションを行う。パーソナルコンピュータのアクションはシチュエーションに応じて意味づけがなされる。したがって、ユーザにパーソナルコンピュータの意思を感じさせるので、ユーザから生物に対するようなパーソナルコンピュータに対する愛着を引き出すことができる。   In the first aspect of the invention, the driving means moves the personal computer main body to perform an action in various situations. Personal computer actions are meaningful according to the situation. Accordingly, since the user feels the intention of the personal computer, the attachment to the personal computer like the living thing can be drawn from the user.

請求項2の発明は、駆動手段は、本体を移動させる移動手段、本体をパン動作させるパン動作手段、および本体をチルト動作させるチルト動作手段の少なくとも1つを含む、請求項1記載のパーソナルコンピュータである。   According to a second aspect of the invention, the drive means includes at least one of a moving means for moving the main body, a panning means for panning the main body, and a tilting means for tilting the main body. It is.

請求項2の発明では、パーソナルコンピュータの本体は、移動手段,パン動作手段およびチルト動作手段によって駆動される。したがって、ユーザとの距離を変更したり、パン動作によって否定的な意思を表現したり、チルト動作によって肯定的な意思を表現したりすることができる。   According to the second aspect of the present invention, the main body of the personal computer is driven by the moving means, the pan operating means, and the tilt operating means. Therefore, it is possible to change the distance to the user, express a negative intention by a pan operation, or express a positive intention by a tilt operation.

請求項3の発明は、イベントの発生を検知するイベント検知手段をさらに備え、駆動手段はイベント検知手段の検知に応じて動作する、請求項1または2記載のパーソナルコンピュータである。   A third aspect of the present invention is the personal computer according to the first or second aspect, further comprising event detection means for detecting occurrence of an event, wherein the driving means operates in response to detection by the event detection means.

請求項3の発明では、パーソナルコンピュータはイベント検知手段を備えており、イベント検知手段が検知したイベントに応じて駆動手段がパーソナルコンピュータ本体を駆動する。したがって、パーソナルコンピュータはイベントに応じたアクションを行い、ユーザに反応したり、ユーザに働きかけを行ったりできる。   According to a third aspect of the present invention, the personal computer includes event detection means, and the drive means drives the personal computer main body in accordance with the event detected by the event detection means. Therefore, the personal computer can take an action corresponding to the event, react to the user, or act on the user.

請求項4の発明は、イベント検知手段はユーザの存在を検知する存在検知手段を含み、移動手段は、存在検知手段の検知に応じてユーザとの距離を調整する請求項3記載のパーソナルコンピュータである。   The invention according to claim 4 is the personal computer according to claim 3, wherein the event detecting means includes presence detecting means for detecting the presence of the user, and the moving means adjusts the distance to the user in accordance with detection by the presence detecting means. is there.

請求項4の発明では、存在検知手段がユーザの存在を検知し、移動手段が存在検知手段の検知に応じてユーザとパーソナルコンピュータとの物理的距離を調整する。したがって、人間同士がコミュニケーションをとる場合に形成される距離感をパーソナルコンピュータとユーザとの間に形成することができる。   In the invention of claim 4, the presence detecting means detects the presence of the user, and the moving means adjusts the physical distance between the user and the personal computer in accordance with the detection of the presence detecting means. Therefore, a sense of distance formed when people communicate with each other can be formed between the personal computer and the user.

請求項5の発明は、移動手段は存在検知手段がユーザの存在を検知したときにユーザとの距離を近づける、請求項4記載のパーソナルコンピュータである。   According to a fifth aspect of the present invention, in the personal computer according to the fourth aspect, the moving means reduces the distance from the user when the presence detecting means detects the presence of the user.

請求項5の発明では、存在検知手段がユーザの存在を検知したときに移動手段がパーソナルコンピュータを移動させてユーザとパーソナルコンピュータとの距離を近づける。このことにより、パーソナルコンピュータはユーザに対する親近感を示す態度を演出することができる。   In the fifth aspect of the present invention, when the presence detecting unit detects the presence of the user, the moving unit moves the personal computer to reduce the distance between the user and the personal computer. As a result, the personal computer can produce an attitude showing a sense of familiarity with the user.

請求項6の発明は、移動手段は存在検知手段がユーザの存在を検知したときにユーザとの距離を離す、請求項4記載のパーソナルコンピュータである。   The invention according to claim 6 is the personal computer according to claim 4, wherein the moving means separates the distance from the user when the presence detecting means detects the presence of the user.

請求項6の発明では、存在検知手段がユーザの存在を検知したときに移動手段がパーソナルコンピュータを移動させてユーザとパーソナルコンピュータとの距離を離す。このことによって、パーソナルコンピュータはユーザに対する嫌悪感を示す態度を演出することができる。   In the invention of claim 6, when the presence detecting means detects the presence of the user, the moving means moves the personal computer to increase the distance between the user and the personal computer. As a result, the personal computer can produce an attitude that shows disgust to the user.

請求項7の発明は、イベント検知手段は、ユーザの判断が必要な場面を検知する場面検知手段、場面におけるユーザの判断を受け付ける受付手段、場面におけるCPUの判断を決定する決定手段、およびユーザの判断とCPUの判断とを比較する比較手段をさらに含み、移動手段は、比較手段の比較の結果、ユーザの判断とCPUの判断とが一致するときにユーザとの距離を近づけ、ユーザの判断とCPUの判断とが一致しないときユーザとの距離を離す、請求項3ないし6のいずれかに記載のパーソナルコンピュータである。   According to the seventh aspect of the present invention, the event detection means includes a scene detection means for detecting a scene that requires the user's judgment, a reception means for accepting the user's judgment in the scene, a determination means for determining the judgment of the CPU in the scene, and the user's Comparing means for comparing the judgment with the judgment of the CPU further includes a moving means for reducing the distance from the user when the judgment of the user and the judgment of the CPU coincide with each other as a result of the comparison of the comparing means. The personal computer according to claim 3, wherein the personal computer is separated from the user when the judgment of the CPU does not match.

請求項7の発明では、ユーザがコンテンツを視聴した際にそのコンテンツの感想を求めた場合などのようにユーザの判断が必要な場面を場面検知手段が検知する。受付手段はその場面におけるユーザの判断結果を受けつける。また、決定手段はその場面におけるパーソナルコンピュータ(CPU)としての判断を決定する。そして、比較手段はユーザの判断とパーソナルコンピュータの判断とを比較する。比較手段の比較の結果、ユーザの判断とパーソナルコンピュータとの判断とが一致するときには移動手段がパーソナルコンピュータを前進させてユーザとパーソナルコンピュータとの距離を近づける。一方、ユーザの判断とパーソナルコンピュータとの判断とが一致しないときには移動手段がパーソナルコンピュータを後退させてユーザとパーソナルコンピュータとの距離を離す。このようにして、パーソナルコンピュータは、意見交換をし、その結果、ユーザとの距離によって親近感を示したり嫌悪感を示したりすることができる。   In the seventh aspect of the invention, the scene detection means detects a scene that requires the user's judgment, such as when the user requests an impression of the content when viewing the content. The accepting means accepts the judgment result of the user in the scene. The determining means determines the judgment as the personal computer (CPU) in the scene. Then, the comparison means compares the judgment of the user with the judgment of the personal computer. As a result of the comparison by the comparison means, when the judgment of the user coincides with the judgment of the personal computer, the moving means advances the personal computer to reduce the distance between the user and the personal computer. On the other hand, when the judgment of the user does not match the judgment of the personal computer, the moving means moves the personal computer backward to increase the distance between the user and the personal computer. In this way, the personal computer exchanges opinions, and as a result, it can show a sense of familiarity or disgust depending on the distance to the user.

請求項8の発明は、イベント検知手段の検知に応じて音を発生する音発生手段をさらに備える、請求項3ないし7のいずれかに記載のパーソナルコンピュータである。   The invention according to claim 8 is the personal computer according to any one of claims 3 to 7, further comprising sound generation means for generating sound in response to detection by the event detection means.

請求項8の発明では、イベント検知手段のイベント検知に応じて音発生手段が音を発生する。したがって、パーソナルコンピュータはイベントのシチュエーションに応じた合成音などの音を出力して、ユーザに応答したり、ユーザに働きかけたりすることができる。   In the invention of claim 8, the sound generating means generates sound in response to the event detection by the event detecting means. Therefore, the personal computer can output a sound such as a synthesized sound corresponding to the event situation to respond to the user or to act on the user.

請求項9の発明は、イベント検知手段は本体の揺れの程度を検知する揺れ検知手段をさらに含む、請求項3ないし8のいずれかに記載のパーソナルコンピュータである。   The invention according to claim 9 is the personal computer according to any one of claims 3 to 8, wherein the event detecting means further includes a shake detecting means for detecting a degree of shaking of the main body.

請求項9の発明では、揺れ検知手段がパーソナルコンピュータ本体の揺れを検知する。したがって、パーソナルコンピュータはユーザの物理的コミュニケーションによる揺れの発生というイベントに対するアクションを行うことができる。   According to the invention of claim 9, the shake detection means detects the shake of the personal computer main body. Therefore, the personal computer can perform an action for the event of occurrence of shaking due to the physical communication of the user.

請求項10の発明は、揺れ検知手段が所定の閾値よりも大きい揺れを検知したときに、移動手段がユーザとの距離を離すとともにパン動作手段がパン動作を行いかつ音発生手段が嫌悪感を示す音を発生させ、所定の閾値よりも小さい揺れを検知したときに、移動手段がユーザとの距離を近づけるとともに音発生手段が返事を示す音を発生させる、請求項8記載のパーソナルコンピュータである。   According to the tenth aspect of the present invention, when the shake detecting means detects a shake greater than a predetermined threshold, the moving means moves away from the user, the pan operating means performs the pan operation, and the sound generating means is disgusted. The personal computer according to claim 8, wherein the moving means reduces the distance to the user and the sound generating means generates a sound indicating a reply when the sound is generated and the shaking smaller than the predetermined threshold is detected. .

請求項10の発明では、揺れ検知手段が所定の閾値よりも大きい揺れを検知したときには、叩かれるなど乱暴に扱われたと判断して移動手段がユーザとの距離を離して嫌悪感を表現し、パン動作手段がパン動作を行って“いやいや”という仕草を表現し、音発生手段が嫌悪感を示す合成音を発生させる。また、所定の閾値よりも小さい揺れを検知したときには、なでられるなど優しく扱われたと判断して移動手段がユーザとの距離を近づけて親近感を表現し、音声発生手段が返事を示す合成音を発生される。したがって、パーソナルコンピュータはユーザの物理的なコミュニケーションの内容を判断してそれに応答することができる。   In the invention of claim 10, when the shake detection means detects a shake greater than a predetermined threshold value, it is judged that the movement means has been treated violently, such as being struck, and the moving means expresses disgust by separating the distance from the user, The pan operation means performs a pan operation to express a gesture of “no,” and the sound generation means generates a synthetic sound indicating disgust. In addition, when a shake smaller than a predetermined threshold is detected, it is determined that the user has been treated gently, such as stroking, and the moving means reduces the distance to the user to express a sense of familiarity, and the voice generating means indicates a reply. Is generated. Therefore, the personal computer can determine the content of the physical communication of the user and respond to it.

請求項11の発明は、イベント検知手段は無操作時間が所定の時間に達したことを検知する時間検知手段をさらに含む、請求項3ないし10のいずれかに記載のパーソナルコンピュータである。   The invention according to claim 11 is the personal computer according to any one of claims 3 to 10, wherein the event detection means further includes time detection means for detecting that the non-operation time has reached a predetermined time.

請求項11の発明では、時間検知手段がユーザによって操作が行われない無操作時間を測定して無操作時間が所定の時間に達したことを検知する。このことによって、長時間ユーザによる操作が行われないときには、パーソナルコンピュータはこれを検知して、“なにかしようよ”というような合成音を発生するなどしてユーザにパーソナルコンピュータへのかかわりを促すことができる。   In the invention of claim 11, the time detecting means measures the non-operation time during which no operation is performed by the user, and detects that the non-operation time has reached a predetermined time. As a result, when no operation is performed by the user for a long time, the personal computer detects this and prompts the user to participate in the personal computer by generating a synthesized sound such as “Let's do something”. Can do.

請求項12の発明は、イベント検知手段は内部状態を検知する状態検知手段をさらに含む、請求項3ないし11のいずれかに記載のパーソナルコンピュータである。   A twelfth aspect of the present invention is the personal computer according to any one of the third to eleventh aspects, wherein the event detection means further includes a state detection means for detecting an internal state.

請求項12の発明では、状態検知手段は、筐体内部の温度,バッテリの残量,メモリの空き状態などの内部状態を検知し、この検知結果に応じて駆動手段,音発生手段などが働く。したがって、パーソナルコンピュータは内部状態に応じたアクションを行うことができる。   In the invention of claim 12, the state detecting means detects the internal state such as the temperature inside the housing, the remaining battery level, the memory empty state, etc., and the driving means, the sound generating means, etc. work according to the detection result. . Therefore, the personal computer can perform an action according to the internal state.

請求項13の発明は、イベント検知手段はユーザからの問いかけを検知する問い検知手段をさらに含み、問い検知手段が問いかけを検知すると、存在検知手段がユーザの位置を検知し、駆動手段が存在検知手段の検知結果に基づいて本体をユーザの方向にアドレスし、状態検知手段が内部状態を検知し、音発生手段が状態検知手段の検知結果に基づいて返答を示す合成音声を発生し、返答の内容が肯定的であるか否定的であるかを判断する判断手段をさらに含み、および返答が肯定的であるときにチルト動作手段がチルト動作を行い、返答が否定的であるときにパン動作手段がパン動作を行う、請求項12記載のパーソナルコンピュータである。   According to a thirteenth aspect of the present invention, the event detecting means further includes a question detecting means for detecting a question from the user. When the question detecting means detects the question, the presence detecting means detects the position of the user, and the driving means detects the presence. Based on the detection result of the means, the main body is addressed in the direction of the user, the state detection means detects the internal state, the sound generation means generates a synthesized voice indicating a response based on the detection result of the state detection means, Further includes a determination means for determining whether the content is positive or negative, and the tilt operation means performs a tilt operation when the response is positive and a pan operation means when the response is negative The personal computer according to claim 12, which performs a pan operation.

請求項13の発明では、ユーザによる音声入力などによって“元気?”などの問いかけが行われると、問い検知手段がこの問いを検出する。すると、存在検知手段がユーザの存在位置を検知する。そして、駆動手段が存在検知手段の検知結果に基づいてパーソナルコンピュータをユーザの方向にアドレスする。さらに、状態検知手段が内部状態を検知し、音声発生手段が状態検知手段の検知結果に基づいて“元気だよ”とか“調子悪いなぁ”などの返答の合成音声を発生する。また、判断手段が返答が肯定的であるか否定的であるかを判断し、肯定的であるときにはチルト動作手段がチルト動作を行い、否定的であるときにはパン動作手段がパン動作を行う。このような構成によって、ユーザに生物に問いかけるような問いかけを促し、この問いかけに応答することができる。   In the invention of claim 13, when an inquiry such as “How are you?” Is made by voice input by the user or the like, the inquiry detecting means detects this inquiry. Then, the presence detection means detects the user's location. Then, the driving means addresses the personal computer in the direction of the user based on the detection result of the presence detecting means. Further, the state detection means detects the internal state, and the sound generation means generates a synthesized speech of a reply such as “I'm fine” or “I'm not feeling well” based on the detection result of the state detection means. The determination means determines whether the response is affirmative or negative. When the answer is affirmative, the tilt operation means performs a tilt operation, and when the answer is negative, the pan operation means performs a pan operation. With such a configuration, it is possible to prompt the user to ask a question about the creature and respond to the question.

請求項14の発明は、状態検知手段はバッテリの減少を検知する減少検知手段を含む、請求項12または13記載のパーソナルコンピュータである。   A fourteenth aspect of the present invention is the personal computer according to the twelfth or thirteenth aspect, wherein the state detection unit includes a decrease detection unit that detects a decrease in the battery.

請求項14の発明では、減少検知手段がバッテリの減少を検知し、駆動手段が減少検知手段の検知に基づいてパーソナルコンピュータを駆動してバッテリの減少を知られる。このことによって、突然にバッテリが切れてパーソナルコンピュータが停止することが防止される。   In the fourteenth aspect of the invention, it is known that the decrease detecting means detects the decrease of the battery, and the driving means drives the personal computer based on the detection of the decrease detecting means to decrease the battery. This prevents the battery from running out suddenly and the personal computer from stopping.

請求項15の発明は、イベント検知手段は電子メールの受信を検知する受信検知手段をさらに含む、請求項3ないし14のいずれかに記載のパーソナルコンピュータである。   The invention according to claim 15 is the personal computer according to any one of claims 3 to 14, wherein the event detection means further includes reception detection means for detecting reception of an electronic mail.

請求項15の発明では、受信検知手段が電子メールの受信を検知し、駆動手段は受信検知手段の検知に基づいてパーソナルコンピュータを駆動してメールの受信を知らせる。したがって、パーソナルコンピュータに電子メールの番人としての役割が与えられ、ユーザとの間に社会的な関係を築くことができる。   In the fifteenth aspect of the invention, the reception detecting means detects the reception of the electronic mail, and the driving means drives the personal computer based on the detection of the reception detection means to notify the reception of the mail. Therefore, a role as an e-mail guard is given to the personal computer, and a social relationship can be established with the user.

請求項16の発明は、本体は、球形部と球形部から連続的に延びる頭尾とを有する外被、および外被の球形部に設けられた1つの球殻を備え、移動手段,パン動作手段およびチルト動作手段は、外被の球殻が設けられた部分を正面として本体を駆動する、請求項2ないし15のいずれかに記載のパーソナルコンピュータである。   According to a sixteenth aspect of the present invention, the main body includes an outer shell having a spherical portion and a head and tail continuously extending from the spherical portion, and a single spherical shell provided on the spherical portion of the outer shell, and the moving means and pan operation The personal computer according to any one of claims 2 to 15, wherein the means and the tilt operation means drive the main body with the portion where the outer shell is provided as a front surface.

請求項16の発明では、パーソナルコンピュータの本体は、球形部とこの球形部から連続的に延びる頭尾とを有する外被およびこの外被の球形部に設けられた1つの球殻を備えている。そして、外被の球殻が設けられた部分を正面として移動手段,パン動作手段およびチルト動作手段はパーソナルコンピュータを駆動する。このように、球殻によってパーソナルコンピュータの正面が定義されるのでユーザはパーソナルコンピュータに対して物としてではなくより生物(動物)に近い対象としての感情を抱きやすくなる。   According to a sixteenth aspect of the present invention, the main body of the personal computer includes an outer jacket having a spherical portion and a head and tail continuously extending from the spherical portion, and a single spherical shell provided on the spherical portion of the outer jacket. . The moving means, pan operating means and tilt operating means drive the personal computer with the portion of the outer shell provided with the spherical shell as the front. In this way, since the front of the personal computer is defined by the spherical shell, the user can easily feel an emotion as a target closer to a living organism (animal) rather than as an object to the personal computer.

この発明によれば、パーソナルコンピュータは、ユーザとの間に一定の社会的関係を築き、行動や働きかけによって人格や生物性を感じさせるのでユーザから強い愛着心を引き出し得る。   According to the present invention, the personal computer establishes a certain social relationship with the user, and feels personality and biologicality through actions and actions, so that it is possible to draw strong attachment from the user.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のパーソナルコンピュータ10には、ディスプレイ70、キーボード80およびマウス90が接続される。また、図2および図3を参照して、パーソナルコンピュータ10は仮想的な生命体(以下、「クリーチャ」と称する。)であり、全体として、ティアドロップ(雨滴)形状である外被12を含む。この外被12は、柔軟で人が触って気持ちのいい材料、たとえば発泡ウレタン等によって形成される。外被12は、後述の球形の内殻に被せられる球形部14と、その球形部14の頂部から延びかつ先細りの先端が丸みを持って形成される頭尾16とを含む。この頭尾16には、図2および図3に示すように、たとえば金属やプラスチックあるいは合成ゴムのような弾性体からなる棒状の芯材17が内蔵されていて、したがって、頭尾16は、前後左右に揺動することができる。この頭尾16は、後述の透明球殻18とともに、クリーチャ10がそのときに取る姿勢や方向を強調する機能を果たす。したがって、ユーザの様々な関与の結果としてのクリーチャ10の反応を頭尾16の動きに増幅して表示することができる。なお、この芯材17は、後に説明する内部構造物24(図4)によって基端が支持される。   Referring to FIG. 1, a display 70, a keyboard 80, and a mouse 90 are connected to the personal computer 10 of this embodiment. 2 and 3, the personal computer 10 is a virtual life form (hereinafter referred to as “creature”), and includes a jacket 12 having a tear drop shape as a whole. . The outer cover 12 is made of a material that is soft and comfortable to touch, such as urethane foam. The outer cover 12 includes a spherical portion 14 that covers a spherical inner shell, which will be described later, and a head-tail 16 that extends from the top of the spherical portion 14 and has a tapered tip that is rounded. As shown in FIGS. 2 and 3, the head-and-tail 16 incorporates a rod-shaped core member 17 made of an elastic material such as metal, plastic, or synthetic rubber. Can swing left and right. The head and tail 16 together with a transparent spherical shell 18 to be described later, functions to emphasize the posture and direction that the creature 10 takes at that time. Accordingly, the response of the creature 10 as a result of various user involvement can be amplified and displayed in the movement of the head 16. The core 17 is supported at the base end by an internal structure 24 (FIG. 4) described later.

また、外被12の頭尾16の材質は、上述のようにウレタン系やゴムなどの素材で作られており、クリーチャ10の全体的な動きを弾性的な揺動に変換する機能を果たし、その揺動は、ユーザに対して、その頭尾16に触って触感を確かめるなどの振る舞いを誘発する。   In addition, the material of the head and tail 16 of the outer cover 12 is made of a material such as urethane or rubber as described above, and functions to convert the entire movement of the creature 10 into an elastic swing, The swing induces a behavior such as confirming a tactile sensation by touching the head and tail 16 of the user.

このように、この実施例のパーソナルコンピュータないしクリーチャ10の外被12は、略球形の球形部14と頭尾16とを有し、それを見る人間に解釈の多義性を与える。すなわち、球形部14は、頭とも胴とも解釈でき、頭尾16は、角ともしっぽとも解釈できる。つまり、実在する生物とは異なる形状を持つため、ユーザは、このような形状から機能や性格を特定することが難しく、「触る」、「声を掛ける」、「覗き込む」、「手を振る」、「音を立てる」などの多様な関与を引き出すことができる。   As described above, the outer cover 12 of the personal computer or the creature 10 of this embodiment has the substantially spherical spherical portion 14 and the head and tail 16, and gives interpretation ambiguity to the person who sees it. That is, the spherical portion 14 can be interpreted as a head and a torso, and the head and tail 16 can be interpreted as a corner and a tail. In other words, because it has a shape that is different from the actual living organism, it is difficult for the user to specify the function and personality from such a shape, and “touch”, “call out”, “look into”, “waving hands” ”,“ Make a sound ”, and so on.

外被12の適宜の位置に、たとえば透明プラスチックからなる透明球殻18が露出する。その透明球殻18は、外被12内に設けられたカラーカメラ20のレンズ20a(図4)を覆う。したがって、カメラ20は、透明球殻18を通して、外部の人や風景を撮影することができる。つまり、実施例のクリーチャ10は、上述のように頭とも胴とも解釈できる球形部14のほぼ中心に、透明球殻18を有する。多くの生物は通常2つの眼球を有するのに対し、実施例クリーチャ10は、1つの透明球殻18をもつだけであるので、この球殻18は、たとえば「生物の眼球」として、あるいは「口」として解釈される。このように、球殻18は1つだけ設けられるので、上述の外被12すなわち異形の全体形状とあいまって、クリーチャ10が実在する生物ヘの帰属させられるのを回避する機能を果たす。また、この透明球殻18の位置によってクリーチャ10の正面が定義される。   A transparent spherical shell 18 made of, for example, transparent plastic is exposed at an appropriate position of the outer jacket 12. The transparent spherical shell 18 covers the lens 20 a (FIG. 4) of the color camera 20 provided in the outer cover 12. Therefore, the camera 20 can take an image of an outside person or landscape through the transparent spherical shell 18. In other words, the creature 10 according to the embodiment has the transparent spherical shell 18 at substantially the center of the spherical portion 14 that can be interpreted as both the head and the torso as described above. While many organisms typically have two eyeballs, the example creature 10 has only one transparent spherical shell 18, so this spherical shell 18 may be, for example, a “living eyeball” or “mouth” ". As described above, since only one spherical shell 18 is provided, the function of preventing the creature 10 from being attributed to the living creature is achieved in combination with the above-described outer casing 12, that is, the deformed overall shape. The front face of the creature 10 is defined by the position of the transparent spherical shell 18.

なお、この透明球殻18の内部に外から見えるようにアイリス(絞り)19を設け、後に説明する手段によって、そのアイリスを、たとえば外界の光量の変化に合わせて連続的に変化させるようにすれば、透明球殻18はあたかも生物の「目」のような印象を与える。したがって、クリーチャ10が仮想的生命体であることをユーザに認識させることができる。   An iris (aperture) 19 is provided inside the transparent spherical shell 18 so that it can be seen from the outside. By means described later, the iris is continuously changed in accordance with, for example, a change in the amount of light in the outside world. For example, the transparent spherical shell 18 gives the impression of a living organism's “eyes”. Therefore, the user can recognize that the creature 10 is a virtual life form.

また、外被12の下端から、移動用の車輪22が露出する。したがって、この実施例のクリーチャ10は、車輪22によって床面上を自在に移動し得る。   Further, the moving wheel 22 is exposed from the lower end of the outer jacket 12. Therefore, the creature 10 of this embodiment can freely move on the floor surface by the wheels 22.

図2において点線で示すように、外被12内の透明球殻18の近傍には、2つのマイク211および212が設けられる。このマイク211および212は、図3に示す内部構造物24に取り付けられてステレオマイクとして機能し、2つのマイク211および212に入力される音の位相差で音源方向を知ることができる。そして、後に説明するコンピュータ46は、その音源方向にクリーチャ10をアドレスする(向ける)ことによって、クリーチャ10にコミュニケーションを誘発させる仕草を演出する。   As shown by a dotted line in FIG. 2, two microphones 211 and 212 are provided in the vicinity of the transparent spherical shell 18 in the jacket 12. The microphones 211 and 212 are attached to the internal structure 24 shown in FIG. 3 and function as a stereo microphone, and the sound source direction can be known from the phase difference between the sounds input to the two microphones 211 and 212. Then, the computer 46, which will be described later, produces a gesture that induces the creature 10 to communicate by addressing (or directing) the creature 10 in the direction of the sound source.

さらに、外被12内の下部には、図4に示す内部構造物24に取り付けられて、図2および図3に示すように、複数の赤外線ヒトセンサ25,25,…が設けられる。ただし、このヒトセンサ25が設けられる外被12の位置には、赤外線を透過するための赤外線透過部、たとえば開口ないし孔が形成される。このヒトセンサ25は、クリーチャ10の位置決めまたは位置制御のための情報、たとえばクリーチャ10がユーザの近傍に位置するのか、あるいはユーザからかなり離れて位置するのかなどの情報を検知する。   Further, a plurality of infrared human sensors 25, 25,... Are provided at the lower part in the outer jacket 12, as shown in FIGS. 2 and 3, attached to the internal structure 24 shown in FIG. 4. However, an infrared ray transmitting portion for transmitting infrared rays, for example, an opening or a hole is formed at the position of the jacket 12 where the human sensor 25 is provided. The human sensor 25 detects information for positioning or position control of the creature 10, for example, information such as whether the creature 10 is located in the vicinity of the user or located far away from the user.

外被12内の下部の正面部分には、図2に示すように、クリーチャ10の正面に向けて据えられた測距センサ66が設けられる。この測距センサ66によって、クリーチャ10は、正面に存在する物体との距離を測定することができる。   As shown in FIG. 2, a distance measuring sensor 66 placed toward the front of the creature 10 is provided at the lower front portion in the outer jacket 12. By the distance measuring sensor 66, the creature 10 can measure the distance to the object existing in front.

外被12内の適宜の位置には、図2に示すように、スピーカ23が内蔵される。このスピーカ23はユーザに対して音声を出力する。このようにスピーカ23を設けかつ上述のマイク211および212を設けることによって、このクリーチャ10を音声インタフェース手段として利用することができる。   As shown in FIG. 2, a speaker 23 is built in an appropriate position in the jacket 12. The speaker 23 outputs sound to the user. By providing the speaker 23 and the microphones 211 and 212 as described above, the creature 10 can be used as an audio interface means.

図4に、外被12に覆われる内部構造物24が示される。図4は、図2と同様に、クリーチャ10を正面から見た図である。内部構造物24は、たとえばプラスチックや金属板で断面「コ」字形に形成されたベースフレーム26を含み、このベースフレーム26は上面板とその両端から垂下する2つの側面板とを含み、側面板を貫通して車軸27が適宜の軸受け手段によって回転可能に支持される。側面板の外側でその車軸27の両端に、図2を参照して説明した移動用車輪22が取り付けられる。   FIG. 4 shows the internal structure 24 covered with the outer cover 12. FIG. 4 is a view of the creature 10 as seen from the front as in FIG. The internal structure 24 includes, for example, a base frame 26 formed of a plastic or metal plate in a “U” cross section. The base frame 26 includes a top plate and two side plates depending from both ends. The axle 27 is rotatably supported by appropriate bearing means. The moving wheels 22 described with reference to FIG. 2 are attached to both ends of the axle 27 outside the side plate.

ベースフレーム26の上面板上には、コイルばね28を介して、たとえばプラスチックや軽量金属等からなる支持台30が取り付けられる。支持台30上には、収納部32が設けられる。この収納部32には、後述のコンピュータ46や移動モータ50(図5)が収納される。つまり、この実施例では、クリーチャ10の本体が全体として、ばね28などの弾性体で支持される。ただし、実施例では、コイルばね28上に支持台30を支持したが、この支持台30をコイルばねによって懸架する構造でもよい。また、ばねとしては、コイルばねだけでなく、板ばねが用いられてもよい。さらに、ばねは、ゴムや弾性プラスチックのような他の弾性体に代えられてもよい。   A support base 30 made of, for example, plastic or light metal is attached to the upper surface plate of the base frame 26 via a coil spring 28. A storage portion 32 is provided on the support base 30. The storage unit 32 stores a computer 46 and a moving motor 50 (FIG. 5), which will be described later. That is, in this embodiment, the main body of the creature 10 is supported by an elastic body such as the spring 28 as a whole. However, in the embodiment, the support base 30 is supported on the coil spring 28, but the support base 30 may be suspended by the coil spring. Moreover, as a spring, not only a coil spring but a leaf | plate spring may be used. Furthermore, the spring may be replaced with another elastic body such as rubber or elastic plastic.

支持台30上には、後述のように、パンやチルトなどの少数の自由度を備えたアクチュエータが構成される。そして、このアクチュエータは、コンピュータ46(図5)によってプログラムに従って制御される。プログラムによってアクチュエータの動き任意の連続的な動きとして制御するためには、一般に、精度の高いサーボモータなどを用いる必要があり、したがって、高価になってしまう。   As will be described later, an actuator having a small number of degrees of freedom such as pan and tilt is configured on the support base 30. The actuator is controlled by a computer 46 (FIG. 5) according to a program. In order to control the movement of the actuator as an arbitrary continuous movement by a program, it is generally necessary to use a servo motor or the like with high accuracy, and therefore it becomes expensive.

これに対して、この実施例のクリーチャ10では、後に説明するような離散的に制御できるアクチュエータを弾性体で支持することによって、より生物的な動きを作りだす。   On the other hand, in the creature 10 of this embodiment, a more biological movement is created by supporting an actuator that can be discretely controlled as described later with an elastic body.

収納部32の上には、さらに、支持筒34を介して、前述のカラーカメラ20が装着される。支持筒34内には、カメラ20の俯仰角を制御する俯仰モータ54(図5),カメラ20の旋回角を制御する旋回モータ58(図5),およびそれらのモータの駆動力をカメラ20に伝達する動力伝達手段(図示せず)が収納される。   On the storage portion 32, the above-described color camera 20 is further mounted via a support tube. In the support tube 34, the elevation motor 54 (FIG. 5) for controlling the elevation angle of the camera 20, the turning motor 58 (FIG. 5) for controlling the turning angle of the camera 20, and the driving force of these motors to the camera 20. A power transmission means (not shown) for transmitting is housed.

なお、上述のコンピュータ,およびモータや動力伝達機構の収納場所はこの実施例に限られるものではなく、他の任意の場所にこれらを収納しまたは取り付ければよい。   In addition, the storage place of the above-mentioned computer, a motor, and a power transmission mechanism is not restricted to this Example, What is necessary is just to store or attach these in other arbitrary places.

カメラ20の上には、取り付け板36が固着され、その取り付け板36によって、カメラ20と一体的に支持板38が取り付けられる。支持板38は、たとえばプラスチックや軽量金属からなる平面円形の板である。支持板38の下面には、たとえばプラスチックからなる截頭半球状の第1内殻40が、たとえば固着部40aと支持板38の周縁とを接着または溶着することによって、固着される。支持板38の上面には、たとえばプラスチックからなるかつ球の頭部を切り取った形状を有する球頭形状の第2内殻42が、たとえば固着部42aと支持板38の周縁とを接着または溶着することによって、固着される。   An attachment plate 36 is fixed on the camera 20, and a support plate 38 is attached integrally with the camera 20 by the attachment plate 36. The support plate 38 is a planar circular plate made of, for example, plastic or light metal. A truncated hemispherical first inner shell 40 made of plastic, for example, is fixed to the lower surface of the support plate 38 by, for example, bonding or welding the fixing portion 40 a and the peripheral edge of the support plate 38. On the upper surface of the support plate 38, for example, a second inner shell 42 made of plastic and having a shape obtained by cutting off the head of the sphere adheres or welds, for example, the fixing portion 42 a and the peripheral edge of the support plate 38. Is fixed.

第1内殻40と第2内殻42とによって、球形の内殻が形成される。この実施例では、先の支持台30の外面が、第1内殻40の下方に連続する球形部を形成するように、截頭半球状に形成されている。このような球形内殻上に、図2で示す外被12の球形部14が被せられる。   A spherical inner shell is formed by the first inner shell 40 and the second inner shell 42. In this embodiment, the outer surface of the previous support base 30 is formed in a truncated hemispherical shape so as to form a continuous spherical portion below the first inner shell 40. A spherical portion 14 of the outer cover 12 shown in FIG. 2 is placed on such a spherical inner shell.

球形内殻すなわち第1内殻40および第2内殻42の表面には、それぞれがたとえばリミットスイッチである複数の接触センサ44が、規則的に分布して、もしくは意図的に偏在して、取り付けられる。つまり、複数の接触センサ44は、内殻表面上に一定の規則的な配列で配置されるか、または人が触るであろう部位または領域に集中的に配置される。なお、接触センサ44は、支持台30の外表面に設けてもよい。ここで、接触センサとは、人が触ったことを検知できるセンサを意味し、リミットスイッチのように一定の荷重がかかったとき作動するセンサでもよく、また単に人の軽い接触を検知できるセンサでもよい。   A plurality of contact sensors 44, each of which is a limit switch, for example, are regularly distributed or intentionally unevenly attached to the surfaces of the spherical inner shell, that is, the first inner shell 40 and the second inner shell 42. It is done. That is, the plurality of contact sensors 44 are arranged in a regular and regular arrangement on the inner shell surface, or are arranged in a concentrated manner at a site or region that a person will touch. The contact sensor 44 may be provided on the outer surface of the support base 30. Here, the contact sensor means a sensor that can detect that a person has touched it, and may be a sensor that operates when a certain load is applied, such as a limit switch, or may be a sensor that can simply detect a light contact of a person. Good.

このような、接触センサ44は、図5に示すように、適宜のインタフェースを介してコンピュータ46に入力される。つまり、コンピュータ46は、センサ44の各々からの信号を受け、どのセンサが作動したか検知できる。コンピュータ46には、さらに、カラーカメラ20からの映像信号が適宜のインタフェースを介して取り込まれる。   Such a contact sensor 44 is input to the computer 46 through an appropriate interface as shown in FIG. That is, the computer 46 receives signals from each of the sensors 44 and can detect which sensor is activated. The computer 46 further takes in the video signal from the color camera 20 via an appropriate interface.

コンピュータ46はまた、移動モータ駆動回路48,俯仰モータ駆動回路52および旋回モータ駆動回路56に、必要なタイミングで、かつ必要な駆動量で駆動信号を与える。応じて、移動モータ駆動回路48,俯仰モータ駆動回路52および旋回モータ駆動回路56は、移動モータ50,俯仰モータ54および旋回モータ58を、必要なタイミングで必要な駆動量(回転方向および回転量を含む)で、駆動する。移動モータ50が駆動されると、その駆動方向に応じて、車輪22(図1,図2)が回転され、クリーチャ10が前進または後退する。   The computer 46 also gives drive signals to the moving motor drive circuit 48, the elevation motor drive circuit 52, and the turning motor drive circuit 56 at a necessary timing and with a necessary drive amount. In response, the movement motor drive circuit 48, the elevation motor drive circuit 52, and the swing motor drive circuit 56 set the required drive amount (rotation direction and rotation amount) to the movement motor 50, the elevation motor 54, and the swing motor 58 at the required timing. Drive). When the moving motor 50 is driven, the wheel 22 (FIGS. 1 and 2) is rotated according to the driving direction, and the creature 10 moves forward or backward.

俯仰モータ54および旋回モータ58の駆動力が適宜の伝達手段を介して、カメラ20(の雲台)に伝達され、したがって、俯仰モータ54が駆動されるとカメラ20の俯仰角が制御され、旋回モータ58が駆動されると旋回角が制御される。したがって、2つのモータ54および58を適宜制御することによって、カメラ20のレンズ20a(図4)を一定角度範囲で任意の方向に変位させることができる。   The driving forces of the elevation motor 54 and the turning motor 58 are transmitted to the camera 20 (the pan head) via appropriate transmission means. Therefore, when the elevation motor 54 is driven, the elevation angle of the camera 20 is controlled and the turning is performed. When the motor 58 is driven, the turning angle is controlled. Therefore, by appropriately controlling the two motors 54 and 58, the lens 20a (FIG. 4) of the camera 20 can be displaced in an arbitrary direction within a certain angle range.

なお、先に説明したように、第1内殻40および第2内殻42がカメラ20と一体的に動くように取り付けられているので、カメラ20の俯仰角を連続的に変化させることによって、内殻も縦向きに変位し、したがって、外被12(図2)に、見かけ上、縦首振り(チルト動作)させることができる。また、カメラ20の旋回角を連続的に変化させることによって、内殻も横向きに変位し、したがって、外被12に、見かけ上、横首振り(パン動作)が出現する。   As described above, since the first inner shell 40 and the second inner shell 42 are attached so as to move integrally with the camera 20, by changing the elevation angle of the camera 20 continuously, The inner shell is also displaced in the vertical direction, so that the outer sheath 12 (FIG. 2) can be apparently swung vertically (tilted). Further, by continuously changing the turning angle of the camera 20, the inner shell is also displaced in the lateral direction, so that apparent lateral swing (pan motion) appears in the outer cover 12.

動作において、ヒトセンサ25からの信号,カメラ20からの外界映像,マイク211および212からの外界の音声や音をコンピュータ46で検出し、それらに応じて、コンピュータ46が各アクチュエータの動きを計算して、各駆動回路48,52および56等に指示することによって、アクチュエータを離散的に動作させる。このアクチュエータの離散的に動きがそのアクチュエータを支持する弾性体(たとえばコイルばね28)に伝わり、アクチュエータの慣性と弾性体の弾性特性とを反映して、連続的な動きに変換される。この連続的で継続的な動きは、生物の動きに一層近似した動きとなる。この実施例によるアクチュエータの動きはコンピュータ46によって制御されるものの、それに弾性体による動きが加わるため、全体としては、完全にコンピュータ制御された動きにはならず、その動きを物理的な特性と組み合わせる。   In operation, signals from the human sensor 25, external images from the camera 20, external sounds and sounds from the microphones 211 and 212 are detected by the computer 46, and the computer 46 calculates the movement of each actuator accordingly. By instructing the drive circuits 48, 52, 56, etc., the actuators are operated discretely. The discrete motion of the actuator is transmitted to an elastic body (for example, the coil spring 28) that supports the actuator, and is converted into a continuous motion reflecting the inertia of the actuator and the elastic characteristics of the elastic body. This continuous and continuous movement is a movement closer to the movement of a living thing. Although the movement of the actuator according to this embodiment is controlled by the computer 46, the movement by the elastic body is added to it, so that the movement as a whole is not a completely computer-controlled movement, and the movement is combined with physical properties. .

完全に物理的な動きはユーザの「物理的な構え」を引き出し、完全にコンピュータ制御された動きは「設計的な構え」を引き出す。これに対して、実施例のクリーチャ10では、その動きの多くは弾性体の物理的特性に委ねた連続的で継続的な動きが実現され、そこにコンピュータ46で制御された離散的な動きが割り込み、新たな動きを作りだす。このような動きの多様性は、生物的な動きに類似した動きとなる。そのような生物近似の動きを弾性体とそれによって支持したアクチュエータとによって、簡単な構成でかつ安価に実現できる。   A fully physical movement elicits the user's “physical attitude” and a fully computer controlled movement elicits a “design attitude”. On the other hand, in the creature 10 of the embodiment, most of the movements are continuous and continuous movements depending on the physical characteristics of the elastic body, and there are discrete movements controlled by the computer 46 there. Interrupt and create a new move. Such a variety of movement is a movement similar to a biological movement. Such an approximate biological movement can be realized with a simple structure and at low cost by an elastic body and an actuator supported thereby.

なお、上述の実施例では、カメラ20の変位機構を首振り機構と兼用したが、首振り専用の別の駆動源をも受けることも容易に考えられる。   In the above-described embodiment, the displacement mechanism of the camera 20 is also used as the swing mechanism. However, it is easily conceivable to receive another drive source dedicated to the swing.

実施例のクリーチャ10では、球状部14に設けられた透明球殻18と頭尾16とによって、クリーチャ10の向きや姿勢およびその変化をユーザに対して表示することができる。   In the creature 10 of the embodiment, the orientation and posture of the creature 10 and changes thereof can be displayed to the user by the transparent spherical shell 18 and the head and tail 16 provided in the spherical portion 14.

具体的には、うなずくなどの肯定的な意思表示は、上述の俯仰モータ54による小さなチルトの動きで表現することができる。また、否定的な意思表示は、上述の旋回モータ58によるパン動作によって表現できる。そのチルトやパンの動作の大きさを変えることによって、強い肯定または否定あるいは弱い肯定または否定を表現することができる。これらは、意思表示などの問いかけが行われている文脈で明らかに機能する。   Specifically, a positive intention display such as a nod can be expressed by a small tilting motion by the above-described elevation motor 54. Further, the negative intention display can be expressed by the pan operation by the turning motor 58 described above. By changing the magnitude of the tilt or pan movement, strong affirmation or denial or weak affirmation or negation can be expressed. These work clearly in the context of questions such as intentions.

ユーザの方向を向くかあるいはユーザの方向からずらせることによって、クリーチャ10の会話中での姿勢を表示することができる。すなわち、誰に向かって話しをしているのか、または誰の話を聞いているのかという姿勢を表示する。   The orientation of the creature 10 in a conversation can be displayed by facing the user or moving the user 10 away from the user. That is, the attitude of who is talking to whom or who is listening is displayed.

話し手の方向を探る、すなわち、音源探索手段(コンピュータ46)と上述のアクチュエータの制御とによって、「ユーザの顔を追いかける」という動作を実現できる。これは、クリーチャ10の心的状態を参照することによって、追いかけるというモードと追いかけないというモードとに分けることができる。この手段によって、クリーチャ10がユーザに関心があるか否かを表現できる。また、何かを探しているという状態、すなわち、特定の興味ある対象を未だ見出していないという状態を表示することができる。さらには、うつむきがちになにかを探すようなしぐさは、退屈であるという心的状態の表現方法として有効である。   By searching for the direction of the speaker, that is, by the sound source search means (computer 46) and the above-described actuator control, an operation of “following the user's face” can be realized. This can be divided into a mode of chasing and a mode of not chasing by referring to the mental state of the creature 10. By this means, it can be expressed whether or not the creature 10 is interested in the user. In addition, it is possible to display a state where something is being searched for, that is, a state where a specific object of interest has not yet been found. Furthermore, gestures that look for something that tends to be depressed are an effective way of expressing the mental state of being bored.

これらの動作のスピードをすばやく制御することによって、快活な状態を表示でき、すこしのんびりとした反応時間をもたせると、元気のない状態を表示できる。   By quickly controlling the speed of these operations, it is possible to display a lively state, and it is possible to display a dull state by having a slow reaction time.

なお、上述のようなユーザの顔の追尾のためには、カメラ20が利用される。すなわち、カメラ20からの映像から肌色領域を抽出し、その肌色領域を顔として特定することによって、チルト機構52および54ならびにパン機構56および58を制御して、顔を追尾できる。   The camera 20 is used for tracking the user's face as described above. That is, the face can be tracked by controlling the tilt mechanisms 52 and 54 and the pan mechanisms 56 and 58 by extracting the skin color area from the video from the camera 20 and specifying the skin color area as a face.

これに加え、移動処理によっても、ユーザから遠ざかるあるいはユーザに接近するなどの行動によって、ユーザを避けるあるいはユーザに関心があるなどの心的状態を表現できる。また、ヒトセンサ25を利用することによって、ユーザや他の対象との距離を調整できる。つまり、ヒトセンサ25と移動手段48および50とを利用して、対象に近づく、あるいはその対象から関心を外すなどの心的状態を表示することができる。   In addition, the movement process can express a mental state such as avoiding the user or being interested in the user by an action such as moving away from the user or approaching the user. Further, by using the human sensor 25, the distance from the user and other objects can be adjusted. That is, by using the human sensor 25 and the moving means 48 and 50, it is possible to display a mental state such as approaching the subject or removing interest from the subject.

このように、実施例のクリーチャ10では、幾つかの自由度を有するアクチュエータの制御と会話状況との組み合わせによって、コミュニケーション上で意味を持つ仕草や態度を簡易に実現できる。これらは、人間どうしの会話の中では、視線の動き,顔の動き,上半身の動き,両腕の動き,指先の動きなどの組み合わせによって表示されるものであるが、実施例のクリーチャ10では、それらを簡易にかつ自然性を失うことなく実現できる。   As described above, in the creature 10 according to the embodiment, gestures and attitudes that are meaningful in communication can be easily realized by combining the control of the actuator having several degrees of freedom and the conversation situation. These are displayed by a combination of gaze movement, face movement, upper body movement, movement of both arms, movement of fingertips, etc. in the conversation between humans. In the creature 10 of the embodiment, They can be realized easily and without loss of naturalness.

図3および図5を参照して、図2に示すアイリス19を制御するために、頭尾16の前方表面には光量センサ60が設けられる。この光量センサ60はたとえばCdSからなり、外界の明るさ(光量)に応じた大きさの信号をCPU46に入力する。コンピュータ46では、その光量信号に基づいてアイリス駆動回路29を制御して、光量信号が大きいときすなわち外界が明るいときにアイリス19を閉じる方向に変位させ、あるいは、光量信号が小さいときすなわち外界が暗いときにアイリス19を閉じる方向に変位させる。したがって、透明球殻18でアイリス19の開口の大きさが変化するので、それがたとえば生物の「目」として把握できる。   With reference to FIGS. 3 and 5, a light amount sensor 60 is provided on the front surface of the head-tail 16 in order to control the iris 19 shown in FIG. 2. The light quantity sensor 60 is made of CdS, for example, and inputs a signal having a magnitude corresponding to the brightness (light quantity) of the outside world to the CPU 46. The computer 46 controls the iris driving circuit 29 based on the light quantity signal to displace the iris 19 in the closing direction when the light quantity signal is large, that is, when the outside is bright, or when the light quantity signal is small, that is, the outside is dark. Sometimes the iris 19 is displaced in the closing direction. Therefore, since the size of the opening of the iris 19 changes in the transparent spherical shell 18, it can be grasped as, for example, the “eyes” of a living thing.

また、図3および図5に示すように、クリーチャ10は加速度センサ62を備えており、クリーチャ10がゆすられたときに、どの程度の衝撃が加わったかを測定できる。したがって、ユーザがクリーチャ10に対して物理的なコミュニケーションを図ったとき、叩かれたのか、それとも、撫でられたのかなどを判断し、ユーザのコミュニケーションに合った反応を返すことができる。   Further, as shown in FIGS. 3 and 5, the creature 10 includes an acceleration sensor 62, and it is possible to measure how much impact is applied when the creature 10 is shaken. Therefore, when the user attempts physical communication with the creature 10, it can be determined whether the user has been hit or stroked, and a response suitable for the user's communication can be returned.

さらに、上述の実施例では、頭尾16内に弾性体からなる芯材17を内蔵した。この芯材17をさらにアクチュエータ(図示せず)と組み合わせてもよい。つまり、離散的な動作を実現するアクチュエータと連続的な動作を実現する弾性体とを組み合わせることによって、より一層生物的挙動に近づけることができる。なお、アクチュエータとしては、たとえば形状記憶素材を利用したものが用いられ得る。   Furthermore, in the above-described embodiment, the core member 17 made of an elastic body is incorporated in the head and tail 16. The core member 17 may be further combined with an actuator (not shown). That is, by combining an actuator that realizes discrete motion and an elastic body that realizes continuous motion, it can be made closer to biological behavior. For example, an actuator using a shape memory material can be used as the actuator.

なお、クリーチャ10は以上説明した機能のほかに、パーソナルコンピュータとしての機能を備えているが、パーソナルコンピュータとしての機能の説明は省略する。   In addition to the functions described above, the creature 10 has a function as a personal computer, but a description of the function as a personal computer is omitted.

このパーソナルコンピュータとしてのクリーチャ10は、コミュニケーションの一つとして、ユーザが誤操作を行うと本体を動かして誤動作が行われたことを知らせる。誤操作としては、入力フォームへの入力漏れやソフトウェアの操作ミスといったソフトウェア上の誤操作や電源が投入されている状態で電源ボタンを操作した場合(通常、電源の遮断はソフトウェア的に行われる)などのハードウェア上の誤操作がある。   As a communication, the creature 10 as a personal computer moves the main body to notify that a malfunction has occurred if the user performs an incorrect operation. Misoperations include software misoperations such as omissions in the input form and software operation mistakes, or when the power button is operated while the power is on (usually turning off the power via software). There is a hardware error.

以下に、図6に示すフロー図を用いて、電源ボタンの誤操作が行われたときのコンピュータ46の動作を説明する。ユーザがクリーチャ10の本体に設けられた図示しない電源ボタンを押圧すると、ステップS1において電源ボタンが操作されたと判断する。次に、ステップS3において、パーソナルコンピュータがフリーズ状態であるかどうかを判断する。パーソナルコンピュータがフリーズ状態にある場合には自身がフリーズ状態にあることを判断することはできないが、この場合にはステップS11において電源が遮断される。   Hereinafter, the operation of the computer 46 when the power button is erroneously operated will be described with reference to the flowchart shown in FIG. When the user presses a power button (not shown) provided on the main body of the creature 10, it is determined that the power button has been operated in step S1. Next, in step S3, it is determined whether or not the personal computer is in a frozen state. If the personal computer is in the frozen state, it cannot be determined that the personal computer is in the frozen state. In this case, however, the power is shut off in step S11.

ステップS3において、NOと判断したときには、ステップS5以下の処理を行って誤操作が行われたことを知らせる。まず、ステップS5では、車輪22を順方向および逆方向に駆動して本体を前後に揺さぶり、ステップS7では、パン動作を行って本体を左右に揺さぶる。そして、ステップS9では、誤操作が行われたことを知らせる警告メッセージである合成音をスピーカ23から出力する。   When it is determined NO in step S3, the processing in step S5 and subsequent steps is performed to notify that an erroneous operation has been performed. First, in step S5, the wheel 22 is driven forward and backward to shake the main body back and forth, and in step S7, a pan operation is performed to shake the main body left and right. In step S9, a synthesized sound that is a warning message notifying that an erroneous operation has been performed is output from the speaker 23.

このように、誤操作が行われた場合には、クリーチャ10の本体を揺さぶったり警告メッセージを出力したりしてユーザに知らせる。したがって、誤操作による影響を抑止できるとともに、ユーザにクリーチャ10の意思を感じさせて愛着を抱きやすくすることができる。   As described above, when an erroneous operation is performed, the user is notified by shaking the main body of the creature 10 or outputting a warning message. Therefore, it is possible to suppress the influence due to an erroneous operation, and to make the user feel the intention of the creature 10 and make it easy to have attachment.

また、クリーチャ10はこの他にも、ユーザの愛着を引き出すためのさまざまな動作を行う。以下の図7および図8に示すフロー図を用いて、これらの動作を行うときのコンピュータ46の動作を説明する。   In addition to this, the creature 10 performs various operations for bringing out the attachment of the user. The operation of the computer 46 when performing these operations will be described using the flowcharts shown in FIGS. 7 and 8 below.

ユーザがクリーチャ10に近づくとヒトセンサ25がこれを検知し、所定の信号をコンピュータ46に送信する。これによってコンピュータ46は図7のステップS21において人体を検出したと判断する。人体を検出すると、クリーチャ10はユーザとの間に一定の関係を築くために、まず、ステップS23において測距センサ66からの入力に基づいてユーザとの距離を測定する。そして、ステップS25では測定したユーザとの距離を予め定められた所定の値と比較する。ステップS27においてユーザとの距離が遠いと判断すると、ステップS29においてユーザとの距離が所定の距離となるまでユーザに近づく。一方、ステップS27においてユーザとの距離が遠くない(近い)と判断すると、ステップS33においてユーザとの距離が所定の距離となるまでユーザから遠ざかる。   When the user approaches the creature 10, the human sensor 25 detects this and transmits a predetermined signal to the computer 46. As a result, the computer 46 determines that a human body has been detected in step S21 of FIG. When detecting the human body, the creature 10 first measures the distance to the user based on the input from the distance measuring sensor 66 in step S23 in order to establish a certain relationship with the user. In step S25, the measured distance to the user is compared with a predetermined value. If it is determined in step S27 that the distance from the user is long, the user approaches the user until the distance from the user reaches a predetermined distance in step S29. On the other hand, if it is determined in step S27 that the distance from the user is not far (near), the user moves away from the user until the distance from the user reaches a predetermined distance in step S33.

ユーザがクリーチャ(パーソナルコンピュータ)10によって実行されるアプリケーションを操作しているときに、アプリケーションから感想を求められるなどした場合(たとえば、アプリケーションによって提供される画像、音楽、映像などを鑑賞した後に)に、ユーザが判断(感想の選択など)を行う場面がくると、コンピュータ46は、ステップS35においてユーザの判断場面であると判断する。ユーザが感想、たとえば、“おもしろい”を音声入力、文字入力、選択入力などによって入力すると、コンピュータ46はステップS37でこれを取得する。ステップS39では、コンピュータ46はユーザが感想を決定した事柄に対するコンピュータ46自身の感想を決定し、これを取得する。そして、ステップS41において、ユーザの感想と自身の感想とを比較する。   When a user is operating an application executed by the creature (personal computer) 10 and the application requests an impression (for example, after viewing an image, music, video, etc. provided by the application) When the scene where the user makes a judgment (selection of impressions, etc.) comes, the computer 46 judges that it is the judgment scene of the user in step S35. When the user inputs an impression, for example, “interesting” by voice input, character input, selection input, or the like, the computer 46 acquires this in step S37. In step S39, the computer 46 determines the impression of the computer 46 with respect to the matter for which the user has determined the impression, and acquires this. In step S41, the user's impression is compared with the user's own impression.

比較の結果、ステップS43で、ユーザの感想とコンピュータ46の感想とが一致するもしくは近いと判断する場合には、ステップS45でコンピュータ46は共感を表現するように所定の距離までユーザに近づく。このとき、共感を表す合成音を出力するようにしてもよい。一方、ステップS43で、ユーザの感想とコンピュータ46の感想とがかけ離れていると判断する場合には、ステップS47でコンピュータ46は嫌悪感を表すようにユーザから遠ざかり、ステップS49においてユーザに対してそっぽを向く。このとき、嫌悪感を表す合成音を出力してもよい。   As a result of the comparison, if it is determined in step S43 that the user's impression matches that of the computer 46, the computer 46 approaches the user up to a predetermined distance so as to express empathy in step S45. At this time, a synthesized sound representing empathy may be output. On the other hand, if it is determined in step S43 that the user's impression is far from the impression of the computer 46, in step S47, the computer 46 is moved away from the user so as to express disgust, and in step S49, the user's feeling is slightly different. Facing. At this time, a synthesized sound representing disgust may be output.

このようにユーザはクリーチャ10と感性を用いたコミュニケーションをとることができ、クリーチャ10に感情移入してつながりを感じる、もしくは自律した人格を感じることができる。   In this way, the user can communicate with the creature 10 using sensibility, and can feel emotionally connected to the creature 10 or feel an autonomous personality.

ユーザはクリーチャ(パーソナルコンピュータ)10によって実行されるアプリケーションを通じてクリーチャ10に問いかけをすることができる。たとえば、音声入力、文字入力、選択入力などによって、“今日は元気?”という問いかけをすると、コンピュータ46はステップS51において問いかけを検知する。そして、ユーザとコミュニケーションをとる姿勢を見せるためにステップS53でヒトセンサ25を用いてユーザを検出し、ステップS55において、検出したユーザの方向を向く。このとき、ユーザを検知するためにカメラ20を利用してもよい。つまり、カメラ20から出力される映像内の肌色部分を抽出することによってユーザを検出する。ステップS57では、クリーチャ10は自身の内部状態を参照する。そして、ステップS59において、内部状態の参照結果に応じて“元気だよ”もしくは“調子悪いなぁ”などと問いかけに対する返答をする。ここで、内部状態には、ハードウェア的なものとソフトウェア的なものとがある。ハードウェア的なものとしては、筐体内部の温度、バッテリの残量、メモリの空き状態などがあり、ソフトウェア的なものとしては、ユーザとクリーチャ10とが対話するアプリケーションプログラムの中などで定義されるクリーチャ10の感情状態などがある。   The user can ask the creature 10 through an application executed by the creature (personal computer) 10. For example, when a question “How are you today?” Is made by voice input, character input, selection input, or the like, the computer 46 detects the question in step S51. And in order to show the attitude which communicates with a user, a user is detected using human sensor 25 at Step S53, and it turns to the direction of the detected user at Step S55. At this time, the camera 20 may be used to detect the user. That is, the user is detected by extracting a skin color portion in the video output from the camera 20. In step S57, the creature 10 refers to its own internal state. In step S59, a response to the question “I'm fine” or “I'm not feeling well” is made according to the reference result of the internal state. Here, the internal state includes hardware and software. The hardware type includes the temperature inside the housing, the remaining battery level, and the memory free state. The software type is defined in an application program in which the user and the creature 10 interact. The emotional state of the creature 10 is.

ステップS61では、返答が肯定的であるか否かを判断する。そして、返答が肯定的である場合には、ステップS63でうなずくようにチルト(縦振り)動作を行う。一方、返答が肯定的でない場合には、ステップS65で否定するようにパン(横振り)動作を行う。   In step S61, it is determined whether or not the response is affirmative. If the answer is affirmative, a tilt (vertical swing) operation is performed as nodding in step S63. On the other hand, if the answer is not affirmative, a panning operation is performed so as to be denied in step S65.

このようなやり取りによって、クリーチャ10に生物性を与えることができるのでユーザはクリーチャ10に対してより感情移入しやすくなる。   Such exchanges can impart biologicality to the creature 10, so that the user can more easily empathize with the creature 10.

ユーザがクリーチャ10を叩いたり撫でたりして物理的コミュニケーションをとると、図8のステップS71において、接触センサ44が接触を感知し、加速度センサ62が揺れの程度を感知する。加速度センサ62が感知した揺れの程度が大きい場合には、ステップS73においてやさしいコミュニケーションではない、たとえば、叩かれたと判断し、嫌がる姿勢を示すように、ステップS75で車輪22を逆方向に駆動して後退することによってユーザとの距離をとり、ステップS77では“いやいや”をするようにパン(横振り)動作を行い、そして、ステップS78において、たたかれたことに対する嫌悪感を示すような合成音声を出力する。叩くのをやめるよう求める“やめて”というような合成音を出力するようにしてもよい。一方、加速度センサ62が感知した揺れの程度が小さいと、ステップS73においてやさしいコミュニケーション、たとえば、撫でられたと判断し、ステップS79では現在スリープ(節電)モードであるかどうかを判断する。スリープモードである場合には、ステップS81でスリープモードを解除し、つまり、節電モードを通常モードにするとともに、アイリス駆動回路29を制御してスリープ状態のために絞られているアイリス19を開く。このアイリス19の制御によってクリーチャ10が目覚めたという様子が演出される。そして、ステップS83ではスリープからの目覚めを示す合成音を出力する。スリープモードでない場合には、親近感を示すようにステップS85において車輪22を順方向に駆動して前進することによってユーザとの距離をつめ、ステップS86においてユーザの物理的コミュニケーションに対する返事、たとえば、“なぁ〜に?”というような合成音を出力する。   When the user performs physical communication by hitting or stroking the creature 10, the contact sensor 44 senses contact and the acceleration sensor 62 senses the degree of shaking in step S71 of FIG. If the degree of shaking sensed by the acceleration sensor 62 is large, it is not easy communication in step S73. For example, it is determined that the player has been hit and the wheel 22 is driven in the reverse direction in step S75 so as to indicate a disliked posture. In step S77, a distance is taken from the user by retreating. In step S77, a pan (swinging) operation is performed so as to “no”. Is output. A synthetic sound such as “Stop” that asks you to stop hitting may be output. On the other hand, if the degree of shaking sensed by the acceleration sensor 62 is small, it is determined in step S73 that gentle communication, for example, boiled, has been made, and in step S79, it is determined whether or not the current sleep (power saving) mode. If the sleep mode is set, the sleep mode is canceled in step S81, that is, the power saving mode is set to the normal mode, and the iris drive circuit 29 is controlled to open the iris 19 that is narrowed down for the sleep state. A state in which the creature 10 is awakened by the control of the iris 19 is produced. In step S83, a synthesized sound indicating awakening from sleep is output. When not in the sleep mode, the distance to the user is increased by driving the wheel 22 forward in step S85 so as to show a sense of familiarity, and a response to the user's physical communication in step S86, for example, “ Outputs a synthesized sound such as “What?

このようにユーザによる物理的な関わりに対して反応することによってスキンシップをはかることができる。   In this way, skinship can be achieved by reacting to the physical relationship by the user.

コンピュータ46は、タイマ64(図5)によってユーザが最後の操作を行ってから経過した時間を計測しており、経過時間が所定の時間に達すると、ステップS87において所定の期間ユーザによる操作が行われていないと判断し、ステップS89において退屈であることを示すような動作、たとえば、うつむきかげんでゆっくりとしたパン(横振り)動作などを行い、ステップS91において退屈であることを示す合成音、たとえば、“何かしようよ”などを出力する。なお、さらに所定の時間が経過するとステップS93においてスリープモードに移行する。このスリープモードへの移行では、節電モードにするとともに、アイリス駆動回路29を制御してアイリス19を絞って瞳を閉じて寝ているような様子を示す。   The computer 46 measures the time elapsed since the user performed the last operation by the timer 64 (FIG. 5). When the elapsed time reaches a predetermined time, the user performs an operation for a predetermined period in step S87. A synthetic sound indicating that it is bored in step S89, performing an operation indicating that it is bored in step S89, for example, performing a slow panning (sideways swinging) operation in step S91, For example, “Do something” is output. When a predetermined time further elapses, the process shifts to the sleep mode in step S93. In the transition to the sleep mode, the power saving mode is set, and the iris driving circuit 29 is controlled to narrow down the iris 19 to close the pupil and sleep.

このような動作によって、クリーチャ10はユーザに対して自身への働きかけ(操作)を促し、ユーザとクリーチャ10との間のコミュニケーションを増加させることができる。   By such an operation, the creature 10 can urge the user to act (operate) on the user, and communication between the user and the creature 10 can be increased.

クリーチャ10は電子メールの送受信機能を備えており、電子メールが送られてくると、ステップS99において電子メールの受信であると判断し、ステップS101では、電子メールを受信したことを示す動作、たとえば、高速でのチルト(縦振り)動作などを行い、ステップS103では、電子メールを受信したことを示す合成音、たとえば、“メールだよ”などを出力する。   The creature 10 has an e-mail transmission / reception function. When an e-mail is sent, it is determined in step S99 that the e-mail has been received. In step S101, an operation indicating that the e-mail has been received, for example, Then, a high-speed tilt (vertical swing) operation is performed, and in step S103, a synthesized sound indicating that an e-mail has been received, for example, “It is a mail” is output.

このような仕組みによって、クリーチャ10に電子メールの番人の役目が与えられ、ユーザとクリーチャ10との間に社会的関係が生まれる。   By such a mechanism, the role of an e-mail keeper is given to the creature 10, and a social relationship is created between the user and the creature 10.

また、バッテリが減っていると、ステップS95において、バッテリが減っていることを感知し、ステップS97では、バッテリが減っていることを示すためにクリーチャ10の動作を緩慢にする。   If the battery is depleted, it is detected in step S95 that the battery is depleted, and in step S97, the operation of the creature 10 is slowed down to indicate that the battery is depleted.

以上に説明したように、この発明のパーソナルコンピュータは、ユーザになついたり、問いかけに答えたり、ユーザとともに判断を下したり、能動的な働きかけをしたりして生物らしさを備えている。したがって、ユーザはパーソナルコンピュータそのものに対して強い愛着を抱くことができる。   As described above, the personal computer according to the present invention has a biological character such as acquainting the user, answering the question, making a judgment together with the user, and actively acting. Therefore, the user can have a strong attachment to the personal computer itself.

この発明の一実施例のパーソナルコンピュータの使用例を示す図解図である。It is an illustration figure which shows the usage example of the personal computer of one Example of this invention. 図1のパーソナルコンピュータを正面からみた外観図である。It is the external view which looked at the personal computer of FIG. 1 from the front. 図1のパーソナルコンピュータを側面からみた外観図である。It is the external view which looked at the personal computer of FIG. 1 from the side. 図1実施例の内部構造物を示す図解図である。It is an illustration figure which shows the internal structure of the FIG. 1 Example. 図1実施例の制御系を示すブロック図である。It is a block diagram which shows the control system of FIG. 1 Example. 図1のパーソナルコンピュータのCPUの動作を示すフロー図である。It is a flowchart which shows operation | movement of CPU of the personal computer of FIG. 図1のパーソナルコンピュータのCPUのその他の動作を示すフロー図である。It is a flowchart which shows other operation | movement of CPU of the personal computer of FIG. 図7のフロー図に続くフロー図である。It is a flowchart following the flowchart of FIG.

符号の説明Explanation of symbols

10 …パーソナルコンピュータまたはクリーチャ
19 …アイリス
20 …カメラ
23 …スピーカ
25 …ヒトセンサ
29 …アイリス駆動回路
44 …接触センサ
48 …移動モータ駆動回路
50 …移動モータ
52 …俯仰モータ駆動回路
54 …俯仰モータ
56 …旋回モータ駆動回路
58 …旋回モータ
60 …光量センサ
62 …加速度センサ
64 …タイマ
66 …測距センサ
DESCRIPTION OF SYMBOLS 10 ... Personal computer or creature 19 ... Iris 20 ... Camera 23 ... Speaker 25 ... Human sensor 29 ... Iris drive circuit 44 ... Contact sensor 48 ... Movement motor drive circuit 50 ... Movement motor 52 ... Lifting motor drive circuit 54 ... Lifting motor 56 ... Turning Motor drive circuit 58 ... turning motor 60 ... light quantity sensor 62 ... acceleration sensor 64 ... timer 66 ... distance measuring sensor

Claims (16)

パーソナルコンピュータ本体、および
前記本体に設けられてその本体自身を動かす駆動手段を備える、パーソナルコンピュータ。
A personal computer comprising: a personal computer main body; and a driving means provided in the main body and moving the main body itself.
前記駆動手段は、前記本体を移動させる移動手段、前記本体をパン動作させるパン動作手段、および前記本体をチルト動作させるチルト動作手段の少なくとも1つを含む、請求項1記載のパーソナルコンピュータ。   The personal computer according to claim 1, wherein the driving unit includes at least one of a moving unit that moves the main body, a pan operation unit that pans the main body, and a tilt operation unit that tilts the main body. イベントの発生を検知するイベント検知手段をさらに備え、
前記駆動手段は前記イベント検知手段の検知に応じて動作する、請求項1または2記載のパーソナルコンピュータ。
It further comprises event detection means for detecting the occurrence of an event,
The personal computer according to claim 1, wherein the driving unit operates in response to detection by the event detection unit.
前記イベント検知手段はユーザの存在を検知する存在検知手段を含み、
前記移動手段は、前記存在検知手段の検知に応じて前記ユーザとの距離を調整する請求項3記載のパーソナルコンピュータ。
The event detection means includes presence detection means for detecting the presence of a user,
The personal computer according to claim 3, wherein the moving unit adjusts the distance to the user in accordance with detection by the presence detection unit.
前記移動手段は前記存在検知手段がユーザの存在を検知したときにユーザとの距離を近づける、請求項4記載のパーソナルコンピュータ。   The personal computer according to claim 4, wherein the moving unit reduces the distance to the user when the presence detecting unit detects the presence of the user. 前記移動手段は前記存在検知手段がユーザの存在を検知したときにユーザとの距離を離す、請求項4記載のパーソナルコンピュータ。   The personal computer according to claim 4, wherein the moving unit increases a distance from the user when the presence detecting unit detects the presence of the user. 前記イベント検知手段は、ユーザの判断が必要な場面を検知する場面検知手段、前記場面におけるユーザの判断を受け付ける受付手段、前記場面におけるCPUの判断を決定する決定手段、および前記ユーザの判断と前記CPUの判断とを比較する比較手段をさらに含み、
前記移動手段は、前記比較手段の比較の結果、前記ユーザの判断と前記CPUの判断とが一致するときにユーザとの距離を近づけ、前記ユーザの判断と前記CPUの判断とが一致しないときユーザとの距離を離す、請求項3ないし6のいずれかに記載のパーソナルコンピュータ。
The event detecting means includes a scene detecting means for detecting a scene that requires a user's judgment, a receiving means for accepting a user's judgment in the scene, a determining means for determining a judgment of the CPU in the scene, and the judgment of the user and the A comparison means for comparing with the judgment of the CPU;
As a result of the comparison by the comparison means, the moving means approaches the user when the user's judgment and the CPU's judgment match, and the user's judgment and the CPU's judgment do not match The personal computer according to claim 3, wherein the personal computer is separated from the personal computer.
前記イベント検知手段の検知に応じて音を発生する音発生手段をさらに備える、請求項3ないし7のいずれかに記載のパーソナルコンピュータ。   The personal computer according to claim 3, further comprising sound generation means for generating sound in response to detection by the event detection means. 前記イベント検知手段は前記本体の揺れの程度を検知する揺れ検知手段をさらに含む、請求項3ないし8のいずれかに記載のパーソナルコンピュータ。   The personal computer according to claim 3, wherein the event detection unit further includes a shake detection unit that detects a degree of shaking of the main body. 前記揺れ検知手段が所定の閾値よりも大きい揺れを検知したときに、前記移動手段がユーザとの距離を離すとともに前記パン動作手段がパン動作を行いかつ前記音発生手段が嫌悪感を示す音を発生させ、所定の閾値よりも小さい揺れを検知したときに、前記移動手段がユーザとの距離を近づけるとともに前記音発生手段が返事を示す音を発生させる、請求項8記載のパーソナルコンピュータ。   When the shaking detection means detects a shake greater than a predetermined threshold, the moving means moves away from the user, the panning means performs a panning action, and the sound generating means emits a sound indicating disgust. 9. The personal computer according to claim 8, wherein when the movement is detected and a swing smaller than a predetermined threshold is detected, the moving means reduces the distance from the user and the sound generating means generates a sound indicating a reply. 前記イベント検知手段は無操作時間が所定の時間に達したことを検知する時間検知手段をさらに含む、請求項3ないし10のいずれかに記載のパーソナルコンピュータ。   The personal computer according to any one of claims 3 to 10, wherein the event detection means further includes time detection means for detecting that the no-operation time has reached a predetermined time. 前記イベント検知手段は内部状態を検知する状態検知手段をさらに含む、請求項3ないし11のいずれかに記載のパーソナルコンピュータ。   The personal computer according to claim 3, wherein the event detection unit further includes a state detection unit that detects an internal state. 前記イベント検知手段はユーザからの問いかけを検知する問い検知手段をさらに含み、
前記問い検知手段が問いかけを検知すると、前記存在検知手段がユーザの位置を検知し、前記駆動手段が前記存在検知手段の検知結果に基づいて前記本体をユーザの方向にアドレスし、前記状態検知手段が内部状態を検知し、前記音発生手段が前記状態検知手段の検知結果に基づいて返答を示す合成音声を発生し、
前記返答の内容が肯定的であるか否定的であるかを判断する判断手段をさらに含み、および
前記返答が肯定的であるときに前記チルト動作手段がチルト動作を行い、前記返答が否定的であるときに前記パン動作手段がパン動作を行う、請求項12記載のパーソナルコンピュータ。
The event detection means further includes a question detection means for detecting a question from a user,
When the inquiry detection means detects an inquiry, the presence detection means detects the position of the user, the driving means addresses the body in the direction of the user based on the detection result of the presence detection means, and the state detection means Detects an internal state, and the sound generating means generates a synthesized voice indicating a response based on a detection result of the state detecting means,
A judgment means for judging whether the content of the reply is affirmative or negative; and when the reply is affirmative, the tilt operation means performs a tilt operation, and the reply is negative. The personal computer according to claim 12, wherein the pan operation means performs a pan operation at a certain time.
前記状態検知手段はバッテリの減少を検知する減少検知手段を含む、請求項12または13記載のパーソナルコンピュータ。   The personal computer according to claim 12, wherein the state detection unit includes a decrease detection unit that detects a decrease in the battery. 前記イベント検知手段は電子メールの受信を検知する受信検知手段をさらに含む、請求項3ないし14のいずれかに記載のパーソナルコンピュータ。   The personal computer according to claim 3, wherein the event detection means further includes reception detection means for detecting reception of an electronic mail. 前記本体は、球形部と前記球形部から連続的に延びる頭尾とを有する外被、および前記外被の前記球形部に設けられた1つの球殻を備え、
前記移動手段,前記パン動作手段および前記チルト動作手段は、前記外被の前記球殻が設けられた部分を正面として前記本体を駆動する、請求項2ないし15のいずれかに記載のパーソナルコンピュータ。
The main body includes a jacket having a spherical portion and a head and tail continuously extending from the spherical portion, and one spherical shell provided on the spherical portion of the jacket,
The personal computer according to claim 2, wherein the moving unit, the pan operation unit, and the tilt operation unit drive the main body with a portion of the outer shell provided with the spherical shell as a front surface.
JP2003313862A 2003-09-05 2003-09-05 Personal computer Pending JP2005084789A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003313862A JP2005084789A (en) 2003-09-05 2003-09-05 Personal computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003313862A JP2005084789A (en) 2003-09-05 2003-09-05 Personal computer

Publications (1)

Publication Number Publication Date
JP2005084789A true JP2005084789A (en) 2005-03-31

Family

ID=34414660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003313862A Pending JP2005084789A (en) 2003-09-05 2003-09-05 Personal computer

Country Status (1)

Country Link
JP (1) JP2005084789A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012519501A (en) * 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ A toy showing nostalgic behavior
WO2018123431A1 (en) * 2016-12-28 2018-07-05 パナソニックIpマネジメント株式会社 Interactive robot
JP2019217122A (en) * 2018-06-22 2019-12-26 カシオ計算機株式会社 Robot, method for controlling robot and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012519501A (en) * 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ A toy showing nostalgic behavior
WO2018123431A1 (en) * 2016-12-28 2018-07-05 パナソニックIpマネジメント株式会社 Interactive robot
JP2019217122A (en) * 2018-06-22 2019-12-26 カシオ計算機株式会社 Robot, method for controlling robot and program
JP7180139B2 (en) 2018-06-22 2022-11-30 カシオ計算機株式会社 Robot, robot control method and program
JP2023027060A (en) * 2018-06-22 2023-03-01 カシオ計算機株式会社 Robot, method for controlling robot and program
JP7476941B2 (en) 2018-06-22 2024-05-01 カシオ計算機株式会社 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
US10248210B2 (en) Systems and methods for haptically-enabled conformed and multifaceted displays
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US9977496B2 (en) Eye-wearable device user interface and augmented reality method
WO2016068262A1 (en) Communication robot
KR20170097585A (en) Initiating human-machine interaction based on visual attention
JP7363764B2 (en) Information processing device, information processing method, and program
JP7502520B2 (en) ROBOT, ROBOT CONTROL METHOD AND PROGRAM
EP3392005A1 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
US20220347860A1 (en) Social Interaction Robot
US11880528B2 (en) Stimulus transmission device
CN110737335B (en) Interaction method and device of robot, electronic equipment and storage medium
JP2023036692A (en) Device
CN108724206B (en) Interaction device, interaction method, interaction program, and robot
JP4247149B2 (en) robot
JP2003345727A (en) Device for transmitting feeling
JP2005084789A (en) Personal computer
KR102519599B1 (en) Multimodal based interaction robot, and control method for the same
JP2005279895A (en) Robot
EP3392003A1 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
KR20240096625A (en) AR device and AR device control method
JP3494408B2 (en) Electronic pet
JP4431757B2 (en) Robot system
WO2024190445A1 (en) Behavior control system and program
JP2024045247A (en) robot
JP2024076459A (en) Operation control device, operation control method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603