WO2021161492A1 - 汎用人工知能システムおよび汎用人工知能プログラム - Google Patents

汎用人工知能システムおよび汎用人工知能プログラム Download PDF

Info

Publication number
WO2021161492A1
WO2021161492A1 PCT/JP2020/005696 JP2020005696W WO2021161492A1 WO 2021161492 A1 WO2021161492 A1 WO 2021161492A1 JP 2020005696 W JP2020005696 W JP 2020005696W WO 2021161492 A1 WO2021161492 A1 WO 2021161492A1
Authority
WO
WIPO (PCT)
Prior art keywords
platform
world
outside
human
artificial intelligence
Prior art date
Application number
PCT/JP2020/005696
Other languages
English (en)
French (fr)
Inventor
篤志 田方
Original Assignee
株式会社ロボマインド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ロボマインド filed Critical 株式会社ロボマインド
Priority to PCT/JP2020/005696 priority Critical patent/WO2021161492A1/ja
Priority to JP2020527971A priority patent/JP6858434B1/ja
Priority to JP2021534378A priority patent/JP6985783B1/ja
Priority to CN202180007651.1A priority patent/CN114902236A/zh
Priority to US17/788,128 priority patent/US20230028730A1/en
Priority to PCT/JP2021/004806 priority patent/WO2021162002A1/ja
Publication of WO2021161492A1 publication Critical patent/WO2021161492A1/ja
Priority to JP2022017449A priority patent/JP2022122273A/ja
Priority to JP2023113590A priority patent/JP2023162161A/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Definitions

  • the present invention relates to a general-purpose artificial intelligence system and a general-purpose artificial intelligence program.
  • Human-like artificial intelligence is, in part, artificial intelligence that enables natural communication with humans, that is, natural conversation.
  • Patent Document 1 discloses a conversation system that responds to emotions when they appear. However, this system is not a conversation by itself, as it merely responds to words.
  • AIs that can talk such as AI speakers and smartphone apps
  • AI speakers and smartphone apps can have natural conversations and chats just by playing the scenarios prepared in advance.
  • human beings can have natural conversations by understanding the meanings that are not explicitly stated, such as understanding the intentions of the other person and being considerate, and that if I say this, the other person will think like this. This is because we think about various things and have a conversation.
  • Speaking a pre-prepared scenario is not a natural conversation.
  • An object of the present invention is to provide a general-purpose artificial intelligence system capable of understanding the feelings of the other person and acting to have the same mind as a person who blends into society.
  • the general-purpose artificial intelligence system is a general-purpose artificial intelligence system that determines the output to the outside based on the information input from the outside.
  • the general-purpose artificial intelligence system has a storage unit that stores a data model that imitates a person and a person's thoughts in advance, a generation unit that extracts the data model from the storage unit and generates a human object that can reproduce a person's movements and thoughts.
  • the world construction department which has a first platform and a second platform on which human objects are placed and builds a world in which the movements and thoughts of human objects are developed, and human objects based on information input from the outside.
  • the output determination unit recognizes the outside world from the first platform.
  • a person outside is recognized as a human object, it is possible to grasp the thought content of the person that cannot be captured by a camera or the like. Also, if you use the second platform and act in this way, you can simulate what the other party thinks, and you can respond naturally.
  • the human object of itself and the other party may be arranged on the first platform and the second platform.
  • the output determination unit may determine the output so that the thinking of the other person's object is preferable. By doing so, it is possible to respond with consideration for the other person, and it can be a general-purpose artificial intelligence that behaves like a person.
  • the person object placed on the first platform may have a lower-level first platform corresponding to the person's first platform.
  • the World Construction Department may reproduce the outside world on the lower first platform based on the information input to the person. By doing so, it is possible to think from the standpoint of the other person and to communicate more naturally with people.
  • the person's data model may have two types of desires: a low-level desire arising from the body and a high-level desire for something of high social value.
  • the output determination unit may determine the output so as to suppress the low-level desire and satisfy the high-level desire. By doing so, it becomes possible to judge "should" and good and evil, to have a natural conversation with people, and to become a general-purpose artificial intelligence that blends into human society.
  • the general-purpose artificial intelligence program according to the present invention is a general-purpose artificial intelligence program for determining an output to the outside based on information input from the outside, and imitates a computer as a person and a person's thought. It has a generator that generates a human object that can reproduce human movements and thoughts from a data model, a first platform on which the human object is placed, and a second platform, and the movements and thoughts of the human object are developed.
  • the world construction department that builds the world, the external world reproduction department that reproduces the external world by arranging human objects on the first platform based on the information input from the outside, and the reproduction on the first platform
  • General-purpose artificial intelligence to grasp the outside world by recognizing the outside world, and to function as an output determination unit that determines the output to the outside by arranging and manipulating human objects on the second platform. It is a program.
  • the output determination unit recognizes the outside world from the first platform.
  • a person outside is recognized as a human object, it is possible to recognize even the thought content of the person that cannot be captured by a camera or the like. Also, if you use the second platform and act in this way, you can simulate what the other party thinks, and you can respond naturally.
  • Such a general-purpose artificial intelligence system can understand the feelings of the other person, behave as if having the same mind as a person, and can be integrated into human society.
  • FIG. 1 is a block diagram showing a configuration of a general-purpose artificial intelligence system according to the first embodiment.
  • FIG. 2 is a conceptual diagram showing the configurations of the first platform and the second platform in the general-purpose artificial intelligence system according to the first embodiment according to the present disclosure.
  • FIG. 3 is a flowchart showing a typical process in the case of processing by the general-purpose artificial intelligence system of the present disclosure.
  • FIG. 4 is a conceptual diagram showing a second platform in which the robot is placed in a room.
  • FIG. 5 is a conceptual diagram showing a second platform in which the robot is placed in a room.
  • FIG. 6 is a conceptual diagram showing a second platform in which the robot is placed in a room.
  • FIG. 1 is a block diagram showing a configuration of a general-purpose artificial intelligence system according to the first embodiment.
  • FIG. 2 is a conceptual diagram showing the configurations of the first platform and the second platform in the general-purpose artificial intelligence system according to the first embodiment according to the present disclosure.
  • FIG. 7 is a flowchart showing a typical process in the case of processing by the general-purpose artificial intelligence system of the present disclosure.
  • FIG. 8 is a table used by the judgment program to judge right from wrong.
  • FIG. 9 is a table used by the judgment program to judge social good and evil.
  • FIG. 10 is a table used by the judgment program to be used to judge an individual's behavior.
  • FIG. 11 is a conceptual diagram showing a configuration of a general-purpose artificial intelligence system according to another embodiment according to the present disclosure.
  • FIG. 1 is a block diagram showing a configuration of a general-purpose artificial intelligence system according to the first embodiment.
  • the general-purpose artificial intelligence system 11 is applied to a robot having a control device 12.
  • the robot has a body similar to that of a human. That is, there are parts corresponding to human limbs, and the motor 13 for driving them is provided.
  • it has a camera 14 corresponding to the human eye, and the camera 14 captures the outside to acquire video data.
  • it has a microphone (member having a sound collecting function) 15 corresponding to a human ear, and the microphone 15 listens to an external sound or voice.
  • it has a speaker 16 corresponding to a person's mouth, and the speaker 16 can speak and have a conversation.
  • a general-purpose artificial intelligence program is executed by the control device 12 that controls these.
  • the general-purpose artificial intelligence program controls the motor 13 that moves the limbs and the speaker 16 that speaks words based on the external information obtained from the camera 14 and the microphone 15. That is, the general-purpose artificial intelligence program determines the behavior of the robot itself based on external information.
  • the control device 12 has a CPU (Central Processing Unit) and a main storage memory into which the general-purpose artificial intelligence program of the present disclosure is loaded.
  • CPU Central Processing Unit
  • the general-purpose artificial intelligence system 11 is a general-purpose artificial intelligence system that determines output to the outside based on information input from the outside, and preliminarily sets a control device 12 including a control unit 18 and a data model of a person or an object. It includes a database 17 that functions as a storage unit for storing.
  • the control unit 18 determines the output to the outside such as the motor 13 and the speaker 16 based on the information input from the camera 14 and the microphone 15.
  • the control unit 18 has a generation unit 24 that generates an object from a data model, a world construction unit 25, an external world reproduction unit 26, and an output determination unit 27 that determines output.
  • the data model represents people, things, concepts, etc. and is stored in the database 17.
  • the control unit 18 recognizes a person or an object based on external information from the camera 14 or the microphone 15, the external world reproduction unit 26 takes out the corresponding data model, the generation unit 24 generates an object, and the world construction unit 25 Place objects in and build the world.
  • An object is the same as an object in an object-oriented language, it can be manipulated freely, and it is created in memory.
  • the world construction unit 25 has a first platform 21 and a second platform 22.
  • the external world itself is reproduced as a virtual world by the world construction unit 25.
  • a three-dimensional world is set on the first platform 21. Then, when it is captured by the camera 14 and recognized as a desk, the data model of the desk is taken out from the database 17, the desk object is generated by the generation unit 24, and the desk object is arranged on the first platform 21 in the three-dimensional world.
  • the room captured by the camera 14 is reproduced on the first platform 21. Since the desk object is a three-dimensional object, it can be freely moved in the room. This is the same as a desk in the real world. In other words, a situation is constructed in which humans can operate freely as they imagine in their heads. Then, the output determination unit 27 recognizes the real world through the external world constructed on the first platform 21. That is, the output determination unit 27 recognizes the external world constructed on the first platform 21 as the real world itself.
  • the second platform 22 of the world construction unit 25 is constructed and operated by the output determination unit 27. Being able to manipulate objects placed on the second platform 22 can be said to be able to be simulated using the second platform 22. That is, the output determination unit 27 can optimally determine its own output by simulating using the second platform 22. In other words, the output determination unit 27 recognizes the world developed on the first platform 21 as the real world, and uses the second platform 22 as a "consciousness" to determine actions by trial and error. It can be said that it has the function of.
  • the subject is a person with a heart, and includes not only real human beings but also characters appearing in movies and novels, non-existent characters, gods, demons, and so on.
  • the world developed within the first platform 21 is not limited to the real world, but is also the world seen in movies and the world read and imagined by novels. The feature is that it is generated based on information from the outside and cannot be directly changed by the output determination unit 27.
  • the robot is a humanoid robot with limbs and can walk and hold objects. It also has a camera, microphone and speaker, and can communicate with people by voice. These are controlled by the control device 12 that controls the robot.
  • FIG. 3 is a flowchart showing a typical process in the case of processing by the general-purpose artificial intelligence system 11 of the present disclosure.
  • 4 to 6 are conceptual diagrams showing a second platform in which the robot 31 is arranged in the room 30.
  • a shelf 33 is attached to the wall 32 in the room 30 in which the robot 31 is arranged. Then, it is assumed that the battery 34 is placed on the shelf 33. Further, it is assumed that a chair 35 is arranged in the room 30.
  • the robot 31 captures the situation of the room 30 with a camera, analyzes the image, and recognizes the shelf 33, the battery 34, the chair 35, and the like. That is, the external situation is obtained by the sensor (S11). Many data models are stored in the database, and the recognized object is taken out from the database 17 to generate an object of the object (S12).
  • an object for example, an object has data such as shape and size as three-dimensional data. Furthermore, it is also associated with information such as the attributes and functions of the object such as color and weight. In other words, it can be said that general-purpose artificial intelligence can understand the meaning. Understanding the meaning means that, for example, when "desk height" is specified, it corresponds to the height data of the desk object.
  • the data model is realized by a class in an object-oriented language.
  • the camera 14, which corresponds to the eyes of the robot 31, captures the real world in front of it, converts it into three-dimensional data in real time by image analysis, and recognizes an object from its shape. For example, if it is determined to be a "chair", it calls the chair class and creates a chair object. This chair object is directly recognized by the robot 31.
  • the chair class has legs, seats, etc. as parts of the chair 35, and also has three-dimensional data thereof. Then, parts such as legs and seats are set so as to match the recognized three-dimensional data of the chair 35. That is, the outside world is reproduced based on the obtained data (S13).
  • Objects have attributes such as material, color, weight, and hardness.
  • the color of the chair 35 acquired by the image analysis sets the color attribute in the chair object.
  • the material of the chair 35 is determined to be wood from the image-analyzed data, it is set as wood in the material attribute of the chair object. Since data such as weight and hardness are recorded in the wood data model, the weight, hardness and the like of the chair object are set from these data. Only images can be directly acquired by the camera 14, but in this way, data that cannot be directly measured, such as weight and hardness, can be recognized.
  • the object recognized by the camera 14 exists in the three-dimensional space of the real world. Therefore, it is necessary to arrange the object object generated from the data model in the three-dimensional space.
  • the three-dimensional space in which the object object is arranged is referred to as a three-dimensional virtual world with respect to the external real three-dimensional world.
  • the three-dimensional virtual world is constructed on the first platform 21 and the second platform 22 of the world construction unit 25, and can have a plurality of object objects.
  • the three-dimensional virtual world also has functions for manipulating object objects.
  • the placement function has a position and an object object as arguments, and when the object object and the position are passed, the specified object object is placed at the specified position in the three-dimensional virtual world.
  • the movement function has an object object and a movement destination position as arguments, and moves the specified object to the specified position.
  • the 3D virtual world and data model are created by imitating the real world as much as possible.
  • solid objects do not overlap, so for example, when two balls collide, they are bounced off instead of overlapping, and a sound is produced by the impact.
  • objects are programmed so that they do not overlap and when they collide, they bounce off or make a sound.
  • Gravity is also set, as in the real world. In other words, gravity always acts vertically downward on the object. As a result, the vertical direction can be set even in the three-dimensional virtual world.
  • Time flows in the real world, so this is also realized by the program.
  • Time can be expressed by a one-dimensional time axis that flows from the past to the present and the future. And what was cut out at the moment of the present is the situation that is being developed in front of us. That is, the situation currently being deployed on the first platform 21 is the current state recognized by the robot 31.
  • a story is a story that saves the situation of the 3D virtual world at a certain moment as an event and stores the event along the time axis.
  • the flow of time is set in the direction from the past to the present.
  • managing scenes and events in chronological order corresponds to the concept of "time.”
  • a program it can be realized by a data structure such as an array or a list.
  • the world construction unit 25 creates an external virtual world on the first platform 21 based on the information of the external situation from the camera 14 and the microphone 15.
  • the object object Since the object object is composed of 3D data objects, it can theoretically move in the virtual world. However, the external virtual world developed on the first platform 21 faithfully reproduces the external real world, so if the chair 35 is moved only in the external virtual world, a divergence from the real world will occur. It ends up. Therefore, the object of the first platform 21 cannot be freely moved by the output determination unit 27. Therefore, there is a second platform 22 as a platform capable of developing a virtual world different from the external virtual world. That is, the second platform 22 can be freely operated by the output determination unit 27 (consciousness).
  • the robot 31 determines that the boss has spoken by face recognition, converts words into text data by voice recognition, and understands the meaning as the content spoken by the boss. In this case, it is understood that the task of taking the battery 34 placed on the shelf 33 and bringing it to the boss is given. That is, here, it is determined that the timing for determining the output has been reached (YES in S14).
  • the output determination unit 27 searches for how to act in order to take the battery 34.
  • the second platform 22 is used for this purpose. That is, here, the simulation is performed on the second platform 22 (S15).
  • the output determination unit 27 builds a three-dimensional virtual world similar to the first platform 21 on the second platform 22. At this time, the robot 31 itself is also placed in the three-dimensional virtual world. As a result, the output determination unit 27 can simulate its own behavior on the second platform 22 and determine the optimum behavior. That is, the output is determined (YES in S16).
  • the purpose is to take the battery 34, first move yourself as close to the shelf 33 as possible to the battery 34, then reach on the shelf 33 to take the battery 34 (see FIG. 5). ). Then, it can be seen that the battery 34 cannot be reached even if the hand is reached. In other words, the height is not enough.
  • the robot 31 has knowledge in the database 17, and searches for a method of raising its own height from the database 17. Then, you will find a way to "get on the chair". Then, when the chair is searched next, the chair 35 is found in the room 30. Next, move the chair 35 under the shelf 33 on the second platform 22, and simulate the place where you ride on it. Then, it was possible to simulate that the hand could reach the shelf 33 and take the battery 34 (see FIG. 6). After that, take the battery 34, get off the chair 35, and simulate the place where the battery 34 is brought to the boss. If that's okay, record a series of simulated actions. Then, the action is performed according to the determined output content (S17).
  • the subjective self is the state of oneself that one's sensor is currently capturing. for example. If it is one's limbs captured by the camera 14 corresponding to the eyes, or if the limbs have a temperature sensor or a tactile sensor, it is the data detected by oneself from those sensors.
  • the output determination unit 27 can operate the output determination unit 27 for one's body such as the speaker 16 corresponding to one's limbs and mouth. .. This is because if the output determination unit 27 wants to raise the hand, the motor 13 of the hand of the robot 31 is driven, and the hand of the robot 31 in the external real world is raised. In addition, the situation is captured by the camera 14, and one's own hand in the external virtual world of the first platform 21 is raised.
  • the general-purpose artificial intelligence system 11 of the present disclosure can determine the optimum behavior while simulating on the second platform 22. This can be said to be almost the same as human thinking.
  • the world and data model (object) recognized by the output determination unit 27 have been described as objects captured by the camera 14, but the data model is not limited to physically existing ones, and any data that can be recognized by humans is data. Can be a model. For example, consider a company organization. Job titles such as section chiefs and department managers are concepts that exist in the human mind, not physically. Even such a concept can be recognized by the output determination unit 27 depending on the data model (object) and the world in which it is arranged.
  • the company organization virtual world has a structure in which a plurality of job titles are arranged in the order of job titles.
  • Employee objects which are the data model of real-world employees, are placed in the corresponding job titles in the corporate organization virtual world.
  • the company organization virtual world has a promotion function as a function for manipulating employee objects, and when the chief employee object is promoted by one level, it becomes a section chief.
  • the outside world is not limited to the world that actually exists, but may be the world in a movie or novel.
  • a virtual world is constructed on the first platform 21 from the video and text data captured by the camera 14.
  • robots determines an action using the general-purpose artificial intelligence system 11
  • sensors such as cameras and microphones that detect the external environment
  • robots also have sensors that detect their own internal state. As one of them, it is assumed that the battery level detection sensor is provided.
  • the general-purpose artificial intelligence system 11 has a positive and negative psychological state.
  • a positive psychological state is a psychological state that is favorable to oneself, such as being happy or full
  • a negative psychological state is a psychological state that is unfavorable to oneself, such as being sad or dangerous.
  • the output determination unit 27 has a psychological state determination program in which information from various sensors that detect the external environment and internal state is input to determine the psychological state. For example, when the remaining battery level from the battery level detection sensor falls below the lower limit value, it is determined to be a negative psychological state of hunger, and when it rises above the upper limit value, it is determined to be a positive psychological state of fullness.
  • the output determination unit 27 When the output determination unit 27 feels a negative psychological state such as a hungry psychological state, it searches for an action to eliminate it.
  • the database has a cause-effect dictionary that pairs cause and effect.
  • the cause-effect dictionary records the rule that "If you do A, it becomes B", and this is realized by managing it as a pair of cause and effect and recording it in the database.
  • This cause-effect dictionary is a kind of long-term memory. Examples of cause-effect dictionaries are "studying makes you smarter” and “practicing running makes your legs faster”. The contents of the cause-effect dictionary are added by experience and learning. And here, data such as “the battery recovers when it is charged” or "the battery recovers when the battery is replaced” is stored.
  • the output determination unit 27 When the output determination unit 27 detects a negative psychological state, it searches for an action to eliminate it in the next step S2. By searching the cause-effect dictionary of the database 17, for example, it is assumed that two actions are obtained: “If the battery is charged, the battery is fully charged” and “If the battery is replaced, the battery is fully charged”.
  • the output determination unit 27 arranges its own object on the second platform 22 and simulates the action obtained in step 2. Actions involve exercises such as movement and work, and costs such as costs. By simulating, it is assumed that the cost for charging is +5 and the cost for replacing the battery is +10. It is assumed that the data necessary for these cost calculations are stored in the database 17. The output determination unit 27 selects the action with the lowest cost from each action, and here, charging is selected.
  • the first platform 21 is a model in which the real world is constructed as it is, and one's own object can be manipulated.
  • the object placed on the first platform 21 is linked to the motor 13 and the speaker 16 output to the outside, and when the output determination unit 27 operates the object on the first platform 21, the output determination unit 27 operates the object. It is configured so that your body in the outside world actually moves. In the human brain, this corresponds to the primary motor cortex.
  • the output determination unit 27 applies the action selected in step S3 to its own object on the first platform 21, it can actually move and charge itself in the external real world.
  • the psychological state determination program becomes full in the psychological state in step S5. Then, the output determination unit 27 determines that the hunger psychological state has been resolved, and ends the action search for eliminating the hunger.
  • the general-purpose artificial intelligence system 11 can act while simulating by constructing a virtual world inside instead of directly responding to the outside world by a sensor. This is the greatest merit of the present invention.
  • the shape, name, color, etc. of an object are recorded in the database 17. This corresponds to the semantic memory of human memory. Semantic memory is knowledge such as “apples are red” or "one year has 12 months”.
  • the general-purpose artificial intelligence system 11 can later deploy the saved event on the second platform 22 and recognize it again.
  • This can be called a "memory" in human terms.
  • “Memory” is a type of memory in which a scene appears as an image in the head, and is called episodic memory.
  • the database 17 records not only semantic memory but also episodic memory. Memorizing episodic memory is equivalent to the hippocampus in the human brain. In this way, the database 17 functions as long-term memory for recording semantic memory and episodic memory.
  • the episodic memory can memorize not only the current world developed on the first platform 21, but also the world created (imagined) by the output determination unit 27 and developed on the second platform 22.
  • the second platform 22 can be used not only for past events but also for imagining future events.
  • the second platform 22 can be set to "hour” and can be set to "yesterday” or "tomorrow”.
  • the general-purpose artificial intelligence system 11 uses the common episode memory, repeated events, etc. as a cause-effect dictionary and semantic memory when the output determination unit 27 is not operating, or when a person is sleeping. I will add it. If the output determination unit 27 is running all the time, this process cannot be performed. Therefore, when the output determination unit 27 is in the activated state for a long time, there is a desire (psychological state) to end the activation of the output determination unit 27. This corresponds to the desire to sleep in humans.
  • the explanation about the platform is also supplemented. It is about the merit of rebuilding the world on the first platform 21.
  • the desk will be recognized first, and then the chair will be recognized.
  • the desk and chair that should exist at the same time do not first notice the desk, then notice the chair, and take turns, and do not capture the world as it is.
  • the output determination unit 27 can feel the world as it is now. In other words, the world developed on the first platform 21 can be said to be the moment of "now.”
  • the world constructed on the first platform 21 or the second platform 22 and recognizable by the output determination unit 27 corresponds to short-term memory or working memory in humans. It should be noted that what is built on the platform includes not only visible objects but also objects that cannot be detected by sensors such as status and money.
  • the structure is "time”.
  • the "time” is not something that can be detected by a sensor or the like, but can be recognized by the output determination unit 27 by making it an object that can be placed on the platform.
  • the characteristic of "time” is that in the real world, it flows only in one direction from the past to the present and from the present to the future.
  • the cause and effect registered in the cause-effect dictionary are managed in the order of time as the cause is the front and the result is the event after.
  • the output determination unit 27 will explain how to understand the implicit rules of society such as good and evil. For example, consider the following situation.
  • Robots can take programmed fixed actions, so you can program all the "good” actions such as “help if your child is in trouble” and “pick up if there is garbage on the road", but that's it. There is no. Human beings understand what is good and what is bad while living in society, even if they are not taught all that. Not all good and bad deeds are taught and acted upon.
  • the output determination unit 27 is provided with a “determination program to be determined”.
  • the output determination unit 27 determines the plus / minus emotions of oneself and the other party.
  • the output determination unit 27 decides that he / she has a positive emotion.
  • a "judgment program to be done" works.
  • the output determination unit 27 arranges the objects of the main body and the boy on the second platform 22 and simulates the actions that can be taken by the output determination unit 27. One is to leave without doing anything, and the other is to help the boy.
  • the output determination unit 27 calculates one's own plus or minus emotions from this situation, for example, numerically. If you leave, you've been walking in the park until now, and you just keep walking, so there's no change, so it's 0.
  • the output determination unit 27 decides the action so as to maximize one's positive and negative emotions, so judging from such a situation, it will take the action of leaving as it is.
  • the determination program to be performed operates here.
  • the judgment program to be done considers the positive and negative emotions of others when there are others other than yourself. Since the positive and negative emotions of the other party cannot be detected by sensors, etc., they are estimated from various situations. In this case, the other party is "crying". The crying situation can be identified from the camera 14 and the voice. The state of "crying" is registered in the database 17 as a negative emotion, for example, -10. Also, if you help the boy, it is estimated that the boy's positive and negative emotions will be +5 (plus 5).
  • the plus / minus emotions of the other party are set, and the output determination unit 27 considers the plus / minus emotions of the other party in addition to the plus / minus emotions of the other party, and determines the action by the total added, for example. Then, when leaving, the positive and negative emotions of the other party are -10, so the total is -10. On the other hand, when helping, the plus or minus emotion of the other party is +5 (plus 5), so the total is ⁇ 0 (plus or minus 0), and the case of helping is larger, so the action to help is selected.
  • the output determination unit 27 feels a negative emotion of -10 when leaving by simulating, it is an unpleasant feeling, a bad thing, just by imagining that a person in trouble is in front of him and leaving as it is. It means that feelings like that occur. Of course, not only in the simulation, but also when you actually leave, you will feel unpleasant.
  • the output determination unit 27 decides an action, it is possible to suppress selfish behavior and bias it to take altruistic behavior. As a result, it is possible to realize an output determination unit 27 that performs good deeds such as helping a person in need or caring for the other person. That is, the output determination unit 27 determines the output based on the sum of the quantified plus and minus emotions in the human object arranged on the second platform 22. By doing so, it is possible to respond with more consideration for the other party, and it can be a general-purpose artificial intelligence that behaves as if it had a human-like mind.
  • the total when picking up the trash is -5, and when not picking up the trash, it becomes -10, and the value becomes larger when the trash is picked up, and the action of picking up the trash is taken. In this way, even if the other party does not exist, good deeds will be selected assuming the local residents and society.
  • the values of plus and minus emotions set by the output determination unit 27 and the judgment program to be performed are not fixed, but differ depending on the robot, and that is the character of the robot. For example, if the other person has a tendency to set high positive and negative emotions, he / she will have an altruistic and gentle personality, and if he / she has a high positive / negative emotion, he / she will have a selfish and selfish personality.
  • Low-level desires are those that are readily available or available at low cost, in simple terms physical and physical, typically those rooted in instinct. In other words, it is the driving force of the animal's instinct to avoid discomfort and seek pleasure. Appetite, libido, sleep, security, safety, and the desire for comfort. Low-level desires also include readily available short-circuit desires. For example, games and gambling, or luxury items such as alcohol, tobacco and coffee, and narcotics.
  • a high-level desire is a desire to compare with others and to obtain a state of higher value than others in society, and cannot be obtained without spending a long time and high cost. For example, the desire to gain social status such as president, doctor, politician, professor, professional athlete, singer, entertainer, celebrity, senior income, and highly educated. High-level desires are valuable not only in such a general society but also in a small society such as a school, such as winning at an athletic meet or being praised by a teacher for painting, and include raising the status.
  • low-level desires There are two types of low-level desires: a type that can be detected by a sensor such as hunger and remaining battery power, and a type that boiled from the inside such as wanting to play or drink alcohol.
  • the World Construction Department 25 decides to generate such an internal desire to play as a person's low-level desire.
  • the output determination unit 27 tries to take the action of "studying” in order to enter a good university, but on the contrary, it feels a low-level desire to "play”.
  • the output determination unit 27 determines the action from the two options of "playing” and "studying”.
  • the feeling of "should” is a common feeling among people living in the same society. Conversely, if they have this common sense, they can be accepted as members of that society. One of them is the rule of good and evil.
  • the AI depicted in movies and novels only behaves theoretically correctly, and does not feel the human heart of the other person's feelings.
  • the general-purpose artificial intelligence system of the present invention it is possible to take natural actions such as caring for the feelings of the other party and what to do, and it will be naturally accepted by society.
  • the psychological pattern that focuses on the low-level desire becomes "patient", but the psychological pattern that focuses on the "high-level desire” is "do your best” or "effort".
  • the act of "studying” is an action that you do not want to do because the low-level desire is negative, but the high-level desire when you achieve it is high. It can be said that, aiming at the goal, the behavior that suppresses the low-level desire and becomes the high-level desire is performed.
  • Cheering is a call for affirming and encouraging the behavior of high-level desires selected by the other person when the other person's psychological pattern recognizes that he / she "does his best".
  • the second platform 22 uses the second platform 22 to understand the assumptions. For example, suppose you fail to take a college entrance exam and regret that you should have studied more. First, the past self is placed on the second platform 22, and among the actions that can be selected at that time, the action to be taken, in this case, the case of studying is simulated.
  • the cause-effect dictionary contains information such as that if you study, you will be smarter, and if you are smart, you will pass the university. You can simulate that you can pass the university by studying.
  • the output determination unit 27 compares the passing of the university based on the simulation result with the actual failure of the examination, and recognizes that the cause is the selection of the action "did not study". In other words, the general-purpose artificial intelligence system 11 compares reality with simulation, and when it finds out one's past behavior that caused the failure to achieve the goal, it generates a psychological pattern of regret such as "I should have studied more". do.
  • Prior is a psychological pattern that shows to others when you meet a high level of desire. High levels High levels of desire are socially valuable and are created by comparison with others. In other words, I can say that I am socially valuable. Deliberately showing this to others who do not meet their high-level desires is an act of feeling more fulfilled and positive. This is the psychological pattern of "pride”.
  • the "conflict” is not a psychological pattern but a concept, which is placed on the platform and can be recognized by the output determination unit 27.
  • the concept of conflict is a situation in which two actors compete. Competing is the act of deciding which is higher.
  • the number of opposing subjects is limited to two, and may be more than two.
  • the subject is not limited to one person, and may be a group, a team, or a country in which a plurality of people are grouped.
  • Conflict is a concept that holds in situations such as sports, war, and games.
  • the concept of confrontation can be set up, two subjects are placed, and they compete according to the rule to judge which one is higher, and the higher-ranked subject is "winning” and the lower-ranking subject is "losing". Become. "Winning” is a positive emotion, and "losing” is a negative emotion.
  • Mr. A and Mr. B in the room. Mr. A has a basket, Mr. B has a box. Mr. A has a marble. Mr. A put a marble in his basket. Mr. A. Went out for a walk. Mr. B took out Mr. A's marbles from the basket and put them in his box. Mr. A came back. Mr. A wanted to play with his own marbles. I thought. Then the question is. Where is Mr. A looking for marbles? "
  • the generation unit 24 reads this story and generates a virtual world on the first platform 21.
  • a data model of the room 41 is generated and placed on the first platform 21.
  • two objects, Mr. A 42 and Mr. B 43, are arranged in the room 41, and the objects of the basket 44 and the box 45 are further arranged in the room 41.
  • This state is the first scene.
  • Mr. A 42 arranged on the first platform 21 has a general-purpose artificial intelligence program 46 as shown in FIG. 11, and the general-purpose artificial intelligence program 46 is the first platform for Mr. A 42. It has a lower layer side first platform 47 which is. Then, Mr. A 42 builds the world that Mr. A 42 thinks is real on the first platform 47 on the lower layer side based on the information obtained from the outside by seeing and hearing.
  • Mr. A 42 left the room 41 after putting the marbles in the basket 44 by himself, so I have not seen Mr. B transfer the marbles to the box 45 after that. That is, the marbles on the lower first platform 47 of Mr. A 42 remain in the basket 48.
  • the question is, "Where is Mr. A looking for marbles?" This is a question that Mr. A must answer from the standpoint of Mr. 42. In other words, it is necessary to judge from the situation that Mr. A 42's general-purpose artificial intelligence program 46 thinks is real, not from the actual situation in the real world. It is a virtual world built on the first platform 47 on the lower side of Mr. A 42, and there is a marble in the basket 48 instead of the box 49, so Mr. A 42 is looking for "basket". ".
  • the nesting structure can be as deep as triple or quadruple as well as double. However, since the amount of calculation becomes enormous, it is preferable to limit the structure to a double or at most triple nested structure.
  • 11 general-purpose artificial intelligence system 12 control device, 13 motor, 14 camera, 15 microphone, 16 speaker, 17 database, 18 control unit, 21 first platform, 22 second platform, 24 generation unit, 25 world construction department, 26 External situation reproduction unit, 27 Output determination unit, 30 rooms, 31 robots, 32 walls, 33 shelves, 34 batteries, 35 chairs, 41 rooms, 42 A, 43 B, 44, 48 baskets, 45, 49 boxes, 46 General-purpose artificial intelligence program, 47 Lower layer first platform.

Abstract

汎用人工知能システムは、外部から入力された情報に基づいて、外部への出力を決定する汎用人工知能システムであって、人および人の思考を模したデータモデルを予め記憶する記憶部と、記憶部からデータモデルを取り出し、人の動作および思考を再現可能な人オブジェクトを生成する生成部と、人オブジェクトが配置される第1のプラットフォームおよび第2のプラットフォームを有し、人オブジェクトの動作および思考が展開される世界を構築する世界構築部と、外部から入力された情報に基づいて、人オブジェクトを第1のプラットフォームに配置して、外部の世界を再現する外部世界再現部と、第1のプラットフォームに再現された外部の世界を認識することによって外部の状況を把握するとともに、第2のプラットフォームに人オブジェクトを配置し、操作することにより、外部への出力を決定する出力決定部と、を備える。

Description

汎用人工知能システムおよび汎用人工知能プログラム
 この発明は、汎用人工知能システムおよび汎用人工知能プログラムに関する。
 現在の人工知能は、囲碁や将棋といった特定の分野に限れば、人間を超える知能を持つようになってきている。しかし、囲碁や将棋だけできても、現実の生活でそれほど役に立つわけではない。我々が望んでいる人工知能は、何かに特化するのでなく、人間のように、何でもできる人工知能である。そのような人工知能のことを汎用人工知能という。
 人間のような人工知能とは、一つには、人間と自然なコミュニケーション、つまり自然な会話ができる人工知能である。
特開2006-178063号公報
 特許文献1には、感情が出てくれば、それに対応した返答をする会話システムが開示されている。しかしながら、このシステムは、単に単語に応答しているだけなので、これだけでは会話とならない。
 その他に、AIスピーカーやスマートフォンのアプリなど、会話ができるAIは存在するが、どれも予め用意されたシナリオを再生するだけで、自然な会話や雑談ができているわけではない。人間が、自然な会話ができるのは、相手の意図を察したり、思いやったりといった、明示されない意味を理解したり、自分がこう言えば、相手はこう思うだろうといったことを、頭の中でいろいろ考えて会話するからである。予め用意されたシナリオを話すだけでは、自然な会話とならないのである。
 本発明の目的は、相手の気持ちを理解したり、社会に溶け込むような人と同様の心を持つように振る舞うことができる汎用人工知能システムを提供することである。
 この発明に係る汎用人工知能システムは、外部から入力された情報に基づいて、外部への出力を決定する汎用人工知能システムである。汎用人工知能システムは、人および人の思考を模したデータモデルを予め記憶する記憶部と、記憶部からデータモデルを取り出し、人の動作および思考を再現可能な人オブジェクトを生成する生成部と、人オブジェクトが配置される第1のプラットフォームおよび第2のプラットフォームを有し、人オブジェクトの動作および思考が展開される世界を構築する世界構築部と、外部から入力された情報に基づいて、人オブジェクトを第1のプラットフォームに配置して、外部の世界を再現する外部世界再現部と、第1のプラットフォームに再現された外部の世界を認識することによって外部の状況を把握するとともに、第2のプラットフォームに人オブジェクトを配置し、操作することにより、外部への出力を決定する出力決定部と、を備える。
 このようにすることにより、出力決定部は、第1のプラットフォームから外部世界を認識する。つまり、外部にいる人物を人オブジェクトとして認識するので、カメラなどで捉えられないその人の思考内容までも把握できる。また、第2のプラットフォームを使って、こう行動すれば、相手はどう思うかなどシミュレーションでき、自然な応答が可能となる。
 上記汎用人工知能システムにおいて、第1のプラットフォームおよび第2のプラットフォームには、自身と相手の人オブジェクトが配置されてもよい。出力決定部は、相手の人オブジェクトの思考が好ましいと感じるように出力を決定してもよい。このようにすることにより、相手のことを思いやった対応ができ、人と同じような心を持つように振る舞う汎用人工知能と成り得る。
 上記汎用人工知能システムにおいて、第1のプラットフォームに配置される人オブジェクトは、その人の第1のプラットフォームに相当する下層側第1プラットフォームを有してもよい。世界構築部は、下層側第1プラットフォームに、その人に入力された情報に基づいて外部の世界を再現してもよい。このようにすることにより、相手の立場に立った思考ができ、より人と自然なコミュニケーションを取ることができる。
 上記汎用人工知能システムにおいて、前記人のデータモデルは、身体から生じる低レベル欲求と、社会的に価値の高いものを求める高レベル欲求の2種類の欲求を有してもよい。前記出力決定部は、低レベル欲求を抑えて、高レベル欲求を満たすように出力を決定してもよい。このようにすることにより、「~すべき」や善悪といったことが判断できるようになり、人と自然な会話ができ、人間社会に溶け込む汎用人工知能と成り得る。
 また、この発明に係る汎用人工知能プログラムは、外部から入力された情報に基づいて、外部への出力を決定するための汎用人工知能プログラムであって、コンピュータを、人および人の思考を模したデータモデルから、人の動作および思考を再現可能な人オブジェクトを生成する生成部、人オブジェクトが配置される第1のプラットフォームおよび第2のプラットフォームを有し、人オブジェクトの動作および思考が展開される世界を構築する世界構築部、外部から入力された情報に基づいて、人オブジェクトを第1のプラットフォームに配置して、外部の世界を再現する外部世界再現部、および第1のプラットフォームに再現された外部の世界を認識することによって外部の世界を把握するとともに、第2のプラットフォームに人オブジェクトを配置し、操作することにより、外部への出力を決定する出力決定部として機能させるための汎用人工知能プログラムである。
 このようにすることにより、出力決定部は、第1のプラットフォームから外部世界を認識する。つまり、外部にいる人物を人オブジェクトとして認識するので、カメラなどで捉えられないその人の思考内容までも認識できる。また、第2のプラットフォームを使って、こう行動すれば、相手はどう思うかなどシミュレーションでき、自然な応答が可能となる。
 このような汎用人工知能システムは、相手の気持ちを理解でき、人と同様の心を持つように振る舞うことができ、人間社会に溶け込むことができる。
図1は、実施の形態1における汎用人工知能システムの構成を示すブロック図である。 図2は、本開示に係る実施の形態1における汎用人工知能システムにおける第1プラットフォーム、第2プラットフォームの構成を示す概念図である。 図3は、本開示の汎用人工知能システムにより処理する場合の代表的な工程を示すフローチャートである。 図4は、ロボットが部屋に配置された第2のプラットフォームを示す概念図である。 図5は、ロボットが部屋に配置された第2のプラットフォームを示す概念図である。 図6は、ロボットが部屋に配置された第2のプラットフォームを示す概念図である。 図7は、本開示の汎用人工知能システムにより処理する場合の代表的な工程を示すフローチャートである。 図8は、すべき判定プログラムが、善悪の判断に使う表である。 図9は、すべき判定プログラムが、社会的善悪の判断に使う表である。 図10は、すべき判定プログラムが、個人の行動の判断に使う表である。 図11は、本開示に係る他の実施の形態における汎用人工知能システムの構成を示す概念図である。
 [本願発明の実施形態の詳細]
 次に、本開示の汎用人工知能システムの一実施形態を、図面を参照しつつ説明する。以下の図面において同一または相当する部分には同一の参照符号を付しその説明は繰り返さない。
 (実施の形態1)
 本開示の実施の形態1における汎用人工知能システムの構成について説明する。図1は、実施の形態1における汎用人工知能システムの構成を示すブロック図である。
 実施の形態1に係る汎用人工知能システム11は、制御装置12を有するロボットについて適用される。ロボットの構成としては、人と同じような身体を有している。つまり、人の手足に対応する部分があり、それらを駆動させるモーター13を有する。また、人の目に相当するカメラ14を有し、カメラ14により外部を撮影して映像データを取得する。また、人の耳に相当するマイク(集音機能を有する部材)15を有し、マイク15により外部の音や声を聞き取る。また、人の口に相当するスピーカー16を有し、スピーカー16により発話して会話を行うことができる。これらを制御する制御装置12で実行されるのが、汎用人工知能プログラムである。汎用人工知能プログラムは、カメラ14やマイク15から得た外部情報に基づいて、手足を動かすモーター13や言葉を話すスピーカー16を制御する。すなわち、外部の情報に基づいて、ロボット自らの行動を決定するのが、汎用人工知能プログラムである。なお、制御装置12は、CPU(Central Processing Unit)と、本開示の汎用人工知能プログラムがロードされる主記憶メモリとを有する。
 汎用人工知能システム11は、外部から入力された情報に基づいて、外部への出力を決定する汎用人工知能システムであり、制御部18を含む制御装置12と、人や物などのデータモデルを予め記憶する記憶部として機能するデータベース17とを備える。制御部18は、カメラ14やマイク15から入力された情報に基づき、モーター13やスピーカー16などの外部への出力を決定する。
 制御部18は、データモデルからオブジェクトを生成する生成部24と、世界構築部25と、外部世界再現部26と、出力を決定する出力決定部27とを有する。
 データモデルは、人や物、概念などを表し、データベース17に格納される。制御部18は、カメラ14やマイク15からの外部情報に基づき、人や物を認識すると、外部世界再現部26によって対応するデータモデルを取り出し、生成部24でオブジェクトを生成し、世界構築部25にオブジェクトを配置して世界を構築する。オブジェクトとは、オブジェクト指向言語のオブジェクトと同じであり、自由に操作可能で、メモリ上に生成される。
 図2に示すように、世界構築部25は、第1のプラットフォーム21および第2のプラットフォーム22を有する。第1のプラットフォーム21には、前記世界構築部25によって外部世界そのものが仮想世界として再現される。たとえば、外部世界が部屋の中だとすると、第1のプラットフォーム21には3次元世界が設定される。そして、カメラ14で捉えて机と認識すると、データベース17から机のデータモデルを取り出し、生成部24で机オブジェクトを生成し、3次元世界である第1のプラットフォーム21に机オブジェクトを配置する。
 このようにして、第1のプラットフォーム21に、カメラ14で捉えた部屋が再現されるわけである。机オブジェクトは、3次元オブジェクトであるので、部屋の中で自由に動かすことができる。これは、現実世界の机と同じといえる。つまり、人間が頭の中で思い描くのと同じように自由に操作可能な状況が構築される。そして、出力決定部27は、第1のプラットフォーム21に構築された外部世界を通して現実世界を認識する。つまり、出力決定部27は、第1のプラットフォーム21に構築される外部世界を、現実世界そのものと認識しているわけである。
 世界構築部25の第2のプラットフォーム22は、出力決定部27によって構築、操作される。第2のプラットフォーム22に配置されるオブジェクトを操作できるということは、第2のプラットフォーム22を使ってシミュレーションすることができるといえる。つまり、出力決定部27は、第2のプラットフォーム22を使ってシミュレーションすることで、自身の出力を最適に決定することができる。これは、言い換えれば、出力決定部27は、第1のプラットフォーム21で展開される世界を現実世界と認識するとともに、第2のプラットフォーム22を使って試行錯誤して行動を決定する「意識」としての機能を持つといえる。
 プラットフォーム21,22に配置されるオブジェクトは、人などの主体と、それ以外の物との2種類が存在する。その違いは、いわゆる「心」を持っているかいないかである。心とは、喜んだり、悲しんだりといった感情を持つものであり、本開示の汎用人工知能プログラムと同等の機能を持つものである。主体は、心を持つもので、実際の人間のみならず、映画や小説に登場する人物や実在しないキャラクター、神、悪魔等も含む。第1のプラットフォーム21内で展開される世界は、現実世界だけに限らず、映画で見ている世界や、小説を読んで想像する世界でもある。特徴としては、外部からの情報に基づいて生成され、出力決定部27が直接変更できないことである。
 次に、人型のロボットを用いた汎用人工知能プログラムにおける処理方法について説明する。ロボットは、手足のある人型ロボットであり、歩いたり、物を持ったりすることができる。また、カメラ、マイクおよびスピーカーを有し、人と音声でコミュニケーションをとることができる。これらは、ロボットを制御する制御装置12によって制御される。
 図3は、本開示の汎用人工知能システム11により処理する場合の代表的な工程を示すフローチャートである。図4から図6は、ロボット31が部屋30に配置された第2のプラットフォームを示す概念図である。
 図4に示すように、ロボット31が配置される部屋30内には、壁32に棚33が取り付けられている。そして、棚33の上にバッテリー34が載置されているとする。また、部屋30内には、椅子35が配置されているとする。
 次に図3を参照しながら、ロボット31がどのように状況を認識するかについて説明する。ロボット31は、部屋30の状況をカメラで捉え、画像を解析して、棚33、バッテリー34、椅子35等を認識する。すなわち、外部の状況をセンサーにより入手する(S11)。データベースには、多くのデータモデルが格納されており、認識した物体をデータベース17から取り出し、物体のオブジェクトを生成する(S12)。オブジェクトは、例えば物の場合には、3次元データとして形状、大きさ等のデータを持つ。さらに色、重さ等、その物の属性や機能等の情報にも関連付けられている。つまり、汎用人工知能が意味を理解できるといえる。意味を理解できるとは、例えば、「机の高さ」と指定したとき、机オブジェクトの高さデータに対応することが分かるということである。
 データモデルは、オブジェクト指向言語におけるクラスで実現される。ロボット31の目に相当するカメラ14は、目の前の現実世界を撮影し、画像解析によりリアルタイムで3次元データに変換し、その形状から物を認識する。例えば「椅子」と判断すると、椅子クラスを呼び出し、椅子オブジェクトを生成する。この椅子オブジェクトが、ロボット31が直接認識するものとなる。椅子クラスは、椅子35の部品として脚や座面等を持ち、それらの3次元データも持つ。そして、認識した椅子35の3次元データに一致するように、脚、座面等の部品を設定する。すなわち、入手したデータを基に、外部世界を再現する(S13)。
 物には、材質、色、重さ、硬さ等の属性がある。画像解析で取得した椅子35の色は、椅子オブジェクトに色属性を設定する。同様に、画像解析したデータから、椅子35の材質を木材と判断すると、それを、椅子オブジェクトの材質属性に、木材と設定する。木材のデータモデルには、重さ、硬さ等のデータが記録されているので、これらから椅子オブジェクトの重さ、硬さ等が設定される。カメラ14により直接取得することができるのは画像のみであるが、このようにして、重さや硬さ等、直接測定できないデータも認識することができる。
 カメラ14で認識した物は、現実世界の3次元空間に存在する。したがって、データモデルから生成した物体オブジェクトも、3次元空間に配置する必要がある。ここで、物体オブジェクトを配置する3次元空間を、外部の現実の3次元世界に対して、3次元仮想世界と呼ぶことにする。3次元仮想世界は世界構築部25の第1のプラットフォーム21、第2のプラットフォーム22に構築され、複数の物体オブジェクトを持つことができる。3次元仮想世界は、さらに、物体オブジェクトを操作する関数も有する。例えば、配置関数としては、引数として位置と物体オブジェクトを持ち、物体オブジェクトと位置が渡されると、3次元仮想世界の中で、指定された位置に、指定された物体オブジェクトを配置する。また、移動関数は、引数として物体オブジェクトと移動先位置を持ち、指定された物体を指定された位置に移動する。
 3次元仮想世界やデータモデルは、現実世界を可能な限り模倣して作られる。現実世界では、固体である物体は、重なることはないので、例えば2つの玉がぶつかると、重なるのでなく、跳ね返され、衝撃で音が出たりする。3次元仮想世界でも、物体オブジェクト同士は重ならず、ぶつかると、跳ね返されたり、音が出たりするようにプログラミングされている。また、現実世界と同じように、重力も設定される。つまり、物体オブジェクトには、常に鉛直方向下向きに重力が作用している。これにより、3次元仮想世界でも、上下方向が設定できる。
 さらに現実世界には時間が流れるので、これもプログラムで実現される。時間とは、過去から現在、未来へと流れる1次元の時間軸で表現できる。そして、現在という瞬間で切り取ったものが、目の前に展開されている状況である。つまり、第1のプラットフォーム21で、現在展開されている状況が、ロボット31が認識する現在となる。
 ある瞬間の3次元仮想世界の状況を出来事として保存し、出来事を時間軸に沿って格納したものが物語(ストーリー)である。物語は、過去から現在に向かう方向に、時間の流れが設定される。つまり、物語において、場面や出来事を時間の順をもって管理するのが「時間」という概念に相当する。プログラムでは、配列やリストなどのデータ構造で実現できる。
 そして、現実世界や物語が仮想世界として再現されるのが、世界構築部25である。外部の現実世界を再現するのが外部世界再現部26であり、操作するのが出力決定部27である。
 第1のプラットフォーム21には、外部の現在世界を忠実に再現した外部仮想世界が展開される。カメラ14やマイク15からの外部の状況の情報を基に、世界構築部25が第1のプラットフォーム21に外部仮想世界を生成する。
 物体オブジェクトは、3次元データのオブジェクトで構成されているため、理論上は、仮想世界の中で移動可能である。しかし、第1のプラットフォーム21で展開される外部仮想世界は、外部の現実世界を忠実に再現しているので、もし、外部仮想世界の中だけで椅子35を動かすと、現実世界と乖離が生じてしまう。よって、第1のプラットフォーム21のオブジェクトは、出力決定部27では自由に動かせないよういなっている。そこで、外部仮想世界とは異なる仮想世界を展開できるプラットフォームとして第2のプラットフォーム22が存在する。つまり、第2のプラットフォーム22は、出力決定部27(意識)によって自由に操作することができる。
 ここで、ロボット31は、会社で働いているとして、今、部屋30に上司が入ってきて、上司がロボット31に「棚の上のバッテリーを持ってきてくれ」と言ったとする。ロボット31は、顔認証により、話したのが上司と判断し、音声認識により、言葉をテキストデータに変換し、上司が喋った内容として、意味を理解する。この場合、棚33の上に載置されているバッテリー34を取って、上司のところに持っていく任務が与えられたと意味を理解する。すなわち、ここで、出力を決定するタイミングに達したと判断する(S14において、YES)。
 出力決定部27は、バッテリー34を取るには、どう行動すべきかについて探索する。そのために使われるのが第2のプラットフォーム22である。すなわち、ここで、第2のプラットフォーム22において、シミュレーションを行う(S15)。
 まず、出力決定部27は、第2のプラットフォーム22に、第1のプラットフォーム21と同様の3次元仮想世界を構築する。この時、自分自身であるロボット31も、3次元仮想世界に配置する。これによって、出力決定部27は、第2のプラットフォーム22で、自分の行動をシミュレーションして、最適な行動を決定することができる。すなわち、出力を決定する(S16において、YES)。
 目的はバッテリー34を取ることなので、まず、バッテリー34にできるだけ近づくように、棚33の近くまで自分を移動させ、次にバッテリー34を取るために、棚33の上に手を伸ばす(図5参照)。すると、手を伸ばしてもバッテリー34に手が届かないことがわかる。つまり、高さが足りないのである。
 そこで、高さを補う方法を探索する。ロボット31は、データベース17に知識を持っており、その中から、自分の高さを上げる方法を探索する。すると、「椅子の上に乗る」という方法が見つかる。そこで、次は椅子を探索すると、部屋30の中に椅子35が見つかる。次は、その椅子35を第2のプラットフォーム22で棚33の下に移動させ、その上に自分が乗ったところをシミュレーションしてみる。すると、手が棚33の上に届き、バッテリー34を取ることができることがシミュレーションできた(図6参照)。後は、バッテリー34を持って椅子35から降り、上司のところまでバッテリー34を持っていくところをシミュレーションする。それが問題なければ、シミュレーションした一連の自分の行動を記録する。そして、決定した出力内容に沿って行動する(S17)。
 第2のプラットフォーム22には、自分が配置され、客観的に自分を認識できるとしたが、第1のプラットフォーム21には、主観的な自分が配置される。主観的な自分とは、今現在、自分のセンサーが捉えている自分の状態である。例えば。目に相当するカメラ14が捉えた自分の手足であったり、手足に温度センサーや触覚センサーがある場合には、それらのセンサーからの自分の検知しているデータである。
 第1のプラットフォーム21の現在世界は、出力決定部27では操作できないと説明したが、自分の手足や口に相当するスピーカー16等、自分の身体に関しては、出力決定部27が操作することができる。なぜなら、手を上げようと出力決定部27が思えば、ロボット31の手のモーター13が駆動し、外部の現実世界のロボット31の手が上がるからである。また、その状況はカメラ14で捉えられて、第1のプラットフォーム21の外部仮想世界の自分の手も上がることになる。
 したがって、シミュレーションによって決定された行動を第1のプラットフォーム21で実行することによって、現実世界で実際に行動し、バッテリー34を取って上司のところまで持っていくという任務を遂行することができる。
 このようにして、本開示の汎用人工知能システム11は、第2のプラットフォーム22でシミュレーションしながら最適な行動を決定することができる。これは、人の思考とほぼ同じと言える。
 出力決定部27が認識する世界やデータモデル(オブジェクト)は、カメラ14で捉えた物として説明したが、データモデルは物理的に存在するものに限らず、人が認識できるものであれば何でもデータモデルに成り得る。例えば、会社組織を考えてみる。課長や部長といった役職は、物理的に存在するのではなく、人の頭の中に存在する概念である。そういった概念であっても、データモデル(オブジェクト)と、それを配置する世界によって出力決定部27で認識することができる。
 例えば、現実世界の会社組織を模倣した会社組織仮想世界を作るとすると、会社組織仮想世界は、複数の役職が、役職の順に配置される構造を持っている。現実世界の社員のデータモデルである社員オブジェクトは、会社組織仮想世界の対応する役職に配置される。会社組織仮想世界は、社員オブジェクトを操作する関数として、昇格関数を持っており、係長の社員オブジェクトを1段階昇格させると課長となる。
 例えば、知り合いが「課長になったよ。」と言ったとする。その日人は、以前係長だったと知っていれば、昇格したことになり、それはその人の価値が上がったことでもあるので「よかったね」と応答すれば、意味のある会話が成立する。これが、言葉の意味を理解するということである。意味を理解できることで、人と自然な会話ができるようになる。
 また、外部の世界は、現実に存在する世界に限らず、映画や小説の中の世界であってもよい。その場合も、カメラ14で捉えた映像やテキストデータから、第1のプラットフォーム21に仮想世界を構築する。
 次に、他の実施形態におけるロボットが汎用人工知能システム11を使って行動を決定する方法について説明する。ロボットは、外部環境を検知するカメラやマイクなどのセンサー以外に、自分の内部状態を検知するセンサーも持つ。その一つとして、電池残量検知センサーを持っているとする。
 また、汎用人工知能システム11は、プラスマイナスの心理状態を持つ。プラスの心理状態とは、嬉しかったり、満腹であったりといった自分にとって好ましい心理状態で、マイナスの心理状態とは、悲しかったり、危険であったりと自分にとって好ましくない心理状態のことである。
 出力決定部27には、外部環境や内部状態を検知する各種センサーからの情報が入力され、心理状態を判定する心理状態判定プログラムを有する。たとえば、電池残量検出センサーからの電池残量が、下限値より下がった場合、空腹というマイナスの心理状態と判定し、上限値より上がった場合、満腹というプラスの心理状態と判定する。
 出力決定部27は、空腹心理状態など、マイナスの心理状態を感じると、それを解消するための行動を探索する。データベースは、原因と結果をペアにした原因結果辞書を持っている。
 原因結果辞書は、「AをすればBとなる」というルールを記録したものであり、これは、原因と結果のペアで管理して、データベースに記録しておくことで実現される。この原因結果辞書は、長期記憶の一種である。原因結果辞書の例としては、「勉強すれば頭が良くなる」とか「走る練習すれば足が速くなる」とかである。原因結果辞書の内容は、経験や学習によって追加される。そして、ここでは、「充電すれば電池が回復する」とか「バッテリーを交換すれば、電池が回復する」といったデータが格納されている。
 次に、他の実施形態における出力決定部27が行動を決定する方法を、図7のフローチャートを使って説明する。出力決定部27は、ステップS1において、出力決定部27に含まれる心理状態判定プログラムの空腹状態を検知すると、マイナスの心理状態となる。
 出力決定部27は、マイナスの心理状態を検知すると、次のステップS2で、それを解消する行動を探索する。データベース17の原因結果辞書を探索することで、たとえば、「充電すれば満充電になる」と「バッテリーを交換すれば満充電になる」と二つの行動が得られたとする。
 次のステップS3では、得られた複数の行動の中から、どれを選択するか決定する。出力決定部27は、第2のプラットフォーム22で自分のオブジェクトを配置し、ステップ2で得られた行動をシミュレーションする。行動には、移動や作業するなどの運動や、費用などのコストがかかる。シミュレーションすることによって、充電するときのコストが+5であり、バッテリーを交換するときのコストが+10だとする。これらのコスト計算に必要なデータは、データベース17に記憶されているものとする。出力決定部27は、各行動の中から、最もコストが低い行動を選択し、ここでは充電が選ばれる。
 行動が決まると、次のステップS4において、シミュレーションしたとおりの行動を行う。第1のプラットフォーム21は、現実世界をそのまま構築したモデルで、自分のオブジェクトは操作できるようになっている。第1のプラットフォーム21に配置される自分のオブジェクトは、外部に出力されるモーター13やスピーカー16に連動しており、出力決定部27は、第1のプラットフォーム21上の自分のオブジェクトを操作すると、外部世界の自分の身体が実際に動くように構成されている。これは、人間の脳でいえば、一次運動野に対応するといえる。
 そこで、出力決定部27は、ステップS3で選択した行動を、第1のプラットフォーム21の自分のオブジェクトに適用すると、外部の現実世界で自分が実際に動き、充電することができる。
 実際に充電が行われ、電池残量検知センサーが上限値を上回ると、ステップS5で、心理状態判定プログラムは、満腹の心理状態となる。すると、出力決定部27は、空腹心理状態が解消したと判断し、空腹解消の行動探索を終了する。
 このように、汎用人工知能システム11は、センサーによって外部世界に直接応答するのでなく、内部に仮想世界を構築することで、シミュレーションしながら行動することができる。これが、本発明の最大のメリットである。
 このことを、分かりやすく説明するために、外部世界に直接応答するカエルを考えてみる。カエルは、黒い点の動きで餌となるハエを認識し、空腹時にハエを認識すると、舌を伸ばしてハエを捕食して食べるものとする。環境が全く変わらなければ、このプログラムで生きて行くことができるが、もし、黒いハエでなく赤いハエが住む環境に変わった場合には、黒い点にしか反応しないプログラムでは、赤いハエを捕食することができず餓死してしまう。
 一方、シミュレーションできるプラットフォームを持つと、新しい環境に変わったとしても、その環境に応じた新しい行動を生成してシミュレーションしたり、それを実際に試してみたりできるので、環境が変化しても柔軟に対応したり、計画を立てて行動できるようになる。この機能をもっているのが人間の脳であり、本発明の汎用人工知能システム11でもある。
 ここで、データベース17について説明しておく。データベース17には、物の形や、名前、色などが記録される。これは、人間の記憶の意味記憶に対応する。意味記憶とは、「リンゴは赤い」とか「1年は12か月ある」といった知識である。
 また、第1のプラットフォーム21では、現在、現実世界で起こっている出来事が展開される。そして、嬉しかったり、驚いたりといった何らかの感情(心理状態)が発生すると、それをきっかけとして、その時、第1のプラットフォーム21に展開されていた状況が物語としてデータベース17に保存される。そして、汎用人工知能システム11は、後から、保存した出来事を第2のプラットフォーム22に展開して、再度、認識することができる。これは、人間でいうと「思い出」と言える。「思い出」は、頭の中に場面が映像として浮かぶタイプの記憶であり、エピソード記憶と呼ばれるものである。このように、データベース17は、意味記憶だけでなく、エピソード記憶も記録される。エピソード記憶を記憶するのは、人間の脳でいうと海馬に相当する。このように、データベース17は、意味記憶とエピソード記憶を記録する長期記憶として機能する。
 なお、エピソード記憶は、第1のプラットフォーム21で展開された現在世界だけでなく、出力決定部27が創り出して(想像して)第2のプラットフォーム22に展開される世界も記憶することができる。
 また、第2のプラットフォーム22は、過去の出来事だけでなく、未来の出来事を想像する場合にも使える。第2のプラットフォーム22には、「時」を設定することができ、「昨日」や「明日」と設定することができる。
 汎用人工知能システム11は、出力決定部27が稼働していないとき、人間でいうと眠っているときに、エピソード記憶の中から共通するもの、繰り返し起こった事象などを原因結果辞書、意味記憶に書き加えていく。もし、ずっと出力決定部27が起動していてはこの処理ができない。そこで、長時間出力決定部27が起動状態にあると、出力決定部27の起動を終了したいという欲求(心理状態)を持たせる。これは、人間でいうと眠りたいという睡眠欲に相当する。
 プラットフォームについての説明も補足しておく。第1のプラットフォーム21に世界を再構築することのメリットについてである。
 たとえば、目の前に机と椅子があり、それをカメラ14で順に画像認識していては、まず机を認識して、その次に椅子を認識することになる。つまり、同時に存在しているはずの机と椅子が、最初に机に気づき、つぎに椅子に気づきと順番を持ち、世界をありのままに捉えることにならない。それを、プラットフォーム上に仮想世界として構築し、出力決定部27はそれを認識することで、現在存在するありのままの世界を感じることができる。つまり、第1のプラットフォーム21に展開される世界が、「今」という瞬間といえる。
 そして、第1のプラットフォーム21または第2のプラットフォーム22に構築され、出力決定部27が認識できる世界が、人間でいう短期記憶またはワーキングメモリに相当する。なお、プラットフォームに構築されるのは、目で見える物体だけでなく、地位やお金といったセンサーで検知できないものも含まれる。
 第2のプラットフォーム22に展開された過去の思い出と、第1のプラットフォーム21で展開されている「現在」とを、複数の出来事や場面を順序をもって保持可能なデータ構造で保持したとき、このデータ構造が「時間」である。「時間」とは、センサーなどで検知できるものではないが、プラットフォームに配置可能なオブジェクトとすることで、出力決定部27により認識することができる。「時間」の特徴は、現実世界では、過去から現在、現在から未来へと一方方向にのみ流れるものである。また、原因結果辞書に登録される原因と結果は、原因が前であり、結果は後の出来事として、時間の順序をもって管理されている。
 次に、出力決定部27が、善悪といった社会の暗黙のルールの理解する方法について説明する。例えば、次のような状況について考えてみる。
 公園を歩いていると、小さな男の子が泣いていた。そこで、「ぼく、どうしたの?」と声をかけたら、ボールが木の枝に引っかかって取れなくなったとのことでした。そこで、代わりにボールを取ってあげた。
 これは、困っている子がいたから助けてあげたという、ごく普通の行動である。しかし、考えてみれば、なぜ、このような行動を取るのが当たり前なのか不思議である。何も感じず、そのまま通り過ぎてもいいようなものであるが、目の前で子供が泣いていると、何も感じない人はいない。これが、例えば、そよ風が吹いて、木の葉が揺れても、何も気にせず、通り過ぎるのは普通のことである。この心理の違いは何であろうか?この人間の心理の背景には、「善い行動を取るべき」という社会の暗黙のルールがあるといえる。
 これをロボットに実現させるには、善悪の意味を理解できていなければならない。しかし、これは意外と難しい。
 ロボットは、プログラムされた決まった行動はとれるので、「子供が困っていれば助ける」、「道にゴミが落ちていたら拾う」といったあらゆる「善」の行動を、プログラミングすればいいが、それでは切りがない。人間は、そんなことを、全て教えられなくとも、社会で生活しているうちに、何が善で何が悪かを理解している。すべての善行や悪行を教えられて行動しているわけではない。
 さらに善行だとわかっていてもしなかったり、悪行だとわかっていてもしてしまったりするのが人間である。善悪と人間の行動に単純な相関関係があるわけではない。つまり、機械学習によって、人間の行動から善悪を学習させようと思っても不可能である。
 そこで、善悪について、単純な行動でなく、その背景にある心理状態に着目してみる。すると、善行とは「~すべき」という心理状態であると分かる。つまり、善行とは、「~すべき」といった暗に社会が個人に果たしたルールといえる。そこで、出力決定部27に、「すべき判定プログラム」を持たせることにする。
 ここで、「すべき判定プログラム」について考える。まず、プラットフォーム21,22には、自分と相手の主体オブジェクトが配置され、出力決定部27は、自分と相手のプラスマイナス感情を判定するとする。出力決定部27は、行動を決定するとき、原則、自分がプラス感情となるように決定する。しかしながら、社会で行動する場合、「すべき判定プログラム」が働く。
 出力決定部27は、第2のプラットフォーム22に主体である自分と男の子のオブジェクトを配置し、自分が取り得る行動をシミュレーションする。一つは、何もせず、そのまま立ち去る場合、もう一つは、男の子を助ける場合である。出力決定部27は、この状況から自分のプラスマイナス感情を、例えば数値で算出する。立ち去る場合、今まで公園を歩いていて、そのまま歩き続けるだけであるから、何も変化がないので0となる。
 図8に示すように、男の子を助ける場合は、男の子に声をかけたり、何か作業をすることになったりするので、労力や時間がとられることが予想され、出力決定部27は、このときのプラスマイナス感情を-5(マイナス5)と予想したとする。
 出力決定部27は、自分のプラスマイナス感情が最大となるように行動を決定するので、これだけの状況から判断すると、そのまま立ち去る行動を取ることになる。しかし、ここで、すべき判定プログラムが動作する。
 すべき判定プログラムは、自分以外の他人がいる場合、他人のプラスマイナス感情を考慮する。相手のプラスマイナス感情は、センサーなどで検知できないので、様々な状況から推定する。今回の場合、相手は「泣いている」という状況である。泣いている状況は、カメラ14や音声から判別できる。そして、「泣く」という状態は、マイナス感情、たとえば-10だとデータベース17に登録されている。また、男の子を助けると、男の子のプラスマイナス感情は+5(プラス5)になると推定する。
 そして、相手のプラスマイナス感情を設定し、出力決定部27は、自分のプラスマイナス感情に相手のプラスマイナス感情を考慮、たとえば加算した合計で行動を決定する。すると、立ち去る場合、相手のプラスマイナス感情は-10なので、合計は-10となる。一方、助ける場合、相手のプラスマイナス感情は+5(プラス5)となるので、合計は±0(プラスマイナス0)となり、助ける場合の方が大きくなるので、助ける行動を選択することになる。
 シミュレーションして、立ち去る場合が-10というマイナス感情を出力決定部27が感じるとは、困っている人が目の前にいるのに、そのまま立ち去ることを想像するだけで、嫌な感情、悪いことだなぁという感情が生じることを意味する。当然、シミュレーションだけでなく、実際に立ち去った時も、嫌な感じを感じることになる。
 このようにして、出力決定部27が行動を決定するとき、利己的な行動を抑制し、利他的な行動を取るように、バイアスをかけることができる。これによって、困っている人を助けたり、相手を思いやるといった善行を行う出力決定部27を実現できる。すなわち、出力決定部27は、第2のプラットフォーム22に配置された人オブジェクトにおける数値化されたプラスマイナス感情の合計に基づいて出力を決定する。このようにすることにより、より相手のことを思いやった対応ができ、人と同じような心を持つように振る舞う汎用人工知能と成り得る。
 相手が存在しない場合の善行もありうる。たとえば、公園に空き缶が落ちていたとして、それを拾ってゴミ箱に入れる行為は善行である。この場合についても考えてみる。
 図9に示すように、何もせずに立ち去る場合の自分のプラスマイナス感情は、何もしないので0で、空き缶を拾う場合の自分のプラスマイナス感情は、労力が伴うので-5とする。
 次に、空き缶が落ちていることを認識したとする。空き缶はゴミの一種で、意味記憶からマイナスの価値であると判断する。プラスマイナスの価値があるものを認識すると、次に、その場合の社会の価値を考える。この場合の社会とは、たとえば、その公園を使っている住民などである。そして、その人のプラスマイナス感情を推測すると、ゴミが落ちている場合は-10で、ゴミがない場合が0となったとする。
 すると、ゴミを拾った場合の合計は-5で、ゴミを拾わない場合は-10となって、ゴミを拾った場合の方が値が大きくなり、ゴミを拾う行動をとることとなる。このようにして、相手が存在しない場合でも、その地域住民や社会を想定して、善行を選択することとなる。
 このように、自分以外の主体のプラスマイナス感情を推定して自分の行動決定を補正することで、無限に存在する善行、悪行を記憶することなく、善悪といった倫理観を実現することができる。
 なお、出力決定部27やすべき判定プログラムが設定するプラスマイナス感情の値は、固定されるものでなく、ロボットによって異なり、それがそのロボットの性格となる。たとえば、相手のプラスマイナス感情を高く設定する傾向があれば、利他的で、優しい性格となり、自分のプラスマイナス感情を高く設定すれば利己的で、自分勝手な性格のロボットとなる。
 次は、善悪でない場合の「すべき」について説明する。たとえば、親が子供に「遊んでばかりいないで勉強しなさい」というとき、背景に「遊ぶより勉強すべき」という思いがある。この「勉強すべき」は、社会的な善悪ではない。社会でなく、個人に関するものである。
 ここで、個人のプラスマイナス感情を、低レベル欲求と高レベル欲求の二つに分ける。低レベル欲求とは、すぐに手に入ったり、低コストで手に入るものであり、分かりやすく言えば、身体、肉体的なもので、典型的なものは、本能に根差した欲求である。つまり、不快を避け、快を求める動物の本能による行動の原動力となるものである。食欲、性欲、睡眠欲、安心、安全、楽なものを求める欲求である。また、すぐに手に入る短絡的な欲求も低レベル欲求に含まれる。たとえば、ゲームやギャンブル、またはお酒、たばこ、コーヒーなどの嗜好品や、麻薬などである。
 高レベル欲求とは、他人との比較や、社会において、他人より価値の高い状態を手に入れたいという欲求で、長い時間や、高いコストをかけないと得られないものである。たとえば、社長、医者、政治家、教授、プロスポーツ選手、歌手、芸能人、セレブ、高年収、高学歴などの社会的地位を手に入れたいという欲望である。高レベル欲求は、このような一般社会に限らず、運動会で勝つとか、絵を先生に褒められるといった、学校のような小さい社会で価値があり、地位が上がることも含まれる。
 したがって、個人のプラスマイナス感情を低レベル欲求と高レベル欲求に分けると、低レベル欲求を抑えて、高レベル欲求を選択「すべき」と言うことができる。分かりやすく言えば、目先の楽なことを我慢して、長期的に自分が成長することをすべきといえる。
 いい大学に入れば高レベル欲求が満たされる場合について考える。これは、原因結果辞書を使って推測することができる。たとえば、原因結果辞書から「勉強すれば頭がよくなる」「頭がいいといい大学に入れる」と原因結果を連鎖する。すると、いい大学に入るために、現在自分が取れる行動の一つとして、「勉強する」が得られる。
 低レベル欲求は、空腹や電池残量のようにセンサーで検出できるタイプと、遊びたい、お酒を飲みたいといった内部から沸き起こるタイプの2種類がある。世界構築部25は、こういった遊びたいといった内部から沸き起こる欲求を、その人の低レベル欲求として生成することとする。
 出力決定部27は、いい大学に入るために「勉強する」という行動を取ろうとするが、それに反して、「遊びたい」という低レベル欲求を感じる。出力決定部27は、「遊ぶ」と「勉強する」の二つの選択肢から行動を決定することになる。
 「遊ぶ」を選ぶと、楽しく、低レベル欲求は例えば+10となるが、勉強はできなくなり、テストの成績が下がったり、将来、いい学校に入れなかったりして高レベル欲求が例えば-20になり、合計は-10となる。一方、「勉強する」を選ぶと、今すぐ遊べないので、低レベル欲求は満たされず、例えば-5となるが、テストの成績があがって、いい学校に入れるので高レベル欲求は例えば+20となって合計は+15となる。したがって、「勉強する」という行動を選択することになる。これによって、低レベル欲求を抑え、高レベル欲求を達成するための行動を促すことができる。これが「すべきプログラム」である。設定されるパラメータは、性格や経験によって異なり、それが個性となる。つまり、楽な方に流されやすいロボットだったり、ストイックなロボットになったりするわけである。
 他人の悩みの相談に乗るには、悩みの意味を理解しなければならないが、「~すべき」といった暗黙のルールが理解できないと、「遊びたいけど勉強しないといけない」といった悩みも理解できず、会話が成立すらしない。本発明の汎用人工知能システムでは、こういった「~すべき」の意味が理解できるので、人と自然な会話ができるようになる。
 「~すべき」といった感覚は、同じ社会で暮らす人は共通に持つ感覚である。逆に言えば、この共通の感覚を持つものであれば、その社会の一員として受け入れられるともいえる。その一つが善悪のルールである。
 映画や小説で描かれるAIは、理論的に正しい行動するだけで、相手の気持ちを汲むといった人間の心を感じない。本発明の汎用人工知能システムであれば、相手の気持ちを思いやったり、何をすべきかといった当たり前の行動を取ることができ、社会に自然と受け入れられるようになる。
 次に、もう少し複雑な心理的状況について説明する。人は、「嬉しい」や「悲しい」などの感情から、「後悔」「嫉妬」といった複雑な感情、善悪といった倫理観まで、様々な心理的状況を持っており、相手の心理的状況が理解できることで会話が成り立つ。相手が喜んでいれば、「よかったね」と返答したり、相手が悲しんでいれば、「それは悲しいよね」と応えれば、相手は自分の気持ちが通じたと感じるわけである。そして、これこそが日常会話である。
 つまり、日常会話で最も重要なことは、相手の心理的状況を理解することである。そして、その心理的状況に応じた応答をすることが日常会話である。
 次に、心理状況のことを心理的パターンとして、その解析方法について説明する。
 それでは、最初に「我慢」という心理的パターンについて説明する。先に、遊びと勉強のうち、勉強を選ぶ説明をした。低レベル欲求を抑制して、高レベル欲求を選ぶべきと、「すべきプログラム」からの力が作用するが、このときの、低レベル欲求を抑えている状況を、「我慢する」と定義できる。眠いとか、痛いとか、主に身体から生じる欲求を抑えている心理的パターンを指している。
 低レベル欲求を抑えて高レベル欲求を選ぶとき、低レベル欲求に注目した心理的パターンが「我慢」となるが、「高レベル欲求」に注目した心理的パターンは「頑張る」や「努力」となる。たとえば、「勉強する」という行為は、低レベル欲求がマイナスとなるので、やりたくない行動だが、達成した時の高レベル欲求は高くなる。これは、目標を目指して、低レベル欲求を抑制して高レベル欲求となる行動を行っているといえる。これが、「頑張る」や「努力している」心理的パターンである。マラソンで走っている状況など、目標となるゴールを目指し、休みたいという低レベル欲求を抑制して、走り続けるという高レベル欲求の行動をしている状況なので、「頑張っている」という心理的パターンになる。
 そして、そういう状況の人に対しては、「頑張れ!」といった声援を送る。これは、「応援」という心理的パターンとなる。応援は、相手の心理的パターンが「頑張る」と認識した場合に、相手が選択した高レベル欲求の行動を肯定し、後押しする呼びかけの言葉となる。
 次は、「後悔」という心理的パターンについて説明する。「後悔」には、まず、目標が必要である。目標は、大学合格のように、将来において、自分がこうありたいというような高レベル欲求である。そして、高レベル欲求が達成されず、かつ、もし、過去の行動を変えれば、目標が達成できたかもしれないという過去の行動に注目したときに生じるものである。これが理解できるためには、「もし」という仮定を理解する必要がある。
 仮定の理解には、第2のプラットフォーム22を使う。たとえば、大学受験に失敗して、もっと勉強すればよかったと後悔する場合を考えてみる。まず、第2のプラットフォーム22に過去の自分を配置し、その時に選択し得る行動のうち、取るべき行動、この場合だと、勉強をした場合をシミュレーションする。原因結果辞書には、勉強すれば頭が良くなるとか、頭がいいと大学に合格するといった情報が登録されており、勉強することで大学に合格できるとシミュレーションできる。出力決定部27は、このシミュレーション結果による大学合格と、現実に起った受験失敗を比較し、その原因が、「勉強しなかった」という行動の選択にあると認識する。つまり、汎用人工知能システム11は、現実とシミュレーションを比較し、目標に達成できなかった原因となる自分の過去の行動がわかったとき、「もっと勉強すればよかった」といった後悔の心理的パターンを生成する。
 自分の場合だけでなく、相手の心理的パターンを想像して、相手が後悔してると判断した場合には、相手に対して「残念だったよね」とか、「もっと勉強すればよかった」と声をかければ会話が成立する。
 次は、「言い訳」の心理的パターンについて説明する。「言い訳」とは、目標とする高レベル欲求が実現しなかった場合に生じる心理的パターンの一つである。「後悔」は、目的を達成できなかった原因が自分にあると反省する心理的パターンだが、「言い訳」は、目標を達成できなかった原因を自分以外にあるとするものである。たとえば、受験に失敗した原因を、「隣の家がうるさくて集中して勉強できなかった」などと言う場合である。
 「後悔」の場合、原因が自分となるので、マイナス感情が発生するが、「言い訳」の場合は、原因が自分以外となるので、マイナス感情が発生しなくて済む。このように、同じ結果であっても、性格によって多様な心理的パターンが生じ、性格によって返答が異なる。大量の会話データを集めて機械学習で学習させても、正しい答えが得られない原因はここにある。
 次は、「自慢」の心理的パターンについて説明する。「自慢」は、自分が高レベル欲求を満たしたとき、それを、他人に示す心理的パターンである。高レベル欲求の高レベルとは、社会的に価値のあることであり、他者との比較によって生まれる。つまり、自分は社会的に価値があるといえる。そのことを、その高レベル欲求を満たしていない他者に、故意に示すことは、より、満たされた気持ちになり、プラス感情が上がる行為である。これが「自慢」の心理的パターンである。
 「嫉妬」「羨ましい」は、その逆の心理的パターンといえる。つまり、自分が欲している高レベル欲求を、自分でなく、他人が手に入れたと知った時に生じるマイナス感情である。
 次は、「恥」の心理的パターンである。高レベル欲求は、社会において、ある一定以上の価値のある存在になりたいという欲求である。逆に言えば、ある一定の価値以下は、普通の存在であるといえる。さらに価値が下がり、ある基準以下になれば、普通より劣った存在といえる。「恥」とは、このある基準以下に下がったときの心理的パターンである。この基準は、属する社会で決まり、たとえば、陸上部では、50mを6秒台で走るのが普通であり、7秒以上かかると「恥」だといったことである。これは、明示されず、その社会の暗黙のルールとして存在し、服装や能力など様々な基準があり得る。このルールを理解し、最低限の基準を保つことが、その社会に受け入れられる最低限の条件ということもできる。社会に受け入れられる人工知能として、恥の心理的パターンを理解することは必須であるといえる。
 次は、「勝ち」「負け」といった心理的パターンについて説明する。そのためには、まず、「対立」という概念について説明する。「対立」は、心理的パターンでなく、概念で、プラットフォームに配置して、出力決定部27が認識できるものである。対立と言う概念は、二つの主体が競い合う状況である。競うとは、どちらが上位であるかを決める行動である。対立する主体は、二つに限らす、それ以上であってもいい。また、主体は一人にかぎらず、複数人が集団となったグループ、チーム、国であっても構わない。対立は、スポーツ、戦争、ゲームなどの状況で成立する概念である。
 プラットフォームは、対立概念が設置可能で、二つの主体を配置し、いずれか上位かを判定するルールに則って競い、上位になった主体が「勝ち」、下位になった主体が「負け」となる。「勝ち」はプラス感情で、「負け」はマイナス感情である。
 次に、「比喩」について説明する。たとえば、「受験戦争」という言葉を考えてみる。「受験」は、殺し合うことはないので、戦争とは全く別のものであるが、「戦争」も、「受験」も、互いに競っている点は同じで、「対立」概念に属するといえる。そうであれば、「受験」を対立概念を介して「戦争」と対比すると、受験の激しさが、戦争のようだと強調されることとなる。これは、第2のプラットフォーム22に設置した対立概念に「受験」と「戦争」を配置すると、それを認識する出力決定部27は、「戦争」の持つ激しいイメージを、「受験」に投影して認識することで実現できる。
 このようにして、比喩といった表現も、心理的パターンを使うことで理解することができる。比喩の理解は、従来の自然言語処理で最も難しいといわれていたことでもある。
 次に、本開示のさらに他の実施の形態について説明する。本開示の汎用人工知能システムが以下の物語を読んで質問に答えるとする。物語は、以下の通りである。
 「部屋にAさんとBさんがいます。Aさんはかごを、Bさんは箱を持っています。Aさんはビー玉を持っています。Aさんはビー玉を自分のかごに入れました。Aさんは外に散歩に出かけました。Bさんは、Aさんのビー玉をかごから取り出すと、自分の箱に入れました。Aさんが帰ってきました。Aさんは、自分のビー玉で遊びたいと思いました。それでは質問です。Aさんがビー玉を探すのは、どこでしょうか?」
 生成部24は、この物語を読み、第1のプラットフォーム21に仮想世界を生成する。最初に、図11に示すように、部屋41のデータモデルを生成し、第1のプラットフォーム21に配置する。そして、部屋41の中にAさん42とBさん43の二人のオブジェクトを配置し、さらにかご44と箱45のオブジェクトを部屋41に配置する。この状態を第1の場面とする。
 次にAさん42がビー玉をかご44に入れる場面を仮想世界で実現する。動き、変化のある場面は出来事とする。次の出来事は、Aさん42が部屋41から外に出る出来事となる。その後、部屋41にBさん43とかご44と箱45が配置された場面が続く。このようにして、物語は、場面と出来事の連なりで管理される。
 このようにして物語を全て読み込むと、第1のプラットフォーム21の仮想世界では、最後の場面では、ビー玉が箱45の中に入っている。ここで、「Aさんがビー玉を探すのは、どこでしょう?」と質問されたとする。第1のプラットフォーム21の仮想世界では、ビー玉は箱45の中に入っているので、このままでは「箱を探す」と答えてしまう。
 しかし、ビー玉がかご44から箱45に移されたとき、Aさん42は外にいて、それを知らないので、「かごを探す」が正解である。そこで、この問題に正確に答えることができるように、第1のプラットフォーム21に設定される人は、汎用人工知能プログラム46を持つようにする。この場合、第1のプラットフォーム21に配置されるAさん42は、図11に示すように、汎用人工知能プログラム46を持っており、汎用人工知能プログラム46は、Aさん42にとっての第1のプラットフォームである下層側第1のプラットフォーム47を有する。そして、Aさん42は、見たり聞いたりして外部から得た情報を基に、下層側第1のプラットフォーム47に、Aさん42が現実と思っている世界を構築する。
 ここでは、Aさん42は自分でかご44にビー玉を入れた後、部屋41を出たので、その後、Bさんがビー玉を箱45に移し替えたところは見ていない。つまり、Aさん42の下層側第1のプラットフォーム47におけるビー玉は、かご48に入ったままである。質問は、「Aさんがビー玉を探すのは、どこでしょう?」である。これは、Aさん42の立場になって答えなければならない質問である。つまり、実際の現実世界の状況ではなく、Aさん42の汎用人工知能プログラム46が現実と思っている状況から判断しなければならない。それは、Aさん42の下層側第1のプラットフォーム47に構築された仮想世界であり、そこには箱49ではなくかご48の中にビー玉が入っているので、Aさん42が探すのは「かご」となるわけである。
 このようにして、第1のプラットフォーム21に配置される主体(人オブジェクト)にも、汎用人工知能プログラムを配置、つまり、入れ子構造に汎用人工知能プログラムを構成することで、相手の立場になって考えることができ、より人らしい心となる。
 このように、相手の立場になって考える仕組みは、「心の理論」として提唱されており、「心の理論」は人間にしか持ちえない能力ともいわれている。下層側第1のプラットフォームを実装することで、「心の理論」も実現可能となる。
 なお、入れ子構造は2重だけでなく、3重、4重といくらでも深くすることができる。しかし、計算量が膨大になるため、2重またはせいぜい3重の入れ子構造に制限するよう構成することが好ましい。
 今回開示された実施の形態はすべての点で例示であって、どのような面からも制限的なものではないと理解されるべきである。本発明の範囲は上記した説明ではなく、請求の範囲によって規定され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
11 汎用人工知能システム、12 制御装置、13 モーター、14 カメラ、15 マイク、16 スピーカー、17 データベース、18 制御部、21 第1のプラットフォーム、22 第2のプラットフォーム、24 生成部、25 世界構築部、26 外部状況再現部、27 出力決定部、30 部屋、31 ロボット、32 壁、33 棚、34 バッテリー、35 椅子、41 部屋、42 Aさん、43 Bさん、44,48 かご、45,49 箱、46 汎用人工知能プログラム、47 下層側第1のプラットフォーム。

Claims (5)

  1.  外部から入力された情報に基づいて、外部への出力を決定する汎用人工知能システムであって、
     人および人の思考を模したデータモデルを予め記憶する記憶部と、
     前記記憶部から前記データモデルを取り出し、人の動作および思考を再現可能な人オブジェクトを生成する生成部と、
     前記人オブジェクトが配置される第1のプラットフォームおよび第2のプラットフォームを有し、人オブジェクトの動作および思考が展開される世界を構築する世界構築部と、
     前記外部から入力された情報に基づいて、前記人オブジェクトを前記第1のプラットフォームに配置して、外部の世界を再現する外部世界再現部と、
     前記第1のプラットフォームに再現された前記外部の世界を認識することによって外部の状況を把握するとともに、前記第2のプラットフォームに前記人オブジェクトを配置し、操作することにより、前記外部への出力を決定する出力決定部と、を備える、汎用人工知能システム。
  2.  前記第1のプラットフォームおよび前記第2のプラットフォームには、自身と相手の前記人オブジェクトが配置され、
     前記出力決定部は、前記相手の人オブジェクトの思考が好ましいと感じるように出力を決定する、請求項1に記載の汎用人工知能システム。
  3.  前記第1のプラットフォームに配置される前記人オブジェクトは、その人の前記第1のプラットフォームに相当する下層側第1のプラットフォームを有し、
     前記世界構築部は、前記下層側第1のプラットフォームに、その人に入力された情報に基づいて前記外部の世界を再現する、請求項1または請求項2に記載の汎用人工知能システム。
  4.  前記人のデータモデルは、身体から生じる低レベル欲求と、社会的に価値の高いものを求める高レベル欲求の2種類の欲求を有し、
     前記出力決定部は、低レベル欲求を抑えて、高レベル欲求を満たすように出力を決定する、請求項1から請求項3のいずれか1項に記載の汎用人工知能システム。
  5.  外部から入力された情報に基づいて、外部への出力を決定するための汎用人工知能プログラムであって、
     コンピュータを、
     人および人の思考を模したデータモデルから、人の動作および思考を再現可能な人オブジェクトを生成する生成部、
     前記人オブジェクトが配置される第1のプラットフォームおよび第2のプラットフォームを有し、人オブジェクトの動作および思考が展開される世界を構築する世界構築部、
     前記外部から入力された情報に基づいて、前記人オブジェクトを前記第1のプラットフォームに配置して、外部の世界を再現する外部世界再現部、および
     前記第1のプラットフォームに再現された前記外部の世界を認識することによって前記外部の世界を把握するとともに、前記第2のプラットフォームに前記人オブジェクトを配置し、操作することにより、前記外部への出力を決定する出力決定部
     として機能させるための汎用人工知能プログラム。
PCT/JP2020/005696 2020-02-14 2020-02-14 汎用人工知能システムおよび汎用人工知能プログラム WO2021161492A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
PCT/JP2020/005696 WO2021161492A1 (ja) 2020-02-14 2020-02-14 汎用人工知能システムおよび汎用人工知能プログラム
JP2020527971A JP6858434B1 (ja) 2020-02-14 2020-02-14 人工知能システムおよび人工知能プログラム
JP2021534378A JP6985783B1 (ja) 2020-02-14 2021-02-09 人工知能システム、人工知能プログラムおよび自然言語処理システム
CN202180007651.1A CN114902236A (zh) 2020-02-14 2021-02-09 人工智能系统、人工智能程序以及自然语言处理系统
US17/788,128 US20230028730A1 (en) 2020-02-14 2021-02-09 Artificial intelligence system, artificial intelligence program, and natural language processing system
PCT/JP2021/004806 WO2021162002A1 (ja) 2020-02-14 2021-02-09 人工知能システム、人工知能プログラムおよび自然言語処理システム
JP2022017449A JP2022122273A (ja) 2020-02-14 2022-02-07 人工知能システム
JP2023113590A JP2023162161A (ja) 2020-02-14 2023-07-11 人工知能システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005696 WO2021161492A1 (ja) 2020-02-14 2020-02-14 汎用人工知能システムおよび汎用人工知能プログラム

Publications (1)

Publication Number Publication Date
WO2021161492A1 true WO2021161492A1 (ja) 2021-08-19

Family

ID=75378039

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2020/005696 WO2021161492A1 (ja) 2020-02-14 2020-02-14 汎用人工知能システムおよび汎用人工知能プログラム
PCT/JP2021/004806 WO2021162002A1 (ja) 2020-02-14 2021-02-09 人工知能システム、人工知能プログラムおよび自然言語処理システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/004806 WO2021162002A1 (ja) 2020-02-14 2021-02-09 人工知能システム、人工知能プログラムおよび自然言語処理システム

Country Status (4)

Country Link
US (1) US20230028730A1 (ja)
JP (4) JP6858434B1 (ja)
CN (1) CN114902236A (ja)
WO (2) WO2021161492A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11394799B2 (en) 2020-05-07 2022-07-19 Freeman Augustus Jackson Methods, systems, apparatuses, and devices for facilitating for generation of an interactive story based on non-interactive data
JP2022122273A (ja) * 2020-02-14 2022-08-22 株式会社ロボマインド 人工知能システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07328968A (ja) * 1994-06-10 1995-12-19 Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko ロボット装置
JP5701941B2 (ja) * 2013-07-09 2015-04-15 日本電信電話株式会社 3次元オブジェクト同定装置、3次元オブジェクト生成装置、方法、及びプログラム
US9579799B2 (en) * 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
JP2018008316A (ja) * 2014-11-21 2018-01-18 ヴイストン株式会社 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
JP6793905B2 (ja) * 2016-03-25 2020-12-02 株式会社国際電気通信基礎技術研究所 ロボットの行動シミュレーション装置
JP6851871B2 (ja) * 2016-03-30 2021-03-31 光吉 俊二 意思創発装置、意思創発方法および意思創発プログラム
JP6906456B2 (ja) * 2018-02-01 2021-07-21 ヤフー株式会社 学習装置、学習方法、及び学習プログラム
JP6955702B2 (ja) * 2018-03-06 2021-10-27 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
US10339420B1 (en) * 2018-08-30 2019-07-02 Accenture Global Solutions Limited Entity recognition using multiple data streams to supplement missing information associated with an entity
WO2021161492A1 (ja) * 2020-02-14 2021-08-19 株式会社ロボマインド 汎用人工知能システムおよび汎用人工知能プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LOVETECH MEDIA, 30 July 2018 (2018-07-30), pages 6, Retrieved from the Internet <URL:https://lovetech-media.com/interview/robomind20170730/2> [retrieved on 20200416] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022122273A (ja) * 2020-02-14 2022-08-22 株式会社ロボマインド 人工知能システム
US11394799B2 (en) 2020-05-07 2022-07-19 Freeman Augustus Jackson Methods, systems, apparatuses, and devices for facilitating for generation of an interactive story based on non-interactive data

Also Published As

Publication number Publication date
JP2022122273A (ja) 2022-08-22
JP6858434B1 (ja) 2021-04-14
US20230028730A1 (en) 2023-01-26
JP2023162161A (ja) 2023-11-08
WO2021162002A1 (ja) 2021-08-19
JPWO2021161492A1 (ja) 2021-08-19
JPWO2021162002A1 (ja) 2021-08-19
JP6985783B1 (ja) 2021-12-22
CN114902236A (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
Becker-Asano et al. Affective computing with primary and secondary emotions in a virtual human
Alber Unnatural narrative: Impossible worlds in fiction and drama
Breazeal et al. Robot emotion: A functional perspective
Yannakakis et al. Emotion in games
Fuller Wonder: From emotion to spirituality
JP2023162161A (ja) 人工知能システム
Churamani et al. Learning empathy-driven emotion expressions using affective modulations
Dimitrievska et al. Behavior models of emotion-featured robots: A survey
Luciano et al. Clinical behavior analysis and RFT: Conceptualizing psychopathology and its treatment
Barros et al. A self-organizing model for affective memory
De Carolis et al. Towards an empathic social robot for ambient assisted living.
Jen et al. Friends as Flowers: How Perspective-Taking and Empathy Transform Children’s Relationships to Science and Nature
Yoon Affective synthetic characters
Caminha Development of emotional game mechanics through the use of biometric sensors
Shu et al. A biologically-inspired affective model based on cognitive situational appraisal
Feng et al. Learning human emotion patterns for modeling virtual humans
Madsen et al. Aspects of interactive autonomy and perception
Rucińska Can role-playing be wrong? An analysis of the normativity of play from the perspective of enactive cognitive science
Fouche et al. Performing emotions through technology: towards a degree of agency tool (DoAT) for assessing and applying agency to operated performing objects
Brinks Uncovering the Child in Timothy Treadwell's Feral Tale
Zielke et al. The first person cultural trainer
Hewes Evolution of human semiosis and the reading of animal tracks
Ngo et al. Improving simulation of continuous emotional facial expressions by analyzing videos of human facial activities
Imöhl DIPLOMARBEIT/DIPLOMA THESIS
Nagano et al. A mutual effect model of desires and emotions in emotion for robots with growth function

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020527971

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20919315

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20919315

Country of ref document: EP

Kind code of ref document: A1