JP2018186326A - Robot apparatus and program - Google Patents

Robot apparatus and program Download PDF

Info

Publication number
JP2018186326A
JP2018186326A JP2017085220A JP2017085220A JP2018186326A JP 2018186326 A JP2018186326 A JP 2018186326A JP 2017085220 A JP2017085220 A JP 2017085220A JP 2017085220 A JP2017085220 A JP 2017085220A JP 2018186326 A JP2018186326 A JP 2018186326A
Authority
JP
Japan
Prior art keywords
information
deviation
robot apparatus
stagnation
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017085220A
Other languages
Japanese (ja)
Other versions
JP6864831B2 (en
Inventor
隆太 佐々木
Ryuta Sasaki
隆太 佐々木
賢吾 得地
Kengo Tokuchi
賢吾 得地
敦 森川
Atsushi Morikawa
敦 森川
悠 酒井
Yu Sakai
悠 酒井
関根 聡
Satoshi Sekine
聡 関根
陽介 大川
Yosuke Okawa
陽介 大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017085220A priority Critical patent/JP6864831B2/en
Publication of JP2018186326A publication Critical patent/JP2018186326A/en
Application granted granted Critical
Publication of JP6864831B2 publication Critical patent/JP6864831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide information that can trigger an idea of people participating in a conference.SOLUTION: A detecting unit detects the situation of meeting and a providing unit provides deviation information deviating from a subject of the meeting.SELECTED DRAWING: Figure 2

Description

本発明は、ロボット装置及びプログラムに関する。   The present invention relates to a robot apparatus and a program.

特許文献1には、会議の議論を発展させることを目的として、会議の議事録情報を記憶する議事録データベースと、その議事録データベースとは異なる外部データベースと、に基づいてトピックを抽出して提供する会議支援装置が開示されている。   Patent Document 1 provides topics extracted based on a minutes database that stores meeting minutes information and an external database that is different from the minutes database for the purpose of developing meeting discussions. A conference support apparatus is disclosed.

特開2015−156099号公報Japanese Patent Laying-Open No. 2015-156099

本発明の目的は、会議に参加している人のアイデアを誘発し得る情報を提供することにある。   An object of the present invention is to provide information that can induce the idea of a person participating in a conference.

請求項1に記載の発明は、会議の状況を検知する検知手段と、前記会議の主題から逸れた逸脱情報を提供する提供手段と、を有するロボット装置である。   The invention described in claim 1 is a robot apparatus having detection means for detecting a meeting situation and providing means for providing deviation information deviating from the theme of the meeting.

請求項2に記載の発明は、前記検知手段が前記会議の停滞を検知した場合、前記提供手段は前記逸脱情報を提供する、ことを特徴とする請求項1に記載のロボット装置である。   The invention according to claim 2 is the robot apparatus according to claim 1, wherein, when the detection unit detects a stagnation of the conference, the providing unit provides the deviation information.

請求項3に記載の発明は、前記提供手段は、前記会議の停滞の程度に応じて前記逸脱情報を変更して提供する、ことを特徴とする請求項2に記載のロボット装置である。   The invention according to claim 3 is the robot apparatus according to claim 2, wherein the providing means changes and provides the deviation information according to the degree of stagnation of the conference.

請求項4に記載の発明は、前記検知手段は、前記会議の参加者の会話、参加者の表情、及び、沈黙時間の長さの中の少なくとも1つに基づいて、前記会議の停滞を検知する、ことを特徴とする請求項2又は請求項3に記載のロボット装置である。   According to a fourth aspect of the present invention, the detection means detects the stagnation of the conference based on at least one of the conversation of the conference participant, the facial expression of the participant, and the length of the silence time. The robot apparatus according to claim 2, wherein the robot apparatus is a robot apparatus.

請求項5に記載の発明は、前記提供手段は、前記会議の主題に沿った情報を提供している合間に前記逸脱情報を提供する、ことを特徴とする請求項1から請求項4何れかに記載のロボット装置である。   According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the providing means provides the deviation information while providing information according to the subject matter of the conference. It is a robot apparatus as described in.

請求項6に記載の発明は、前記提供手段は、前記会議の内容からの逸脱の程度を示す逸脱度に応じて、前記逸脱情報を変更して提供する、ことを特徴とする請求項5に記載のロボット装置である。   The invention according to claim 6 is characterized in that the providing means changes and provides the deviation information according to a deviation indicating the degree of deviation from the content of the meeting. It is a robot apparatus of description.

請求項7に記載の発明は、前記提供手段は、前記逸脱度に応じて、前記会議の主題に関連する情報の提供と前記逸脱情報の提供とを切り替える、ことを特徴とする請求項5に記載のロボット装置である。   The invention according to claim 7 is characterized in that the providing means switches between providing information related to the subject of the conference and providing the deviation information according to the degree of deviation. It is a robot apparatus of description.

請求項8に記載の発明は、前記提供手段は、前記逸脱度が閾値以下の場合、前記会議の主題に関連する情報であって前記会議に出現しなかった情報を提供し、前記逸脱度が閾値よりも大きい場合、前記逸脱情報として提供する、ことを特徴とする請求項7に記載のロボット装置である。   The invention according to claim 8 provides the information related to the subject of the meeting and not appearing in the meeting when the degree of departure is less than or equal to a threshold, and the degree of departure is The robot apparatus according to claim 7, wherein the robot apparatus is provided as the deviation information when larger than a threshold value.

請求項9に記載の発明は、前記提供手段は、前記会議の参加者に応じて前記逸脱情報を変更して提供する、ことを特徴とする請求項1から請求項4何れかに記載のロボット装置である。   According to a ninth aspect of the present invention, in the robot according to any one of the first to fourth aspects, the providing means changes and provides the deviation information according to a participant in the conference. Device.

請求項10に記載の発明は、前記提供手段は、前記会議の複数の参加者の組み合わせに応じて前記逸脱情報を変更して提供する、ことを特徴とする請求項9に記載のロボット装置である。   The robot apparatus according to claim 9, wherein the providing unit changes and provides the deviation information according to a combination of a plurality of participants in the conference. is there.

請求項11に記載の発明は、前記逸脱情報に対する参加者の反応の履歴を管理する履歴管理手段を更に有し、前記提供手段は、前記履歴に応じて前記逸脱情報を変更して提供する、ことを特徴とする請求項1から請求項4何れかに記載のロボット装置である。   The invention according to claim 11 further includes history management means for managing a history of a participant's reaction to the deviation information, and the providing means changes and provides the deviation information according to the history. The robot apparatus according to any one of claims 1 to 4, wherein:

請求項12に記載の発明は、文字列毎に、文字列と前記逸脱情報とを対応付けて記憶する記憶手段を更に有し、前記提供手段は、前記会議の会話から検出された文字列に対応付けられている前記逸脱情報を提供する、ことを特徴とする請求項1から請求項11何れかに記載のロボット装置である。   The invention according to claim 12 further includes storage means for storing the character string and the deviation information in association with each character string, and the providing means adds the character string detected from the conversation of the meeting. 12. The robot apparatus according to claim 1, wherein the deviation information associated with the robot is provided.

請求項13に記載の発明は、前記逸脱情報は、文字列、画像及び音の中の少なくとも1つを含む、ことを特徴とする請求項1から請求項12何れかに記載のロボット装置である。   The invention according to claim 13 is the robot apparatus according to any one of claims 1 to 12, wherein the deviation information includes at least one of a character string, an image, and a sound. .

請求項14に記載の発明は、コンピュータを、会議の状況を検知する検知手段、前記会議の主題から逸れた逸脱情報を提供する提供手段、として機能させるプログラムである。   The invention described in claim 14 is a program that causes a computer to function as a detecting unit that detects a conference state and a providing unit that provides deviation information deviating from the subject of the conference.

請求項1,12,13,14に記載の発明によれば、会議に参加している人のアイデアを誘発し得る情報を提供することが可能となる。   According to the inventions described in claims 1, 12, 13, and 14, it is possible to provide information that can induce an idea of a person participating in the conference.

請求項2,4に記載の発明によれば、会議が停滞した場合に、アイデアを誘発し得る情報が提供される。   According to the second and fourth aspects of the present invention, information that can induce an idea is provided when the conference is stagnant.

請求項3に記載の発明によれば、会議の停滞の程度に応じた意外性のある情報が提供される。   According to the third aspect of the present invention, unexpected information corresponding to the degree of stagnation of the conference is provided.

請求項5に記載の発明によれば、会議の主題に沿った情報が提供されている合間に意外性のある情報が提供される。   According to the fifth aspect of the present invention, unexpected information is provided between the time when the information along the subject of the conference is provided.

請求項6,7,8に記載の発明によれば、逸脱の程度に応じた意外性のある情報が提供される。   According to the sixth, seventh, and eighth aspects of the invention, unexpected information corresponding to the degree of deviation is provided.

請求項9,10に記載の発明によれば、参加者に適した意外性のある情報が提供される。   According to the ninth and tenth aspects of the present invention, unexpected information suitable for the participant is provided.

請求項11に記載の発明によれば、参加者の反応を利用して意外性のある情報が提供される。   According to the eleventh aspect of the present invention, surprising information is provided using the reaction of the participant.

本実施形態に係るロボット装置の外観を示す図である。It is a figure which shows the external appearance of the robot apparatus which concerns on this embodiment. 本実施形態に係るロボット装置を示すブロック図である。It is a block diagram which shows the robot apparatus which concerns on this embodiment. 認識情報管理テーブルを示す図である。It is a figure which shows a recognition information management table. 主題関連情報管理テーブルを示す図である。It is a figure which shows a theme related information management table. 逸脱情報管理テーブルを示す図である。It is a figure which shows the deviation information management table. 逸脱情報の提供例を示す図である。It is a figure which shows the example of provision of deviation information.

図1を参照して、本発明の実施形態に係るロボット装置について説明する。図1には、本実施形態に係るロボット装置の一例が示されている。   A robot apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 shows an example of a robot apparatus according to this embodiment.

ロボット装置10は、ロボット装置10の周囲の状況を検知し、その検知結果に応じた情報を提供する機能を備えている。ロボット装置10は、移動しながら周囲の状況を検知してもよいし、停止した状態で周囲の状況を検知してもよい。   The robot apparatus 10 has a function of detecting a situation around the robot apparatus 10 and providing information according to the detection result. The robot apparatus 10 may detect the surrounding situation while moving, or may detect the surrounding situation in a stopped state.

例えば、ロボット装置10は、会議の状況を検知し、その会議の主題(テーマ)に関連する情報(以下、「主題関連情報」と称する)や、その主題から逸れた情報(以下、「逸脱情報」と称する)等を提供する。会議は、例えば1又は複数の人が参加する場や状況(例えば会話等が行われる場面等)である。もちろん、人以外の動物、ロボット装置、ロボット装置以外の機器、等が会議に参加してもよい。会議が行われる場所は限定されるものではなく、例えば、建物内(例えば会議室等の室内)にて行われてもよいし、屋外、自動車内、電車内、等で行われてもよい。また、会議の内容も限定されるものではなく、どのような内容であってもよい。   For example, the robot apparatus 10 detects the situation of a conference, information related to the theme (theme) of the conference (hereinafter referred to as “subject related information”), information deviated from the subject (hereinafter referred to as “deviation information”). For example). The conference is, for example, a place or situation (for example, a scene where conversation or the like is performed) where one or more people participate. Of course, animals other than humans, robot devices, devices other than robot devices, etc. may participate in the conference. The place where the conference is held is not limited. For example, the conference may be performed in a building (for example, a room such as a conference room), or may be performed outdoors, in a car, in a train, or the like. Also, the content of the conference is not limited and may be any content.

ロボット装置10は、一例として人型のロボットである。もちろん、ロボット装置10は、人型以外のタイプのロボットであってもよい。図1に示す例では、ロボット装置10は、胴体部12と、胴体部12上に設けられた頭部14と、胴体部12の下部に設けられた脚部16と、胴体部12の両側部にそれぞれ設けられた腕部18と、各腕部18の先端に設けられた指部20と、を含む。   The robot apparatus 10 is a humanoid robot as an example. Of course, the robot apparatus 10 may be a robot of a type other than a humanoid. In the example shown in FIG. 1, the robot apparatus 10 includes a body part 12, a head 14 provided on the body part 12, leg parts 16 provided at the lower part of the body part 12, and both side parts of the body part 12. And the finger part 20 provided at the tip of each arm part 18.

ロボット装置10は、例えば、視覚センサー、聴覚センサー、触覚センサー、味覚センサー及び嗅覚センサーの中の少なくとも1つのセンサーを有し、人の五感に相当する視覚、聴覚、触覚、味覚及び嗅覚の中の少なくとも1つの感覚に関する能力を有している。ロボット装置10は、例えば、触覚に関して、表在感覚(触覚、痛覚、温度覚等)、深部感覚(圧覚、位置覚、振動覚等)、皮質性感覚(二点識別覚、立体識別能力等)を分別して理解する能力を有していてもよい。また、ロボット装置10は、平衡感覚を有していてもよい。例えば、頭部14にカメラ22等のセンサーが設けられており、視覚は、カメラ22等によって得られた画像を用いた画像認識によって実現される。また、ロボット装置10にマイク等の集音装置が設けられており、聴覚は、マイク等によって得られた音を用いて音声認識によって実現される。   The robot apparatus 10 includes, for example, at least one sensor among a visual sensor, an auditory sensor, a tactile sensor, a taste sensor, and an olfactory sensor, and has a visual, auditory, tactile, taste, and olfactory sense equivalent to the human senses. Has at least one sensory ability. The robot apparatus 10 has, for example, superficial sensations (tactile sensation, pain sensation, temperature sensation, etc.), deep sensation (pressure sensation, positional sensation, vibration sensation, etc.), cortical sensation (two-point identification sensation, three-dimensional identification ability, etc.) You may have the ability to sort and understand. The robot apparatus 10 may have a sense of balance. For example, a sensor such as a camera 22 is provided on the head 14, and vision is realized by image recognition using an image obtained by the camera 22 or the like. In addition, the robot apparatus 10 is provided with a sound collecting device such as a microphone, and hearing is realized by voice recognition using sound obtained by the microphone or the like.

ロボット装置10は、人の脳波を検知する機能(例えば、人に脳波検知デバイスが設けられており、脳波検知デバイスから発信される脳波情報を受信して脳波を解析する機能)を備えていてもよい。   Even if the robot apparatus 10 has a function of detecting a brain wave of a person (for example, a person is provided with a brain wave detection device and receives a brain wave information transmitted from the brain wave detection device and analyzes a brain wave). Good.

脚部16は移動手段の一例に相当し、例えば、モータ等の駆動原からの駆動力によって駆動するようになっている。ロボット装置10は、脚部16によって移動できる。脚部16は、人の足のような形状を有していてもよいし、ローラやタイヤ等であってもよいし、別の形状を有していてもよい。脚部16は移動手段の一例に過ぎず、ロボット装置10は、脚部16以外の移動手段として、例えば、飛行するための構成(例えばプロペラ、羽、飛行用のエンジン等)を備えていてもよいし、水中を移動するための構成(例えば水中移動用のエンジン等)を備えていてもよい。つまり、ロボット装置10は、移動手段として、陸上を移動するための手段、飛行するための手段、及び、水中を移動するための手段の中の少なくとも1つの手段を備えていればよい。もちろん、ロボット装置10は、移動手段を備えていなくてもよい。   The leg portion 16 corresponds to an example of a moving means, and is driven by a driving force from a driving source such as a motor, for example. The robot apparatus 10 can be moved by the legs 16. The leg 16 may have a shape like a human foot, a roller, a tire, or the like, or may have another shape. The leg portion 16 is merely an example of a moving unit, and the robot apparatus 10 may include, for example, a configuration for flying (such as a propeller, a wing, and a flying engine) as a moving unit other than the leg unit 16. Alternatively, a configuration for moving in water (for example, an engine for moving in water) may be provided. That is, the robot apparatus 10 only needs to include at least one of a means for moving on land, a means for flying, and a means for moving underwater as the moving means. Of course, the robot apparatus 10 may not include a moving unit.

ロボット装置10は、腕部18や指部20によって、物体を掴んだり操作したりする能力を備えていてもよい。ロボット装置10は、物体を掴んだり抱えたりしながら移動する能力を備えていてもよい。   The robot apparatus 10 may have a capability of grasping and operating an object by the arm part 18 and the finger part 20. The robot apparatus 10 may have an ability to move while grasping or holding an object.

ロボット装置10は、音声を発生する機能を備えていてもよい。ロボット装置10は、通信機能を備えて、他の装置との間でデータを送受信してもよい。例えば、ロボット装置10は、インターネット等に接続して情報を受信したり、情報を送信したりしてもよいし、インターネット等を利用して検索を行ってもよい。ロボット装置10は、音を発したり、通信メッセージを送ることで、人や他の装置や他のロボット装置とコミュニケーションを取る能力を備えていてもよい。   The robot apparatus 10 may have a function of generating sound. The robot apparatus 10 may have a communication function and transmit / receive data to / from other apparatuses. For example, the robot apparatus 10 may connect to the Internet or the like to receive information, transmit information, or perform a search using the Internet or the like. The robot apparatus 10 may have an ability to communicate with a person, another apparatus, or another robot apparatus by making a sound or sending a communication message.

ロボット装置10は、人工知能(AI)による機械学習によって、人に近い判断を行う能力を備えていてもよい。また、ニューラルネットワーク型のディープラーニングが利用されてもよいし、部分的に学習分野を強化する強化学習等が利用されてもよい。   The robot apparatus 10 may have an ability to make a judgment close to a person by machine learning using artificial intelligence (AI). Neural network type deep learning may be used, or reinforcement learning that partially enhances the learning field may be used.

ロボット装置10は、通信機能によって他の機器と通信し、他の機器の動作を制御してもよいし、リモコン等を利用して他の機器を操作してもよいし、リモコン等を利用せずに他の機器を直接操作してもよい。直接操作においては、例えば、他の機器に設けられている操作部(例えばボタンやパネル等)がロボット装置10によって操作される。例えば、通信によって他の機器の動作を制御できない場合、ロボット装置10は、リモコン等を利用して他の機器を操作してもよいし、他の機器を直接操作してもよい。例えば、ロボット装置10は、視覚センサーによって得られた画像を解析することで、他の機器の操作部やリモコン等を識別して、他の機器やリモコンを操作する。   The robot apparatus 10 may communicate with other devices by a communication function and control operations of the other devices, may operate other devices using a remote controller or the like, or may use a remote controller or the like. Alternatively, other devices may be operated directly. In the direct operation, for example, an operation unit (for example, a button or a panel) provided in another device is operated by the robot apparatus 10. For example, when the operation of another device cannot be controlled by communication, the robot apparatus 10 may operate another device using a remote controller or the like, or may directly operate another device. For example, the robot apparatus 10 analyzes an image obtained by a visual sensor, identifies an operation unit or a remote control of another device, and operates the other device or the remote control.

また、ロボット装置10は、表示部24を備えていてもよい。表示部24には、各種の画像やメッセージ等が表示される。また、ロボット装置10は、投影装置を備えて、各種の画像やメッセージ等を他の物体に投影してもよい。例えば、テーブルや壁等に画像等が投影されて表示される。   Further, the robot apparatus 10 may include a display unit 24. Various images and messages are displayed on the display unit 24. Further, the robot apparatus 10 may include a projection device and project various images, messages, and the like onto other objects. For example, an image or the like is projected and displayed on a table or a wall.

以下、図2を参照して、ロボット装置10の機能について詳しく説明する。図2は、ロボット装置10の構成を示すブロック図である。   Hereinafter, the function of the robot apparatus 10 will be described in detail with reference to FIG. FIG. 2 is a block diagram showing a configuration of the robot apparatus 10.

通信部26は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部26は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。通信部26は、例えば、1又は複数の種類の通信方式に対応しており、通信相手に適した通信方式(つまり、通信相手が対応している通信方式)に従って通信相手と通信してもよい。通信方式は、例えば、赤外線通信、可視光通信、Wi−Fi(登録商標)通信、近距離無線通信(例えばBluetooth(ブルートゥース)(登録商標)、RFID(Radio Frequency Identifier)等)、等である。通信部26は、例えば、通信相手に応じて通信方式を切り替えたり、周囲の環境(例えばロボット装置10と通信相手との間の距離や、ロボット装置10と通信相手との間の障害物の有無等)に応じて通信方式を切り替えたりしてもよい。また、通信の周波数帯として、例えば、800MHz〜920MHz(LPWA(Low Power Wide Area)等)といった短波長帯、2.4GHz、5GHz(MuLTEfire)といった長波長、等が利用されてもよい。通信部26は、例えば、通信相手に応じて周波数帯を切り替えたり、周囲の環境に応じて通信方式を切り替えたりしてもよい。   The communication unit 26 is a communication interface, and has a function of transmitting data to another device and a function of receiving data from another device. The communication unit 26 may be a communication interface having a wireless communication function or a communication interface having a wired communication function. The communication unit 26 is compatible with, for example, one or more types of communication methods, and may communicate with the communication partner according to a communication method suitable for the communication partner (that is, a communication method supported by the communication partner). . The communication method is, for example, infrared communication, visible light communication, Wi-Fi (registered trademark) communication, short-range wireless communication (for example, Bluetooth (registered trademark), RFID (Radio Frequency Identifier), or the like). The communication unit 26 switches, for example, the communication method according to the communication partner, the surrounding environment (for example, the distance between the robot device 10 and the communication partner, and the presence or absence of an obstacle between the robot device 10 and the communication partner). Etc.), the communication method may be switched. Further, as a communication frequency band, for example, a short wavelength band such as 800 MHz to 920 MHz (LPWA (Low Power Wide Area) or the like), a long wavelength such as 2.4 GHz or 5 GHz (MuLTEfire), or the like may be used. For example, the communication unit 26 may switch the frequency band according to the communication partner, or may switch the communication method according to the surrounding environment.

状況収集部28は、各種センサーによって、ロボット装置10の周囲の状況に関する情報(以下、「状況情報」と称することとする)を収集する機能を備えている。センサーとして、上述した、視覚センサー、聴覚センサー、触覚センサー、味覚センサー、嗅覚センサー、等が用いられる。状況収集部28は、例えば、聴覚センサーによって、ロボット装置10の周囲の音(例えば、会議の参加者の会話や物音等)のデータ(音声データ)を状況情報として収集し、視覚センサーによって、ロボット装置10の周囲の画像(例えば動画像や静止画像)のデータ(画像データ)を状況情報として収集する。例えば、会議の参加者の表情や態度等が視覚センサーによって撮影され、参加者の表情や態度等を表わす動画像や静止画像が得られる。もちろん、これら以外のセンサーによって、ロボット装置10の周囲の状況に関する情報が収集されてもよい。   The situation collection unit 28 has a function of collecting information related to the situation around the robot apparatus 10 (hereinafter referred to as “situation information”) using various sensors. As the sensor, the above-described visual sensor, auditory sensor, tactile sensor, taste sensor, olfactory sensor, or the like is used. The situation collecting unit 28 collects data (voice data) of sounds around the robot apparatus 10 (for example, conversations and noises of conference participants) as situation information by using an auditory sensor, for example, and uses a visual sensor to collect the robot. Data (image data) of images around the device 10 (for example, moving images and still images) is collected as status information. For example, the facial expressions and attitudes of the participants in the conference are photographed by a visual sensor, and a moving image and a still image representing the facial expressions and attitudes of the participants are obtained. Of course, information on the surroundings of the robot apparatus 10 may be collected by sensors other than these.

状況収集部28は、ロボット装置10以外の装置やセンサー等から状況情報を取得してもよい。例えば、状況収集部28は、マイクによって検出された音声データを収集してもよいし、キーボード等の入力装置を用いて入力された文字列等の情報を収集してもよいし、カメラによる撮影によって得られた動画像や静止画像等の画像データを収集してもよい。   The status collection unit 28 may acquire status information from a device or a sensor other than the robot device 10. For example, the status collection unit 28 may collect voice data detected by a microphone, may collect information such as a character string input using an input device such as a keyboard, or may be captured by a camera. Image data such as a moving image and a still image obtained by the above may be collected.

認識処理部30は、状況収集部28によって収集された状況情報に対して認識処理を適用することで認識情報を生成する。例えば、状況収集部28によって音声データが収集された場合、認識処理部30は、その音声データに対して音声認識処理を適用することで、その音声データが示す音を表現する文字列を認識情報として生成する。また、状況収集部28によって画像データが収集された場合、認識処理部30は、その画像データに対して画像認識処理を適用することで、その画像データが表す画像を表現する文字列を認識情報として生成する。例えば、画像データに文字列が表されている場合、認識処理部30は、画像データからその文字列を認識情報として抽出する。また、認識処理部30は、画像データに表された参加者の表情や態度を検知し、その検知結果を表わす文字列(例えば、参加者の表情や態度を表現する文字列)を認識情報として生成してもよい。認識処理部30は、認識情報を記憶部48に記憶させる。例えば、認識処理部30は、認識情報としての文字列と、会議中のその文字列の出現頻度(例えば出現回数)と、その文字列の最終認識時刻と、を互いに関連付けて記憶部に記憶させる。また、キーボード等の入力装置によって文字列が入力された場合、認識処理部30は、その入力された文字列を認識情報として、その文字列と、その文字列の出現頻度と、その文字列の最終認識時刻と、を互いに関連付けて記憶部に記憶させる。   The recognition processing unit 30 generates recognition information by applying recognition processing to the situation information collected by the situation collection unit 28. For example, when voice data is collected by the situation collection unit 28, the recognition processing unit 30 applies a voice recognition process to the voice data to recognize a character string representing the sound indicated by the voice data. Generate as When image data is collected by the situation collection unit 28, the recognition processing unit 30 applies image recognition processing to the image data, thereby recognizing a character string representing an image represented by the image data. Generate as For example, when a character string is represented in the image data, the recognition processing unit 30 extracts the character string from the image data as recognition information. In addition, the recognition processing unit 30 detects the expression and attitude of the participant represented in the image data, and uses a character string representing the detection result (for example, a character string expressing the expression and attitude of the participant) as recognition information. It may be generated. The recognition processing unit 30 stores the recognition information in the storage unit 48. For example, the recognition processing unit 30 stores the character string as the recognition information, the appearance frequency (for example, the number of appearances) of the character string during the meeting, and the last recognition time of the character string in the storage unit in association with each other. . When a character string is input by an input device such as a keyboard, the recognition processing unit 30 uses the input character string as recognition information, the character string, the appearance frequency of the character string, and the character string The final recognition time is associated with each other and stored in the storage unit.

検知部32は、状況収集部28によって収集された状況情報や、認識処理部30によって生成された認識情報に基づいて、会議の停滞(会議の行き詰まり)を検知する。例えば、検知部32は、会議の参加者の会話、参加者の表情、及び、沈黙時間の長さの中の少なくとも1つの情報に基づいて、会議の停滞を検知する。   The detection unit 32 detects a stagnation of the conference (meeting of the conference) based on the status information collected by the status collection unit 28 and the recognition information generated by the recognition processing unit 30. For example, the detection unit 32 detects the stagnation of the conference based on at least one information among the conversation of the conference participants, the facial expressions of the participants, and the length of the silence time.

例えば、音声認識によって会話から抽出された認識情報としての文字列群の中に、停滞に関連するキーワード(以下、「停滞キーワード」と称する)が含まれている場合、検知部32は、会議が停滞していると判定する。1又は複数の停滞キーワードが予め定められており、ユーザによって変更されてもよい。会話中の停滞キーワードの出現頻度(例えば出現回数)が予め定められた閾値以上となった場合、検知部32は、会議が停滞していると判定してもよい。   For example, in a case where a keyword related to stagnation (hereinafter referred to as “stagnation keyword”) is included in a character string group as recognition information extracted from a conversation by voice recognition, the detection unit 32 determines that the meeting is Determined to be stagnant. One or more stagnation keywords are predetermined and may be changed by the user. When the appearance frequency (for example, the number of appearances) of the stagnation keyword during the conversation is equal to or higher than a predetermined threshold, the detection unit 32 may determine that the meeting is stagnation.

検知部32は、会議の内容に基づいて、会議の停滞のレベル(停滞度)を決定してもよい。例えば、検知部32は、会話中の停滞キーワードの出現頻度に基づいて停滞度を決定する。検知部32は、停滞キーワードの出現頻度が多いほど、会議の停滞度が高いと判定する。また、停滞キーワード毎に停滞度が定められていてもよい。例えば、検知部32は、高い停滞度に関連付けられた停滞キーワードが会話から抽出された場合、会議の停滞度が高いと判定し、低い停滞度に関連付けられた停滞キーワードが会話から抽出された場合、会議の停滞度が低いと判定する。検知部32は、高い停滞度に関連付けられた停滞キーワードの出現回数が予め定められた閾値以上となった場合に、会議の停滞度が高いと判定し、低い停滞度に関連付けられた停滞キーワードの出現回数が予め定められた閾値以上となった場合に、会議の停滞度が低いと判定してもよい。また、高い停滞度に関連付けられた停滞キーワードと低い停滞度に関連付けられた停滞キーワードの両方が会話から抽出された場合、検知部32は、高い停滞度に関連付けられた停滞キーワードを優先的に採用して、会議の停滞度が高いと判定してもよいし、その両方の停滞キーワードの中で、出現回数がより多い停滞キーワードを採用して、停滞度を判定してもよい。例えば、高い停滞度に関連付けられた停滞キーワードの出現回数が、低い停滞度に関連付けられた停滞キーワードの出現回数よりも多い場合、検知部32は、会議の停滞度が高いと判定する。   The detection unit 32 may determine the stagnation level (stagnation degree) of the conference based on the content of the conference. For example, the detection unit 32 determines the stagnation degree based on the appearance frequency of the stagnation keyword during the conversation. The detection unit 32 determines that the stagnation degree of the conference is higher as the appearance frequency of the stagnation keyword is higher. Moreover, the stagnation degree may be defined for each stagnation keyword. For example, when a stagnation keyword associated with a high stagnation degree is extracted from the conversation, the detection unit 32 determines that the stagnation degree of the meeting is high, and when a stagnation keyword associated with a low stagnation degree is extracted from the conversation It is determined that the degree of stagnation of the meeting is low. The detection unit 32 determines that the degree of stagnation of the conference is high when the number of occurrences of the stagnation keyword associated with the high degree of stagnation is equal to or greater than a predetermined threshold, and the stagnation keyword associated with the low degree of stagnation is detected. When the number of appearances is equal to or greater than a predetermined threshold, it may be determined that the degree of stagnation of the meeting is low. In addition, when both the stagnation keyword associated with the high stagnation degree and the stagnation keyword associated with the low stagnation degree are extracted from the conversation, the detection unit 32 preferentially adopts the stagnation keyword associated with the high stagnation degree. Then, it may be determined that the degree of stagnation of the conference is high, or the stagnation degree may be determined by adopting a stagnation keyword having a higher appearance frequency among both stagnation keywords. For example, if the number of appearances of stagnation keywords associated with a high stagnation degree is greater than the number of appearances of stagnation keywords associated with a low stagnation degree, the detection unit 32 determines that the stagnation degree of the meeting is high.

また、会話から停滞キーワードが抽出されると共に、活気や活発に関連するキーワード(以下、「活気キーワード」と称する)が抽出された場合、検知部32は、停滞キーワードと活気キーワードの両方を用いて会議の停滞を検知してもよい。1又は複数の活気キーワードが予め定められており、ユーザによって変更されてもよい。例えば、会話中の停滞キーワードの出現回数(複数種類の停滞キーワードが抽出された場合、それら複数種類の停滞キーワードの出現回数の総数)が、活気キーワードの出現回数(複数種類の活気キーワードが抽出された場合、それら複数種類の活気キーワードの出現回数の総数)よりも多い場合、検知部32は、会議が停滞していると判定する。また、検知部32は、会話から抽出された各停滞キーワードの出現回数と各活気キーワードの出現回数に重み付け処理を適用し、その重み付け処理で得られた値に基づいて、会議の停滞の有無を判定してもよい。また、検知部32は、停滞キーワードの出現回数と活気キーワードの出現回数との差に基づいて、会議の停滞度を決定してもよい。例えば、停滞キーワードの出現回数が活気キーワードの出現回数よりも多い場合、出現回数の差が多いほど、会議の停滞度が高いと判定される。   In addition, when a stagnation keyword is extracted from a conversation and a keyword related to liveliness or activity (hereinafter referred to as “liveness keyword”) is extracted, the detection unit 32 uses both the stagnation keyword and the liveliness keyword. You may detect the stagnation of a meeting. One or more lively keywords are predetermined and may be changed by the user. For example, the number of appearances of a stagnation keyword in a conversation (when multiple types of stagnation keywords are extracted, the total number of appearances of these types of stagnation keywords) is the number of appearances of liveliness keywords (a plurality of types of liveness keywords are extracted). If the number is greater than the total number of appearances of these multiple types of lively keywords, the detection unit 32 determines that the meeting is stagnant. Further, the detection unit 32 applies a weighting process to the number of appearances of each stagnation keyword and the number of appearances of each lively keyword extracted from the conversation, and based on the value obtained by the weighting process, the presence / absence of stagnation of the meeting is determined. You may judge. Moreover, the detection part 32 may determine the stagnation degree of a meeting based on the difference between the appearance frequency of a stagnation keyword and the appearance frequency of a lively keyword. For example, when the number of appearances of the stagnation keyword is larger than the number of appearances of the lively keyword, it is determined that the degree of stagnation of the meeting is higher as the difference in the number of appearances is larger.

検知部32は、会話に含まれる人の声の大きさに基づいて会議の停滞の有無を判定してもよい。例えば、人の声の大きさが予め定められた閾値以下となった場合、検知部32は、会議が停滞していると判定する。検知部32は、人の声の大きさに基づいて停滞度を決定してもよい。例えば、声が小さいほど、停滞度が高いと判定される。   The detection unit 32 may determine whether there is a stagnation of the conference based on the loudness of a human voice included in the conversation. For example, when the loudness of a human voice is equal to or less than a predetermined threshold, the detection unit 32 determines that the meeting is stagnant. The detection unit 32 may determine the degree of stagnation based on the loudness of a human voice. For example, it is determined that the stagnation degree is higher as the voice is lower.

また、画像認識によって画像データから抽出された人の表情(例えば、表情を表わす文字列群)の中に、停滞に関連する表情(以下、「停滞表情」と称する)を表わす文字列が含まれている場合、検知部32は、会議が停滞していると判定してもよい。1又は複数の停滞表情が予め定められており、ユーザによって変更されてもよい。複数の人が会議に参加している場合、検知部32は、各参加者の表情に基づいて会議の停滞を検知してもよい。例えば、検知部32は、予め定められた閾値以上の数の人の表情が停滞表情に該当する場合、会議が停滞していると判定してもよいし、会議に参加している複数の人の中の予め定められた割合以上の数の人の表情が停滞表情に該当する場合、会議が停滞していると判定してもよい。   In addition, character strings representing facial expressions related to stagnation (hereinafter referred to as “stagnation facial expressions”) are included in human facial expressions (for example, character string groups representing facial expressions) extracted from image data by image recognition. If it is, the detection unit 32 may determine that the meeting is stagnant. One or more stagnation facial expressions are predetermined and may be changed by the user. When a plurality of people are participating in the conference, the detection unit 32 may detect the stagnation of the conference based on the facial expressions of each participant. For example, the detection unit 32 may determine that the conference is stagnant when the facial expressions of a number of people equal to or greater than a predetermined threshold correspond to stagnant facial expressions, or a plurality of people participating in the conference If the facial expressions of a number greater than or equal to a predetermined ratio in the case correspond to stagnant facial expressions, it may be determined that the conference is stagnant.

検知部32は、人の表情に基づいて、停滞度を決定してもよい。例えば、停滞表情毎に停滞度が定められており、検知部32は、高い停滞度に関連付けられた停滞表情が検知された場合、会議の停滞度が高いと判定し、低い停滞度に関連付けられた停滞表情が検知された場合、会議の停滞度が低いと判定する。検知部32は、高い停滞度に関連付けられた停滞表情の検知回数が予め定められた閾値以上となった場合に、会議の停滞度が高いと判定し、低い停滞度に関連付けられた停滞表情の検知回数が予め定められた閾値以上となった場合に、会議の停滞度が低いと判定してもよい。また、高い停滞度に関連付けられた停滞表情と低い停滞度に関連付けられた停滞表情の両方が検知された場合、検知部32は、高い停滞度に関連付けられた停滞表情を優先的に採用して、会議の停滞度が高いと判定してもよいし、その両方の停滞表情の中で、検知回数がより多い停滞表情を採用して、停滞度を判定してもよい。例えば、高い停滞度に関連付けられた停滞表情の検知回数が、低い停滞度に関連付けられた停滞表情の検知回数よりも多い場合、検知部32は、会議の停滞度が高いと判定する。   The detection unit 32 may determine the degree of stagnation based on a human facial expression. For example, a stagnation level is defined for each stagnation expression, and when a stagnation expression associated with a high stagnation level is detected, the detection unit 32 determines that the stagnation level of the meeting is high and is associated with a low stagnation level. If a stagnation expression is detected, it is determined that the degree of stagnation of the meeting is low. The detection unit 32 determines that the stagnation level of the conference is high when the number of detections of the stagnation facial expression associated with the high stagnation degree is equal to or greater than a predetermined threshold, and the stagnation facial expression associated with the low stagnation degree. When the number of detections is equal to or greater than a predetermined threshold, it may be determined that the degree of stagnation of the meeting is low. When both a stagnation expression associated with a high stagnation degree and a stagnation expression associated with a low stagnation degree are detected, the detection unit 32 preferentially adopts the stagnation expression associated with a high stagnation degree. The degree of stagnation of the conference may be determined to be high, or the degree of stagnation may be determined by adopting a stagnation expression with a higher number of detections among both stagnation expressions. For example, when the number of detections of stagnant facial expressions associated with a high degree of stagnation is greater than the number of detections of stagnant facial expressions associated with a low degree of stagnation, the detection unit 32 determines that the degree of stagnation of the meeting is high.

また、停滞表情が検知されると共に、活気や活発に関連する表情(以下、「活気表情」と称することとする)が検知された場合、検知部32は、停滞表情と活気表情の両方を用いて会議の停滞を検知してもよい。1又は複数の活気表情(例えば、活気表情を表わす文字列)が予め定められており、ユーザによって変更されてもよい。例えば、停滞表情の検知回数(複数種類の停滞表情が検知された場合、それら複数種類の停滞表情の検知回数の総数)が、活気表情の検知回数(複数種類の活気表情が検知された場合、それら複数種類の活気表情の検知回数の総数)よりも多い場合、検知部32は、会議が停滞していると判定する。また、検知部32は、各停滞表情の検知回数と各活気表情の検知回数に重み付け処理を適用し、その重み付け処理で得られた値に基づいて、会議の停滞の有無を判定してもよい。また、検知部32は、停滞表情の検知回数と活気表情の検知回数との差に基づいて、会議の停滞度を決定してもよい。例えば、停滞表情の検知回数が活気表情の検知回数よりも多い場合、検知回数の差が多いほど、会議の停滞度が高いと判定される。   When a stagnation facial expression is detected, and when a lively or actively related facial expression (hereinafter referred to as a “lively facial expression”) is detected, the detection unit 32 uses both the stagnation facial expression and the lively facial expression. The stagnation of the conference may be detected. One or a plurality of lively expressions (for example, a character string representing a lively expression) is determined in advance and may be changed by the user. For example, the number of detections of stagnation facial expressions (when multiple types of stagnation facial expressions are detected, the total number of detections of these multiple types of stagnation facial expressions) is the number of detections of lively facial expressions (when multiple types of stagnation facial expressions are detected, If the number is greater than the total number of detections of these multiple types of lively expressions, the detection unit 32 determines that the meeting is stagnant. In addition, the detection unit 32 may apply weighting processing to the number of detections of each stagnation facial expression and the number of detections of each lively facial expression, and determine whether there is a stagnation of the meeting based on the value obtained by the weighting processing. . Moreover, the detection part 32 may determine the stagnation degree of a meeting based on the difference between the detection count of a stagnation facial expression and the detection count of a lively facial expression. For example, when the number of times of detection of a stagnation facial expression is greater than the number of times of detection of a lively facial expression, it is determined that the degree of stagnation of the meeting is higher as the difference in the number of detection times is larger.

また、検知部32は、会議における沈黙時間の長さに基づいて、会議の停滞の有無を判定してもよい。例えば、沈黙時間の長さ(例えば、予め定められた閾値以上の大きさの音声が検知されなかった時間の長さ)が予め定められた閾値以上となる場合、検知部32は、会議が停滞していると判定する。   Moreover, the detection part 32 may determine the presence or absence of the stagnation of a meeting based on the length of the silence time in a meeting. For example, when the length of the silence time (for example, the length of time during which no sound having a loudness equal to or greater than a predetermined threshold is detected) is equal to or greater than a predetermined threshold, the detection unit 32 causes the meeting to stagnate. It is determined that

検知部32は、停滞キーワード、声の大小、停滞表情、及び、沈黙時間の長さ、の中から選択された1つの情報、又は、2つ以上の情報の組み合わせに基づいて、停滞の有無や停滞度を判定してもよい。   Based on one information selected from the stagnation keyword, the magnitude of the voice, the stagnation expression, and the length of the silence time, or the combination of two or more information, The degree of stagnation may be determined.

提供部34は、会議の主題に関連する主題関連情報や、会議の主題から逸れた逸脱情報を提供する機能を備えている。例えば、検知部32が会議の停滞を検知した場合に、提供部34は逸脱情報を提供する。提供部34は、会議の主題に沿った情報(例えば主題関連情報)を提供し、その提供の合間に、逸脱情報を提供してもよい。例えば、主題関連情報を提供している合間に、会議の停滞が検知された場合、逸脱情報が提供されてもよい。主題関連情報及び逸脱情報は、予め定められた情報であり、文字列、音声、画像、等の情報である。例えば、主題を示す情報(例えば、主題を示す文字列)と、その主題に関連する主題関連情報(例えば、その主題を示す文字列と同義語、その主題を意味として有する画像や音声、その主題が人に与える印象と同じ又は似た印象を与える文字列や画像や音声、等)と、が互いに対応付けられている。また、主題を示す情報(例えば文字列)と、その主題から逸れた逸脱情報(例えば、その主題を示す文字列の対義語(反対語、反義語等)、その対義語を意味として有する画像や音声、その文字列が人に与える印象とは異なる印象や反対の印象を与える文字列や画像や音声、等)と、が互いに対応付けられている。   The providing unit 34 has a function of providing subject-related information related to the subject of the conference and deviation information deviating from the subject of the conference. For example, when the detection unit 32 detects a stagnation of the conference, the providing unit 34 provides deviation information. The providing unit 34 may provide information (for example, subject-related information) in accordance with the theme of the conference, and may provide deviation information between the provisions. For example, deviation information may be provided when a stagnation of a meeting is detected while providing subject-related information. The subject-related information and the deviation information are predetermined information such as character strings, sounds, images, and the like. For example, information indicating a subject (for example, a character string indicating the subject) and subject-related information related to the subject (for example, a synonym for a character string indicating the subject, an image or sound having the subject as a meaning, the subject Character strings, images, sounds, etc.) that give the same or similar impression to the person are associated with each other. Also, information indicating the subject (for example, a character string), deviation information deviating from the subject (for example, an antonym of the character string indicating the subject (an antonym, an antonym, etc.), an image or a sound having the antonym as a meaning, Character strings, images, sounds, etc.) that give an impression different from the impression that a character string gives to people or an opposite impression are associated with each other.

会議の主題は、後述するように認識処理部30によって決定される。主題が決定されると、提供部34は、主題を示す情報と主題関連情報との対応付けや、主題を示す情報と逸脱情報との対応付けを参照することで、会話から抽出された主題に関連する主題関連情報や逸脱情報を提供する。また、文字列と、その文字列が有する意味に関連する主題関連情報(例えば、その文字列と同義語、その文字列を意味として有する画像や音声、その文字列が人に与える印象と同じ又は似た印象を与える文字列や画像や音声、等)と、が互いに対応付けられていてもよい。この場合、提供部34は、その対応付けを参照することで、会議の会話から抽出された文字列に対応付けられている主題関連情報を提供してもよい。また、文字列と、その文字列が有する意味から逸れた逸脱情報(例えば、その文字列の対義語(反対語、反義語等)、その対義語を意味として有する画像や音声、その文字列が人に与える印象とは異なる印象や反対の印象を与える文字列や画像や音声、等)と、が互いに対応付けられていてもよい。この場合、提供部34は、その対応付けを参照することで、会議の会話から抽出された文字列に対応付けられている逸脱情報を提供してもよい。物体の形状、色、味、匂い、大きさ、等によって人に与える印象が異なるため、それらの要素を考慮して、主題関連情報や逸脱情報が決定されてもよい。主題を示す情報や会話から抽出された文字列と、主題関連情報と、の対応付けを示す情報は、主題関連情報管理情報52として記憶部48に記憶されている。また、主題を示す情報や会話から抽出された文字列と、逸脱情報と、の対応付けを示す情報は、逸脱情報管理情報54として記憶部48に記憶されている。もちろん、提供部34は、インターネット等を利用して、ロボット装置10以外の装置から主題関連情報や逸脱情報を取得して提供してもよい。   The theme of the meeting is determined by the recognition processing unit 30 as described later. When the subject is determined, the providing unit 34 refers to the correspondence between the information indicating the subject and the subject-related information, or the correspondence between the information indicating the subject and the deviation information, to thereby extract the subject extracted from the conversation. Provide relevant subject-related information and deviation information. In addition, the subject-related information related to the meaning of the character string and the character string (for example, the same meaning as the character string, the image or sound having the character string as the meaning, the same impression as the character string gives to the person or Character strings, images, sounds, etc.) that give a similar impression may be associated with each other. In this case, the providing unit 34 may provide the subject-related information associated with the character string extracted from the conference conversation by referring to the association. Also, a character string, deviation information deviating from the meaning of the character string (for example, an antonym (antonym, antonym, etc.) of the character string, an image or sound having the antonym as a meaning, and the character string are given to a person. A character string, an image, a sound, or the like that gives an impression different from an impression or an opposite impression may be associated with each other. In this case, the providing unit 34 may provide the deviation information associated with the character string extracted from the conference conversation by referring to the association. Since the impression given to a person differs depending on the shape, color, taste, smell, size, etc. of the object, the subject related information and deviation information may be determined in consideration of these factors. Information indicating the correspondence between the information indicating the subject and the character string extracted from the conversation and the subject related information is stored as the subject related information management information 52 in the storage unit 48. Further, information indicating the correspondence between the information indicating the subject and the character string extracted from the conversation and the deviation information is stored as the deviation information management information 54 in the storage unit 48. Of course, the providing unit 34 may acquire and provide subject-related information and deviation information from a device other than the robot device 10 using the Internet or the like.

提供部34は、会議の会話から抽出された文字列の出現頻度に応じて、逸脱情報を変更して提供してもよい。例えば、提供部34は、出現頻度の低い文字列(例えば出現頻度が閾値以下の文字列)に対応付けられている逸脱情報を提供してもよい。このような文字列は、例えば、音声の誤認識によって抽出された可能性があり、このような文字列に関連付けられている逸脱情報は、会議の内容に対して意外性のある情報の可能性がある。従って、このような逸脱情報を提供することで、意外性のある情報が会議の参加者に提供され、アイデアが誘発され得る。   The providing unit 34 may change and provide the deviation information according to the appearance frequency of the character string extracted from the conference conversation. For example, the providing unit 34 may provide deviation information associated with a character string having a low appearance frequency (for example, a character string having an appearance frequency equal to or less than a threshold). Such a character string may have been extracted, for example, due to misrecognition of speech, and the deviation information associated with such a character string may be information that is surprising to the content of the meeting. There is. Therefore, by providing such deviation information, surprising information can be provided to the conference participants and ideas can be induced.

提供部34は、会議の停滞の程度を表わす停滞度に応じて逸脱情報を変更して提供してもよい。例えば、各逸脱情報に停滞度が予め対応付けられており、提供部34は、検知部32によって決定された停滞度が対応付けられている逸脱情報を取得して提供してもよい。高い停滞度が対応付けられている逸脱情報ほど、その逸脱情報が対応付けられている文字列との関連性がより低い情報である。従って、会議の停滞度が高くなるほど、その会議の内容から逸脱の程度がより高い逸脱情報が提供される。これにより、より意外性のある情報が参加者に提供され、アイデアが誘発され得る。   The providing unit 34 may change and provide the deviation information according to the degree of stagnation indicating the degree of stagnation of the conference. For example, the stagnation degree is associated with each departure information in advance, and the providing unit 34 may acquire and provide the departure information associated with the stagnation degree determined by the detection unit 32. The deviation information associated with a higher degree of stagnation is information that is less relevant to the character string associated with the deviation information. Therefore, the higher the degree of stagnation of a meeting, the more deviation information is provided with a higher degree of deviation from the contents of the meeting. This provides more surprising information to the participants and can trigger ideas.

提供部34は、逸脱情報としての画像や文字列を表示装置に表示させてもよいし、逸脱情報としての音声をスピーカ等から発してもよい。提供部34は、プロジェクタによって壁やテーブル等に逸脱情報としての画像や文字列を投影してもよいし、ロボット装置10が備える表示部に逸脱情報を表示させてもよい。もちろん、逸脱情報としての画像、文字列及び音声を同時に提供してもよい。   The providing unit 34 may display an image or a character string as deviation information on a display device, or may emit sound as deviation information from a speaker or the like. The providing unit 34 may project an image or a character string as deviation information on a wall, a table, or the like by a projector, or may display the deviation information on a display unit included in the robot apparatus 10. Of course, an image, a character string, and a sound as deviation information may be provided simultaneously.

設定部36は、会議の内容からの情報の逸脱の程度を示す逸脱度を設定する機能を備えている。逸脱度は、ユーザによって指定されてもよいし、自動的に設定されてもよい。逸脱度が設定された場合、提供部34は、その逸脱度に応じて逸脱情報を変更して提供してもよい。例えば、各逸脱情報に逸脱度が予め定められており、提供部34は、設定部36によって設定された逸脱度が対応付けられている逸脱情報を取得して提供する。高い逸脱度が対応付けられている逸脱情報ほど、その逸脱情報が対応付けられている文字列との関連性がより低い情報である。従って、高い逸脱度が設定されるほど、会議の内容から逸脱の程度がより高い逸脱情報が提供され、これにより、アイデアが誘発され得る。   The setting unit 36 has a function of setting a deviation degree indicating the degree of deviation of information from the content of the conference. The departure degree may be specified by the user or may be automatically set. When the departure degree is set, the providing unit 34 may change and provide the departure information according to the departure degree. For example, the departure degree is predetermined for each departure information, and the providing unit 34 acquires and provides departure information associated with the departure degree set by the setting unit 36. The deviation information associated with a higher degree of deviation is information that is less related to the character string associated with the deviation information. Therefore, the higher the degree of deviation is, the more deviation information is provided from the content of the conference, and the idea can be induced thereby.

設定部36は、検知部32によって決定された停滞度に基づいて逸脱度を設定してもよい。例えば、停滞度が高いほど、高い逸脱度が設定される。   The setting unit 36 may set the departure degree based on the stagnation degree determined by the detection unit 32. For example, the higher the degree of stagnation, the higher the degree of departure.

提供部34は、設定部36によって設定された逸脱度に応じて、主題関連情報の提供と逸脱情報の提供とを切り替えてもよい。   The providing unit 34 may switch between providing subject-related information and providing deviation information according to the degree of deviation set by the setting unit 36.

会議の主題は、例えば、認識処理部30によって決定される。認識処理部30は、状況収集部28によって収集された状況情報(会話の内容や画像等)に基づいて、会議で議論されている内容を特定し、その内容から会議の主題を特定する。認識処理部30は、例えば、会話の中で最大の出現回数を有する文字列を特定し、その文字列に基づいて会議の主題を特定してもよいし、複数の文字列に基づいて会議の主題を特定してもよい。例えば、文字列と主題を示す情報(例えば文字列)とが互いに対応付けられており、提供部34は、その対応付けを参照することで、会話から抽出された文字列(例えば出現回数が最大の文字列)に対応付けられている主題を示す情報を特定してもよい。これにより、会話の内容から主題が決定される。提供部34は、会話から抽出された文字列を主題関連情報として使用し、主題を示す情報と主題関連情報との対応付けを参照することで、抽出された文字列(主題関連情報)に対応付けられている主題を示す情報を特定してもよい。このようにして、会話の内容から主題が決定されてもよい。   The theme of the meeting is determined by the recognition processing unit 30, for example. Based on the situation information (conversation content, images, etc.) collected by the situation collection unit 28, the recognition processing unit 30 identifies the content being discussed in the conference and identifies the subject of the conference from the content. For example, the recognition processing unit 30 may specify a character string having the maximum number of appearances in the conversation, and may specify a theme of the conference based on the character string, or may identify a conference based on a plurality of character strings. The subject matter may be specified. For example, a character string and information indicating the subject (for example, a character string) are associated with each other, and the providing unit 34 refers to the association to thereby extract a character string (for example, the maximum number of appearances) from the conversation. Information indicating a subject associated with a character string) may be specified. Thereby, the subject is determined from the content of the conversation. The providing unit 34 uses the character string extracted from the conversation as the subject related information, and corresponds to the extracted character string (theme related information) by referring to the correspondence between the information indicating the subject and the subject related information. Information indicating the attached subject matter may be specified. In this way, the subject matter may be determined from the content of the conversation.

提供部34は、低い逸脱度が設定された場合(例えば閾値以下の逸脱度が設定された場合)、会議の主題に関連する主題関連情報であって会議に出現しなかった情報を提供し、高い逸脱度が設定された場合(例えば閾値よりも大きい逸脱度が設定された場合)、逸脱情報を提供してもよい。   The providing unit 34 provides subject-related information related to the subject of the conference and not appearing in the conference when a low departure level is set (for example, when a deviation level equal to or less than a threshold is set), When a high deviation degree is set (for example, when a deviation degree larger than a threshold is set), deviation information may be provided.

例えば、会議の内容が食事に関する場合、つまり、食事に関する文字列や画像等が主に検知された場合、会議の主題は「食事」である。低い逸脱度が設定された場合において、その会議の内容から「ケーキ」という文字列や画像が検出されなかった場合、提供部34は、「ケーキ」に関する文字列や画像を主題関連情報として提供する。高い逸脱度が設定された場合、提供部34は、「食事」という主題に関連しない分野に属する逸脱情報を提供する。例えば、提供部34は、「ロケット」に関する文字列や画像を逸脱情報として提供する。   For example, when the content of the meeting is related to a meal, that is, when a character string or an image related to the meal is mainly detected, the theme of the meeting is “meal”. When a low deviation degree is set and the character string or image “cake” is not detected from the content of the meeting, the providing unit 34 provides the character string or image related to “cake” as subject-related information. . When a high deviation degree is set, the providing unit 34 provides deviation information belonging to a field not related to the subject “meal”. For example, the providing unit 34 provides a character string and an image related to “rocket” as deviation information.

履歴管理部38は、逸脱情報に対する参加者の反応の履歴を管理する機能を有する。検知部32は、状況収集部28によって収集された状況情報や、認識処理部30によって生成された認識情報に基づいて、会議の参加者の反応を検知する。具体的には、検知部32は、音声データから抽出された文字列、声の大小、参加者の表情、沈黙時間の長さ、及び、会話の長さの中から選択された1つの情報、又は、2つ以上の情報の組み合わせに基づいて、参加者の反応を検知する。提供部34によって逸脱情報が提供された後、検知部32によって参加者の反応が検知されると、履歴管理部38は、その逸脱情報と参加者の反応を示す情報とを関連付けて、それらを履歴情報56として記憶部48に記憶させる。例えば、逸脱情報が提供された後に、会話が活発になったり、参加者の表情が活発になったりした場合、履歴管理部38は、活発になったことを示す情報と逸脱情報とを関連付けて、それらを履歴情報として記憶部48に記憶させる。履歴情報を参照することで、どのような逸脱情報によって、参加者がどのような反応を示すのかが特定される。   The history management unit 38 has a function of managing a history of participant responses to deviation information. The detection unit 32 detects the reaction of the conference participants based on the situation information collected by the situation collection unit 28 and the recognition information generated by the recognition processing unit 30. Specifically, the detection unit 32 selects one piece of information selected from the character string extracted from the voice data, the magnitude of the voice, the facial expression of the participant, the length of the silence, and the length of the conversation, Alternatively, a participant's reaction is detected based on a combination of two or more pieces of information. After the deviation information is provided by the providing unit 34, when the detection unit 32 detects the participant's reaction, the history management unit 38 associates the deviation information with information indicating the participant's reaction, The history information 56 is stored in the storage unit 48. For example, when the conversation becomes active or the facial expressions of the participants become active after the departure information is provided, the history management unit 38 associates the information indicating that it has become active with the departure information. These are stored in the storage unit 48 as history information. By referring to the history information, what kind of deviation information identifies what reaction the participant shows.

また、履歴管理部38は、参加者毎に反応の履歴を管理して、参加者毎に履歴情報を作成してもよい。この場合、履歴管理部38は、検知部32によって反応が検知された参加者を識別するためのユーザ識別情報と、提供された逸脱情報と、当該参加者の反応を示す情報と、を関連付けて、それらを履歴情報として記憶部48に記憶させる。ユーザ識別情報は、例えば、検知された参加者の名前、ユーザID、検知された参加者の顔を表わす画像、検知された参加者の音声を表わす音声データ、等である。例えば、画像認識処理によって参加者の顔が認識された場合、その顔を表わす画像がユーザ識別情報として用いられてもよい。また、音声認識処理によって参加者の音声が認識された場合、その音声を表わす音声データがユーザ識別情報として用いられてもよい。名前やユーザIDは、例えばキーボード等の入力装置によって入力されてもよいし、画像認識処理によって参加者の顔が認識された場合、その顔を表わす画像に紐付く名前やユーザIDであって、それらを管理する装置から取得された名前やユーザIDであってもよい。これにより、個々のユーザ毎に、どのような逸脱情報によって、どのような反応を示すのかが特定される。   Further, the history management unit 38 may manage the history of reaction for each participant and create history information for each participant. In this case, the history management unit 38 associates the user identification information for identifying the participant whose reaction has been detected by the detection unit 32, the provided deviation information, and the information indicating the response of the participant. These are stored in the storage unit 48 as history information. The user identification information is, for example, the name of the detected participant, the user ID, an image representing the detected participant's face, voice data representing the detected participant's voice, and the like. For example, when a participant's face is recognized by the image recognition process, an image representing the face may be used as the user identification information. Further, when a participant's voice is recognized by the voice recognition process, voice data representing the voice may be used as user identification information. The name and user ID may be input by an input device such as a keyboard, for example, and when a participant's face is recognized by the image recognition process, the name and user ID associated with the image representing the face, It may be a name or a user ID acquired from a device that manages them. Thereby, what kind of reaction is shown by what deviation information for each user is specified.

なお、履歴管理部38は、主題関連情報に対する参加者の反応の履歴を管理してもよい。この場合、履歴管理部38は、参加者毎にその反応の履歴を管理してもよい。その管理に関する情報は、上記の履歴情報と同様に記憶部48に記憶されてもよい。   The history management unit 38 may manage the history of the participant's reaction to the subject related information. In this case, the history management unit 38 may manage the history of the reaction for each participant. Information related to the management may be stored in the storage unit 48 in the same manner as the history information.

提供部34は、履歴情報に基づいて逸脱情報を選択して提供してもよい。例えば、会議が停滞している場合に、検知部32は、状況収集部28によって収集された画像データや音声データに基づいて、会議の参加者を識別し、提供部34は、その参加者のユーザ識別情報を含む履歴情報において、会話や表情が活発になった逸脱情報を特定し、その逸脱情報を提供する。これにより、個々の参加者の議論が活発になり得る情報が提供される。   The providing unit 34 may select and provide deviation information based on the history information. For example, when the conference is stagnant, the detection unit 32 identifies the participant of the conference based on the image data and audio data collected by the situation collection unit 28, and the providing unit 34 In the history information including the user identification information, the deviation information in which conversation or facial expression becomes active is specified, and the deviation information is provided. This provides information that can encourage discussion among individual participants.

また、逸脱情報の提供の際に逸脱度が設定されている場合、履歴管理部38は、その逸脱度を示す情報も、履歴情報に含めてもよい。この場合、設定部36は、履歴情報に基づいて逸脱度を設定してもよい。例えば、提供部34は、会議に参加している人のユーザ識別情報を含む履歴情報において、会話や表情が活発になった逸脱度を特定し、設定部36は、その逸脱度を設定する。提供部34は、その逸脱度に対応する逸脱情報を提供する。   In addition, when a deviation degree is set when providing deviation information, the history management unit 38 may also include information indicating the deviation degree in the history information. In this case, the setting unit 36 may set the deviation degree based on the history information. For example, the providing unit 34 specifies the degree of deviation in which conversation or facial expression has become active in the history information including the user identification information of the person participating in the conference, and the setting unit 36 sets the degree of deviation. The providing unit 34 provides deviation information corresponding to the degree of deviation.

移動部40は、陸上を移動するための手段、飛行するための手段、及び、水中を移動するための手段の中の少なくとも1つの手段によって、ロボット装置10を移動させる機能を備えている。図1に示す例では、移動部40は、脚部16によって構成される。もちろん、ロボット装置10は移動部40を備えていなくてもよい。   The moving unit 40 has a function of moving the robot apparatus 10 by at least one of a means for moving on land, a means for flying, and a means for moving underwater. In the example illustrated in FIG. 1, the moving unit 40 includes the leg unit 16. Of course, the robot apparatus 10 may not include the moving unit 40.

作業部42は、ロボット装置10以外の機器を操作したり、物体を持ち上げたり、物体を移動させたりする機能を備えている。図1に示す例では、作業部42は、腕部18及び指部20によって構成される。もちろん、ロボット装置10は作業部42を備えていなくてもよい。   The working unit 42 has functions for operating devices other than the robot apparatus 10, lifting an object, and moving an object. In the example illustrated in FIG. 1, the working unit 42 includes the arm unit 18 and the finger unit 20. Of course, the robot apparatus 10 may not include the working unit 42.

スピーカ44は、音を発する機能を備えている。例えば、逸脱情報に関する音声等が、スピーカ44から発せられる。   The speaker 44 has a function of generating sound. For example, a sound related to the deviation information is emitted from the speaker 44.

UI部46はユーザインターフェース部であり、表示部(例えば図1に示されている表示部24)と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボード等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えば、タッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示する装置等を含む)であってもよい。なお、ロボット装置10は、UI部46を備えていなくてもよいし、表示部を備えずに、ハードウェアキー(例えば、各種のボタン)を備えていてもよい。ハードウェアキーとしてのボタンは、例えば、数字入力に特化したボタン(例えばテンキー)、方向の指示に特化したボタン(例えば方向指示キー)、等である。   The UI unit 46 is a user interface unit, and includes a display unit (for example, the display unit 24 shown in FIG. 1) and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is an input device such as a touch panel or a keyboard. Of course, it may be a user interface that serves both as a display unit and an operation unit (for example, including a touch-type display or a device that electronically displays a keyboard or the like on the display). The robot apparatus 10 may not include the UI unit 46, or may include a hardware key (for example, various buttons) without including the display unit. The buttons as hardware keys are, for example, buttons specialized for numeric input (for example, numeric keys), buttons specialized for direction instructions (for example, direction instruction keys), and the like.

記憶部48はハードディスクやメモリ(例えばSSD等)等の記憶装置である。記憶部48には、例えば、認識情報管理情報50、主題関連情報管理情報52、逸脱情報管理情報54、履歴情報56、その他の情報(例えば、各種のデータ、各種のプログラム等)、等が記憶されている。これらの情報は、それぞれ別々の記憶装置に記憶されてもよいし、同じ記憶装置に記憶されてもよい。   The storage unit 48 is a storage device such as a hard disk or a memory (for example, SSD). The storage unit 48 stores, for example, recognition information management information 50, subject related information management information 52, deviation information management information 54, history information 56, other information (for example, various data, various programs, etc.), and the like. Has been. These pieces of information may be stored in separate storage devices, or may be stored in the same storage device.

認識情報管理情報50は、認識処理部30によって生成された認識情報やユーザによって入力された認識情報を管理するための情報である。認識情報管理情報50においては、例えば、認識情報(例えば文字列)と、その認識情報の出現頻度と、その認識情報の最終認識時刻と、が互いに対応付けられている。認識情報が生成や取得される度に、認識情報管理情報50が更新される。   The recognition information management information 50 is information for managing the recognition information generated by the recognition processing unit 30 and the recognition information input by the user. In the recognition information management information 50, for example, recognition information (for example, a character string), the appearance frequency of the recognition information, and the last recognition time of the recognition information are associated with each other. Each time the recognition information is generated or acquired, the recognition information management information 50 is updated.

主題関連情報管理情報52は、主題関連情報を示す情報である。主題関連情報管理情報52においては、例えば、主題を示す情報(例えば文字列)と、その主題に関連する1又は複数の主題関連情報(例えば、文字列、画像、音声等)と、が互いに予め対応付けられている。   The subject related information management information 52 is information indicating the subject related information. In the subject-related information management information 52, for example, information indicating a subject (for example, a character string) and one or more subject-related information (for example, a character string, an image, a sound, etc.) related to the subject are mutually in advance. It is associated.

逸脱情報管理情報54は、逸脱情報を示す情報である。逸脱情報管理情報54においては、例えば、主題を示す情報(例えば文字列)と、その主題から逸れた1又は複数の逸脱情報(例えば、文字列、画像、音声等)と、が互いに予め対応付けられている。また、各逸脱情報に、会議の停滞の程度を表わす停滞度が予め対応付けられていてもよい。また、各逸脱情報に逸脱度が予め対応付けられていてもよい。   The deviation information management information 54 is information indicating deviation information. In the deviation information management information 54, for example, information indicating a subject (for example, a character string) and one or more pieces of deviation information (for example, a character string, an image, sound, etc.) deviating from the subject are associated with each other in advance. It has been. In addition, a degree of stagnation indicating the degree of stagnation of the meeting may be associated with each deviation information in advance. Further, the departure degree may be associated with each departure information in advance.

履歴情報56は、提供された逸脱情報に対する人の反応の履歴を示す情報である。履歴情報56においては、例えば、提供された逸脱情報と、人の反応を示す情報と、が互いに対応付けられている。また、参加者毎の履歴情報56が作成されてもよい。逸脱情報が提供されて人の反応が検知される度に、履歴情報56が更新される。   The history information 56 is information indicating a history of human reaction to the provided deviation information. In the history information 56, for example, provided deviation information and information indicating human reaction are associated with each other. Further, history information 56 for each participant may be created. Each time deviation information is provided and a human reaction is detected, the history information 56 is updated.

制御部58は、ロボット装置10の各部の動作を制御する。制御部58は、例えば、知能部としての人工知能(AI)を有しており、ロボット装置10の各部の機能は、その人工知能によって制御されてもよい。   The control unit 58 controls the operation of each unit of the robot apparatus 10. The control unit 58 has, for example, artificial intelligence (AI) as an intelligent unit, and the function of each unit of the robot apparatus 10 may be controlled by the artificial intelligence.

なお、状況収集部28、認識処理部30、検知部32、提供部34、設定部36及び履歴管理部38の中の少なくとも1つは、ロボット装置10以外の装置(例えば、図示しないサーバやユーザの端末装置等)に設けられていてもよい。この場合、その少なくとも1つの部は、ロボット装置10に設けられていなくてもよい。また、認識情報管理情報50、主題関連情報管理情報52、逸脱情報管理情報54及び履歴情報56中の少なくとも1つの情報は、ロボット装置10以外の装置に記憶されてもよい。この場合、その少なくとも1つの情報は、ロボット装置10に記憶されなくてもよい。なお、上記の例では、ロボット装置10が、主題関連情報や逸脱情報を提供しているが、スマートフォンやPC(パーソナルコンピュータ)等の端末装置が、会議の停滞を検知してもよいし、主題関連情報や逸脱情報を提供してもよい。   Note that at least one of the status collection unit 28, the recognition processing unit 30, the detection unit 32, the providing unit 34, the setting unit 36, and the history management unit 38 is a device other than the robot device 10 (for example, a server or user not shown). Terminal device etc.). In this case, at least one part may not be provided in the robot apparatus 10. Further, at least one of the recognition information management information 50, the subject related information management information 52, the deviation information management information 54, and the history information 56 may be stored in a device other than the robot device 10. In this case, the at least one information may not be stored in the robot apparatus 10. In the above example, the robot apparatus 10 provides subject-related information and deviation information. However, a terminal device such as a smartphone or a PC (personal computer) may detect the stagnation of the conference, Related information and deviation information may be provided.

以下、ロボット装置10について更に詳しく説明する。   Hereinafter, the robot apparatus 10 will be described in more detail.

図3には、認識情報管理情報50としての認識情報管理テーブルの一例が示されている。認識情報管理テーブルにおいては、例えば、認識情報としての文字列と、その文字列の出現回数と、最終認識時刻と、が互いに対応付けられている。その文字列は、音声データに音声認識処理を適用することで生成された文字列、画像データに画像認識処理を適用することで生成された文字列、キーボード等の入力装置によって入力された文字列、等である。検知部32は、例えば、認識情報管理テーブルによって管理されている文字列を用いて会議の停滞の有無や、その停滞の程度を判定する。   FIG. 3 shows an example of a recognition information management table as the recognition information management information 50. In the recognition information management table, for example, a character string as recognition information, the number of appearances of the character string, and a final recognition time are associated with each other. The character string is a character string generated by applying voice recognition processing to voice data, a character string generated by applying image recognition processing to image data, or a character string input by an input device such as a keyboard. , Etc. For example, the detection unit 32 determines the presence or absence of the meeting and the degree of the stagnation using the character string managed by the recognition information management table.

図4には、主題関連情報管理情報52としての主題関連情報管理テーブルの一例が示されている。主題関連情報管理テーブルにおいては、例えば、主題を示す文字列や会話から抽出される文字列と、1又は複数の主題関連情報(例えば、文字列、画像、音声等)と、最終使用時刻と、優先順位と、が互いに対応付けられている。主題を示す文字列は、上述したように、認識処理部30によって決定される。優先順位は、主題関連情報の提供の順位であり、予め定められている。例えば、主題との関連度が高いと推測される主題関連情報の優先順位ほど上位に設定される。もちろん、ユーザや管理者等によって優先順位が変更されてもよいし、優先順位が用いられなくてもよい。例えば、優先順位に基づかずに、ランダムに主題関連情報が提供されてもよい。   FIG. 4 shows an example of the subject related information management table as the subject related information management information 52. In the subject-related information management table, for example, a character string indicating a subject or a character string extracted from a conversation, one or more subject-related information (for example, a character string, an image, a sound, etc.), a last use time, The priorities are associated with each other. The character string indicating the subject is determined by the recognition processing unit 30 as described above. The priority order is the order of provision of subject-related information, and is determined in advance. For example, the priority of the subject related information that is estimated to have a high degree of association with the subject is set higher. Of course, the priority order may be changed by a user, an administrator, or the like, or the priority order may not be used. For example, the subject-related information may be provided randomly without being based on the priority order.

図5には、逸脱情報管理情報54としての逸脱情報管理テーブルの一例が示されている。逸脱情報管理テーブルにおいては、例えば、主題を示す文字列や会話から抽出される文字列と、1又は複数の逸脱情報(例えば、文字列、画像、音声等)と、優先順位と、最終使用時刻と、が互いに対応付けられている。その文字列は、例えば、会話中の音声データに音声認識処理を適用することで生成される文字列である。また、各逸脱情報には、停滞度(停滞レベル)と逸脱度(逸脱レベル)が対応付けられている。   FIG. 5 shows an example of the deviation information management table as the deviation information management information 54. In the deviation information management table, for example, a character string indicating a subject or a character string extracted from a conversation, one or a plurality of deviation information (for example, a character string, an image, a sound, etc.), a priority, and a last use time Are associated with each other. The character string is, for example, a character string generated by applying voice recognition processing to voice data during conversation. Each deviation information is associated with a stagnation degree (stagnation level) and a deviation degree (deviation level).

優先順位は、逸脱情報の提供の順位であり、予め定められている。例えば、逸脱情報に対応付けられている文字列が抽出された会議において、人のアイデアを誘発する効果があると想定される逸脱情報の優先順位ほど上位に設定される。例えば、優先順位が上位の逸脱情報から順番に提供される。例えば、提供部34は、優先順位が1番の逸脱情報を予め定められた期間にわたって提供し、その期間終了後、優先順位が2番の逸脱情報を当該期間にわたって提供する。優先順位が3番以降の逸脱情報についても同様である。これにより、優先順位に従った順番で、各逸脱情報が提供される。提供部34は、優先順位に従って複数の逸脱情報の組み合わせを形成し、その組み合わせを提供してもよい。例えば、2つの逸脱情報によって組み合わせを形成する場合、提供部34は、優先順位が1番と2番の逸脱情報の組み合わせを上記期間にわたって提供し、次に、2番と3番の逸脱情報の組み合わせ(又は、3番と4番の逸脱情報の組み合わせ)を上記期間にわたって提供し、以降の優先順位についても同様に組み合わせを提供する。別の例として、提供部34は、優先順位が上位の逸脱情報と下位の逸脱情報との組み合わせを提供してもよい。例えば、提供部34は、優先順位が1番の逸脱情報と最下位の逸脱情報との組み合わせを上記期間にわたって提供し、次に、優先順位が2番の逸脱情報と最下位から2番目の逸脱情報との組み合わせを上記期間にわたって提供し、以降の優先順位についても同様に組み合わせを提供する。このように、各種の組み合わせを提供することで、意外性のある情報が参加者に提供され、参加者のアイデアが誘発され得る。   The priority order is the order of provision of deviation information and is determined in advance. For example, in a meeting in which a character string associated with departure information is extracted, the priority of departure information that is assumed to have an effect of inducing a human idea is set higher. For example, the priority is provided in order from the deviation information of higher rank. For example, the providing unit 34 provides the deviation information with the first priority for a predetermined period, and provides the deviation information with the second priority for the period after the period ends. The same applies to deviation information whose priority is No. 3 and thereafter. Thereby, each deviation information is provided in the order according to the priority. The providing unit 34 may form a combination of a plurality of deviation information according to the priority order and provide the combination. For example, when a combination is formed by two pieces of deviation information, the providing unit 34 provides a combination of the pieces of deviation information having the first priority and the second priority over the above period, and then the second and third pieces of deviation information. A combination (or a combination of No. 3 and No. 4 deviation information) is provided over the above-described period, and combinations are similarly provided for the subsequent priorities. As another example, the providing unit 34 may provide a combination of deviation information with higher priority and lower deviation information. For example, the providing unit 34 provides a combination of the deviation information with the first priority and the deviation information with the lowest priority over the period, and then the deviation information with the second priority and the second deviation from the lowest. A combination with information is provided over the above period, and a combination is similarly provided for subsequent priorities. Thus, by providing various combinations, unexpected information can be provided to the participants, and the ideas of the participants can be induced.

停滞度は、例えば1〜10の間の値に設定されている。数値が大きいほど停滞の程度が高い。文字列との関連性がより低いと想定される逸脱情報に、より高い停滞度が対応付けられている。これにより、より高い停滞度が検知される場合等のように、会議がより停滞しているほど、意外性のより高い情報が提供され、参加者のアイデアの誘発が促される。なお、各逸脱情報の停滞度は予め定められていてもよいし、ユーザによって変更されてもよい。例えば、検知部32によって会議の停滞度が判定された場合、提供部34は、その停滞度に対応付けられている逸脱情報を提供する。   The stagnation degree is set to a value between 1 and 10, for example. The larger the value, the higher the degree of stagnation. A higher degree of stagnation is associated with deviation information that is assumed to be less relevant to a character string. As a result, as the degree of stagnation is detected, the more stagnant the conference is, the more unexpected information is provided, and the participants' ideas are induced. In addition, the stagnation degree of each deviation information may be predetermined and may be changed by the user. For example, when the stagnation degree of the meeting is determined by the detection unit 32, the providing unit 34 provides deviation information associated with the stagnation degree.

逸脱度は、例えば1〜10の間の値に設定されている。数値が大きいほど逸脱の程度が高い。文字列との関連性がより低いと想定される逸脱情報に、より高い逸脱度が対応付けられている。これにより、より高い逸脱度が設定された場合、意外性のより高い情報が提供され、参加者のアイデアの誘発が促される。例えば、逸脱度が設定されている場合、提供部34は、その逸脱度に対応付けられている逸脱情報を提供する。   The deviation degree is set to a value between 1 and 10, for example. The larger the value, the higher the degree of deviation. A higher degree of deviation is associated with deviation information that is assumed to be less relevant to the character string. As a result, when a higher degree of departure is set, more unexpected information is provided and the participants are encouraged to induce ideas. For example, when the departure degree is set, the providing unit 34 provides departure information associated with the departure degree.

以下、図6を参照して、逸脱情報の提供例について説明する。図6には、表示部の画面の一例が示されている。画面60は、例えば、ロボット装置10のUI部46の表示部に表示される画面である。画面60には、画像62,64が表示されている。画像62,64は、提供部34によって提供された逸脱情報である。画像62は「ロケット」を表わす画像であり、画像64は「ケーキ」を表わす画像である。例えば、会議の会話から「車」という文字列が抽出された場合、その「車」から逸れた意味や印象を有する「ロケット」を表わす画像62と「ケーキ」を表わす画像64とが表示される。上記の優先度に従って画像62,64が表示されてもよいし、停滞度や逸脱度に従って画像62,64が表示されてもよい。   Hereinafter, an example of providing deviation information will be described with reference to FIG. FIG. 6 shows an example of the screen of the display unit. The screen 60 is a screen displayed on the display unit of the UI unit 46 of the robot apparatus 10, for example. On the screen 60, images 62 and 64 are displayed. The images 62 and 64 are deviation information provided by the providing unit 34. The image 62 is an image representing “rocket”, and the image 64 is an image representing “cake”. For example, when the character string “car” is extracted from the conversation of the meeting, an image 62 representing “rocket” and an image 64 representing “cake” having a meaning and impression deviating from the “car” are displayed. . The images 62 and 64 may be displayed according to the above priority, and the images 62 and 64 may be displayed according to the stagnation degree and the deviation degree.

図6に示す例では、逸脱情報として2つの画像が表示されているが、1つの画像が表示されてもよいし、3つ以上の画像が表示されてもよい。提供部34は、逸脱情報としての複数の画像をランダムに表示部に表示させてもよい。   In the example shown in FIG. 6, two images are displayed as the deviation information. However, one image may be displayed, or three or more images may be displayed. The providing unit 34 may display a plurality of images as deviation information on the display unit at random.

提供部34は、ロボット装置10以外の装置(例えば、ユーザの端末装置や表示装置等)に逸脱情報としての画像を表示させてもよいし、プロジェクタによって、その画像を物体(例えば、壁、テーブル、スクリーン等)に投影してもよい。提供部34は、表示場所を変えながら各画像を表示してもよい。例えば、提供部34は、予め定められた時間間隔で、又は、ランダムの時間間隔で、各画像の表示場所を変えながら各画像を表示してもよい。   The providing unit 34 may display an image as deviation information on a device other than the robot device 10 (for example, a user terminal device or a display device), or the image may be displayed on an object (for example, a wall or a table) by a projector. , Screen, etc.). The providing unit 34 may display each image while changing the display location. For example, the providing unit 34 may display each image while changing the display location of each image at a predetermined time interval or at a random time interval.

提供部34は、逸脱情報としての画像の表示態様を変えてもよい。例えば、提供部34は、ポップアップ形式で画像を表示してもよいし、画像を拡大又は縮小して表示してもよいし、各画像の表示位置を変えてもよいし、各画像の色を変えて表示してもよい。提供部34は、同じ画像であっても、画像のサイズや表示位置や色を変えながら各画像を表示してもよい。提供部34は、優先順位が上位の画像を下位の画像よりも優先的に表示してもよいし、逸脱度が高い画像を低い画像よりも優先的に表示してもよい。優先的に表示するとは、例えば、画像を拡大して表示すること、画面の中央付近に表示すること、表示時間を長くすること、先に表示すること、等である。   The providing unit 34 may change the display mode of the image as the deviation information. For example, the providing unit 34 may display an image in a pop-up format, may display an enlarged or reduced image, may change the display position of each image, and may change the color of each image. You may change and display. The providing unit 34 may display each image while changing the size, display position, and color of the image even in the same image. The providing unit 34 may preferentially display an image with a higher priority than a lower image, or may display an image with a high degree of deviation preferentially over an image with a low degree of priority. Displaying preferentially includes, for example, displaying an enlarged image, displaying near the center of the screen, increasing the display time, displaying first, and the like.

また、提供部34は、逸脱情報としての文字列を検索キーとして用いて、その文字列に関連する画像を検索し、その画像を逸脱情報として提供してもよい。その検索は、例えば、画像データベースを対象にして行われてもよいし、インターネットを利用して行われてもよい。   The providing unit 34 may search for an image related to the character string using the character string as the deviation information as a search key, and provide the image as the deviation information. The search may be performed on an image database, for example, or may be performed using the Internet.

図6に示す例では、逸脱情報として画像のみが用いられているが、提供部34は、逸脱情報としての文字列を表示してもよいし、その文字列を表わす音声をスピーカから発してもよい。このとき、提供部34は、文字列の表示態様を変えてもよいし、音量を変えてもよい。もちろん、提供部34は、逸脱情報としての画像と文字列とを組み合わせて提供してもよい。   In the example shown in FIG. 6, only an image is used as the deviation information. However, the providing unit 34 may display a character string as the deviation information, or may emit a voice representing the character string from the speaker. Good. At this time, the providing unit 34 may change the display mode of the character string or may change the volume. Of course, the providing unit 34 may provide a combination of an image and a character string as deviation information.

上記のように逸脱情報が提供されると、検知部32によって参加者の反応が検知され、その反応を示す情報が履歴情報56として記録される。   When the deviation information is provided as described above, the reaction of the participant is detected by the detection unit 32, and information indicating the reaction is recorded as the history information 56.

本実施形態によれば、例えば、会議が停滞しているときに、逸脱情報が提供される。会議の参加者が逸脱情報を参考にすることで、アイデアが誘発され得る。例えば、逸脱情報としての画像が表す物体の形状や印象、逸脱情報としての文字列の意味、音声がもつ意味等からユーザが影響を受けて、アイデアが誘発され得る。   According to the present embodiment, for example, deviation information is provided when the conference is stagnant. Ideas can be triggered by meeting participants referring to deviation information. For example, the user can be influenced by the shape and impression of the object represented by the image as the deviation information, the meaning of the character string as the deviation information, the meaning of the voice, etc., and the idea can be induced.

また、会議の参加者自身が逸脱情報を用意すると、参加者の趣味趣向によって、用意される逸脱情報の特徴が変わる。例えば、同じ又は似た趣味趣向を有する複数の参加者が逸脱情報を用意すると、用意された逸脱情報の特徴に偏りが生じ得るので(例えば、同じような特徴を有する逸脱情報が用意される可能性が高いので)、そのような逸脱情報を提供したとしても、新たなアイデアは誘発され難くなる。本実施形態では、ロボット装置10が逸脱情報を選択して提供するので、会議の参加者自身が逸脱情報を用意せずに済み、また、参加者の趣味趣向の影響を受けないので、参加者のアイデアを誘発し易い情報を提供できる。   Further, when the conference participants themselves prepare the deviation information, the characteristics of the prepared deviation information change depending on the hobbies and preferences of the participants. For example, if a plurality of participants having the same or similar hobbies and preferences prepare deviation information, deviations may occur in the characteristics of the prepared deviation information (for example, deviation information having similar characteristics can be prepared. Even if such deviation information is provided, new ideas are less likely to be triggered. In this embodiment, since the robot apparatus 10 selects and provides the deviation information, it is not necessary for the participant of the conference to prepare the deviation information, and the participant's hobbies and preferences are not affected. Can provide information that is easy to induce ideas.

以下、変形例について説明する。   Hereinafter, modified examples will be described.

提供部34は、会議の内容に関連する情報(例えば主題関連情報)を提供し、会議が進行した後、逸脱情報を提供してもよい。提供部34は、会議の初期段階(例えば、会議開始時点から予め定められた時間内)では、会議の内容から抽出された会議の主題に対応付けられている主題関連情報(例えば、文字列や画像や音声等)や、会議の会話から抽出された文字列に対応付けられている主題関連情報を提供し、その後、例えば、会議開始時点から予め定められた時間が経過した後、又は、会議の停滞が検知された場合に、逸脱情報を提供する。   The providing unit 34 may provide information related to the content of the conference (for example, subject-related information), and may provide deviation information after the conference proceeds. In the initial stage of the conference (for example, within a predetermined time from the start of the conference), the providing unit 34 provides subject-related information (for example, a character string or the like) associated with the conference subject extracted from the content of the conference. Image, sound, etc.) and subject-related information associated with a character string extracted from the conversation of the conference, and then, for example, after a predetermined time has elapsed since the start of the conference, or Deviation information is provided when a stagnation is detected.

主題関連情報の提供する場合、提供部34は、会議での出現頻度が高い文字列ほど優先順位を高くし、優先順位の高い文字列に対応付けられている主題関連情報を、優先順位の低い文字列に対応付けられている主題関連情報よりも先に提供してもよい。提供部34は、段階的に主題関連情報を変えて提供してもよい。例えば、提供部34は、優先順位が1位の文字列(出現頻度が最大の文字列)に対応付けられている主題関連情報を、予め定められた期間にわたって提供し、その期間の経過後、優先順位が2位の文字列に対応付けられている主題関連情報を、その期間にわたって提供し、優先順位が3位以降の文字列についても同様の処理を行う。これにより、会議の内容との関連性がより高い主題関連情報が先に提供され、段階的に、その関連性がより低い主題関連情報が提供される。   When the subject related information is provided, the providing unit 34 increases the priority order of the character string having a higher appearance frequency in the meeting, and the subject related information associated with the character string having the higher priority order has a lower priority order. You may provide before the theme relevant information matched with the character string. The providing unit 34 may provide the subject-related information by changing it step by step. For example, the providing unit 34 provides subject-related information associated with a character string having the highest priority (a character string having the highest appearance frequency) over a predetermined period, and after the period, The subject-related information associated with the character string with the second highest priority is provided over that period, and the same processing is performed for the character strings with the third highest priority. As a result, the subject-related information that is more relevant to the content of the conference is provided first, and the subject-related information that is less relevant is provided step by step.

提供部34は、会議の会話から抽出された文字列を検索キーとして、インターネット等を利用して、その文字列に関連する主題関連情報を検索し、その主題関連情報を提供してもよい。この場合、提供部34は、出現頻度の高い文字列のみを用いて主題関連情報を検索してもよいし、出現頻度の高い文字列と低い文字列とを用いて主題関連情報を検索してもよいし、出現頻度の低い文字列のみを用いて主題関連情報を検索してもよい。出現頻度の高い文字列のみを用いる場合、提供部34は、例えば、出現頻度が予め定められた閾値以上となる1又は複数の文字列を用いて、主題関連情報を検索する。出現頻度が閾値以上となる複数の文字列を用いる場合、提供部34は、それら複数の文字列の組み合わせを用いてAND検索を行ってもよいし、各文字列を単独の検索キーとして用いて主題関連情報を検索してもよい(OR検索)。出現頻度の低い文字列のみ用いる場合、提供部34は、例えば、出現頻度が予め定められた閾値未満となる1又は複数の文字列を用いて、主題関連情報を検索する。出現頻度が閾値未満となる複数の文字列を用いる場合、提供部34は、それら複数の文字列の組み合わせを用いてAND検索を行ってもよいし、各文字列を単独の検索キーとして用いて主題関連情報を検索してもよい(OR検索)。出現頻度の高い文字列と低い文字列とを用いて主題関連情報を検索する場合、提供部34は、それら複数の文字列の組み合わせを用いてAND検索を行ってもよいし、各文字列を単独の検索キーとして用いて主題関連情報を検索してもよい(OR検索)。   The providing unit 34 may search the subject related information related to the character string using the character string extracted from the conference conversation as a search key and provide the subject related information. In this case, the providing unit 34 may search for the subject related information using only the character string having the high appearance frequency, or may search the subject related information using the character string having the high appearance frequency and the character string having the low appearance frequency. Alternatively, the subject-related information may be searched using only a character string having a low appearance frequency. When only a character string having a high appearance frequency is used, the providing unit 34 searches for subject-related information using, for example, one or a plurality of character strings whose appearance frequency is equal to or higher than a predetermined threshold. When using a plurality of character strings whose appearance frequency is equal to or higher than the threshold, the providing unit 34 may perform an AND search using a combination of the plurality of character strings, or each character string may be used as a single search key. The subject related information may be searched (OR search). When only a character string with a low appearance frequency is used, the providing unit 34 searches for subject-related information using, for example, one or a plurality of character strings whose appearance frequency is less than a predetermined threshold. When using a plurality of character strings whose appearance frequency is less than the threshold, the providing unit 34 may perform an AND search using a combination of the plurality of character strings, or using each character string as a single search key. The subject related information may be searched (OR search). When searching for subject-related information using a character string having a high appearance frequency and a character string having a low appearance frequency, the providing unit 34 may perform an AND search using a combination of the plurality of character strings. The subject related information may be searched using as a single search key (OR search).

また、提供部34は、逸脱度が低い逸脱情報を、逸脱度の高い逸脱情報よりも先に提供してもよい。提供部34は、段階的に逸脱情報を変えて提供してもよい。例えば、提供部34は、逸脱度が最低(例えば1)の逸脱情報を、予め定められた期間にわたって提供し、その期間の経過後、逸脱度が最低から2番目(例えば2)の逸脱情報を、その期間にわたって提供し、逸脱度が最低から3番目(例えば3)以降の逸脱情報についても同様の処理を行う。これにより、会議の内容からの逸脱の程度がより低い逸脱情報が先に提供され、段階的に、その逸脱の程度がより大きい逸脱情報が提供される。このように、会議の進行に合わせて逸脱の程度がより大きくなる逸脱情報を提供することで、会議が徐々に停滞していく状況に対処することができる。   Further, the providing unit 34 may provide the deviation information having a low deviation degree before the deviation information having a high deviation degree. The providing unit 34 may provide the deviation information in stages. For example, the providing unit 34 provides the deviation information having the lowest deviation degree (for example, 1) over a predetermined period, and after the period, the deviation information having the second deviation degree (for example, 2) from the lowest degree is provided. The same processing is performed for deviation information that is provided over the period and the degree of deviation is the third (for example, 3) from the lowest. Thereby, deviation information with a lower degree of deviation from the content of the conference is provided first, and deviation information with a larger degree of deviation is provided step by step. In this way, by providing deviation information in which the degree of deviation becomes larger as the conference progresses, it is possible to cope with a situation where the conference is gradually stagnated.

提供部34は、段階的に主題関連情報を変えて提供し、会議の停滞が検知された場合、段階的に逸脱情報を変えて提供してもよい。例えば、提供部34は、出現頻度に応じた優先順位に従って主題関連情報を段階的に変えて提供し、会議の停滞が検知された場合、逸脱度に応じた順位に従って逸脱情報を段階的に変えて提供してもよい。このように情報を提供することで、会議が停滞していない間は、会議の主題に関連のある情報を参加者に提供して、活発な議論を促すことができ、会議が停滞した場合には、逸脱情報のように意外性のある情報を提供することで、新たなアイデアの誘発を促すことができる。   The providing unit 34 may change and provide the subject-related information in stages, and may provide the deviation information in stages when the stagnation of the meeting is detected. For example, the providing unit 34 provides the subject-related information in stages according to the priority order according to the appearance frequency, and when the stagnation of the meeting is detected, the provision information 34 is changed in stages according to the order according to the degree of deviation. May be provided. Providing information in this way can provide participants with information relevant to the subject of the meeting to encourage active discussion while the meeting is not stagnant. Provides unexpected information such as deviation information, and can induce new ideas.

提供部34は、会議の参加者に応じて逸脱情報を変更して提供してもよい。例えば、逸脱情報管理情報54において、各逸脱情報に、参加者(ユーザ)を識別するためのユーザ識別情報が対応付けられている。参加者が識別されると、提供部34は、その識別された参加者のユーザ識別情報が対応付けられている逸脱情報を提供する。これにより、参加者に応じて逸脱情報が変更されて提供される。また、各参加者のユーザ識別情報に逸脱度が対応付けられて、参加者毎に逸脱度が設定されていてもよい。この対応付けを示す情報は、例えば記憶部48に記憶されている。参加者が識別されると、提供部34は、その識別された参加者のユーザ識別情報が対応付けられている逸脱度に対応付けられている逸脱情報を提供する。上述したように、提供部34は、参加者の履歴情報を用いて逸脱情報を選択して提供してもよい。参加者は、例えば、画像認識処理、音声認識処理、等によって識別される。   The providing unit 34 may change and provide the deviation information according to the conference participants. For example, in the deviation information management information 54, each deviation information is associated with user identification information for identifying a participant (user). When the participant is identified, the providing unit 34 provides deviation information associated with the user identification information of the identified participant. Thereby, deviation information is changed and provided according to a participant. Moreover, the departure degree may be associated with the user identification information of each participant, and the departure degree may be set for each participant. Information indicating this association is stored in the storage unit 48, for example. When the participant is identified, the providing unit 34 provides deviation information associated with the degree of deviation associated with the user identification information of the identified participant. As described above, the providing unit 34 may select and provide deviation information using the participant history information. Participants are identified by, for example, image recognition processing, voice recognition processing, and the like.

提供部34は、会議の複数の参加者の組み合わせに応じて逸脱情報を変更して提供してもよい。例えば、逸脱情報管理情報54において、各逸脱情報に、複数のユーザ識別情報が対応付けられており、複数の参加者が識別されると、提供部34は、識別された複数の参加者のユーザ識別情報が対応付けられている逸脱情報を提供する。これにより、複数の参加者に応じて逸脱情報が変更されて提供される。   The providing unit 34 may change and provide deviation information according to a combination of a plurality of participants in the conference. For example, in the deviation information management information 54, each piece of deviation information is associated with a plurality of pieces of user identification information, and when a plurality of participants are identified, the providing unit 34 identifies the users of the plurality of identified participants. Deviation information associated with identification information is provided. Thereby, deviation information is changed and provided according to a plurality of participants.

上記のロボット装置10は、一例としてハードウェアとソフトウェアとの協働により実現される。具体的には、ロボット装置10は、図示しないCPU等の1又は複数のプロセッサを備えている。当該1又は複数のプロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、ロボット装置10の各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。別の例として、ロボット装置10の各部は、例えばプロセッサや電子回路やASIC(Application Specific Integrated Circuit)等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。更に別の例として、ロボット装置10の各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。   The robot apparatus 10 is realized by cooperation of hardware and software as an example. Specifically, the robot apparatus 10 includes one or more processors such as a CPU (not shown). The function of each unit of the robot apparatus 10 is realized by the one or more processors reading and executing a program stored in a storage device (not shown). The program is stored in the storage device via a recording medium such as a CD or DVD, or via a communication path such as a network. As another example, each unit of the robot apparatus 10 may be realized by hardware resources such as a processor, an electronic circuit, and an ASIC (Application Specific Integrated Circuit). In the realization, a device such as a memory may be used. As yet another example, each unit of the robot apparatus 10 may be realized by a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or the like.

10 ロボット装置、28 状況収集部、30 認識処理部、32 検知部、34 提供部、36 設定部、38 履歴管理部。
DESCRIPTION OF SYMBOLS 10 Robot apparatus, 28 Status collection part, 30 Recognition processing part, 32 Detection part, 34 Provision part, 36 Setting part, 38 History management part.

Claims (14)

会議の状況を検知する検知手段と、
前記会議の主題から逸れた逸脱情報を提供する提供手段と、
を有するロボット装置。
Detection means for detecting the status of the meeting;
Providing means for providing deviation information deviating from the subject of the meeting;
A robot apparatus having:
前記検知手段が前記会議の停滞を検知した場合、前記提供手段は前記逸脱情報を提供する、
ことを特徴とする請求項1に記載のロボット装置。
If the detecting means detects a stagnation of the meeting, the providing means provides the deviation information;
The robot apparatus according to claim 1.
前記提供手段は、前記会議の停滞の程度に応じて前記逸脱情報を変更して提供する、
ことを特徴とする請求項2に記載のロボット装置。
The providing means changes and provides the deviation information according to the degree of stagnation of the conference.
The robot apparatus according to claim 2.
前記検知手段は、前記会議の参加者の会話、参加者の表情、及び、沈黙時間の長さの中の少なくとも1つに基づいて、前記会議の停滞を検知する、
ことを特徴とする請求項2又は請求項3に記載のロボット装置。
The detection means detects the stagnation of the conference based on at least one of the conversation of the participant of the conference, the facial expression of the participant, and the length of the silence time.
The robot apparatus according to claim 2 or claim 3, wherein
前記提供手段は、前記会議の主題に沿った情報を提供している合間に前記逸脱情報を提供する、
ことを特徴とする請求項1から請求項4何れかに記載のロボット装置。
The providing means provides the deviation information in between while providing information in line with the subject of the meeting;
The robot apparatus according to any one of claims 1 to 4, wherein the robot apparatus is characterized.
前記提供手段は、前記会議の内容からの逸脱の程度を示す逸脱度に応じて、前記逸脱情報を変更して提供する、
ことを特徴とする請求項5に記載のロボット装置。
The providing means changes and provides the deviation information according to the degree of deviation indicating the degree of deviation from the content of the meeting.
The robot apparatus according to claim 5.
前記提供手段は、前記逸脱度に応じて、前記会議の主題に関連する情報の提供と前記逸脱情報の提供とを切り替える、
ことを特徴とする請求項5に記載のロボット装置。
The providing means switches between providing information related to the subject of the meeting and providing the deviation information according to the degree of deviation.
The robot apparatus according to claim 5.
前記提供手段は、前記逸脱度が閾値以下の場合、前記会議の主題に関連する情報であって前記会議に出現しなかった情報を提供し、前記逸脱度が閾値よりも大きい場合、前記逸脱情報として提供する、
ことを特徴とする請求項7に記載のロボット装置。
The providing means provides information related to the subject of the meeting and not appearing in the meeting when the degree of departure is less than or equal to a threshold, and when the degree of departure is larger than the threshold, the deviation information As offered,
The robot apparatus according to claim 7.
前記提供手段は、前記会議の参加者に応じて前記逸脱情報を変更して提供する、
ことを特徴とする請求項1から請求項4何れかに記載のロボット装置。
The providing means changes and provides the deviation information according to participants of the conference.
The robot apparatus according to any one of claims 1 to 4, wherein the robot apparatus is characterized.
前記提供手段は、前記会議の複数の参加者の組み合わせに応じて前記逸脱情報を変更して提供する、
ことを特徴とする請求項9に記載のロボット装置。
The providing means changes and provides the deviation information according to a combination of a plurality of participants in the conference.
The robot apparatus according to claim 9.
前記逸脱情報に対する参加者の反応の履歴を管理する履歴管理手段を更に有し、
前記提供手段は、前記履歴に応じて前記逸脱情報を変更して提供する、
ことを特徴とする請求項1から請求項4何れかに記載のロボット装置。
History management means for managing the history of the participant's response to the deviation information;
The providing means changes and provides the deviation information according to the history;
The robot apparatus according to any one of claims 1 to 4, wherein the robot apparatus is characterized.
文字列毎に、文字列と前記逸脱情報とを対応付けて記憶する記憶手段を更に有し、
前記提供手段は、前記会議の会話から検出された文字列に対応付けられている前記逸脱情報を提供する、
ことを特徴とする請求項1から請求項11何れかに記載のロボット装置。
For each character string, it further comprises storage means for storing the character string and the deviation information in association with each other,
The providing means provides the deviation information associated with a character string detected from a conversation of the meeting.
The robot apparatus according to any one of claims 1 to 11, wherein the robot apparatus is characterized.
前記逸脱情報は、文字列、画像及び音の中の少なくとも1つを含む、
ことを特徴とする請求項1から請求項12何れかに記載のロボット装置。
The deviation information includes at least one of a character string, an image, and a sound.
The robot apparatus according to any one of claims 1 to 12, wherein the robot apparatus is characterized.
コンピュータを、
会議の状況を検知する検知手段、
前記会議の主題から逸れた逸脱情報を提供する提供手段、
として機能させるプログラム。
Computer
Detection means for detecting the status of the meeting,
Providing means for providing deviation information deviating from the subject of the meeting;
Program to function as.
JP2017085220A 2017-04-24 2017-04-24 Robot devices and programs Active JP6864831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017085220A JP6864831B2 (en) 2017-04-24 2017-04-24 Robot devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017085220A JP6864831B2 (en) 2017-04-24 2017-04-24 Robot devices and programs

Publications (2)

Publication Number Publication Date
JP2018186326A true JP2018186326A (en) 2018-11-22
JP6864831B2 JP6864831B2 (en) 2021-04-28

Family

ID=64355167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017085220A Active JP6864831B2 (en) 2017-04-24 2017-04-24 Robot devices and programs

Country Status (1)

Country Link
JP (1) JP6864831B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021070733A1 (en) * 2019-10-11 2021-04-15 ソニー株式会社 Information processing device, information processing method, and program
JPWO2021171606A1 (en) * 2020-02-28 2021-09-02
JP7427405B2 (en) 2019-09-30 2024-02-05 Tis株式会社 Idea support system and its control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137875A (en) * 1994-11-14 1996-05-31 Atr Tsushin Syst Kenkyusho:Kk Conversation activation device
JP2010128281A (en) * 2008-11-28 2010-06-10 Waseda Univ Interaction activating system and interaction activating robot
JP2014085916A (en) * 2012-10-25 2014-05-12 Ricoh Co Ltd Information presentation system, information presentation device, and program
JP2017068706A (en) * 2015-09-30 2017-04-06 富士通株式会社 Identification program, identification method, identification device, and analysis method of provided information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08137875A (en) * 1994-11-14 1996-05-31 Atr Tsushin Syst Kenkyusho:Kk Conversation activation device
JP2010128281A (en) * 2008-11-28 2010-06-10 Waseda Univ Interaction activating system and interaction activating robot
JP2014085916A (en) * 2012-10-25 2014-05-12 Ricoh Co Ltd Information presentation system, information presentation device, and program
JP2017068706A (en) * 2015-09-30 2017-04-06 富士通株式会社 Identification program, identification method, identification device, and analysis method of provided information

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7427405B2 (en) 2019-09-30 2024-02-05 Tis株式会社 Idea support system and its control method
WO2021070733A1 (en) * 2019-10-11 2021-04-15 ソニー株式会社 Information processing device, information processing method, and program
JPWO2021171606A1 (en) * 2020-02-28 2021-09-02
WO2021171606A1 (en) * 2020-02-28 2021-09-02 日本電気株式会社 Server device, conference assisting system, conference assisting method, and program
JP7371759B2 (en) 2020-02-28 2023-10-31 日本電気株式会社 Server device, conference support system, conference support method and program

Also Published As

Publication number Publication date
JP6864831B2 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
JP6816925B2 (en) Data processing method and equipment for childcare robots
CN110998725B (en) Generating a response in a dialog
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
CN112074899A (en) System and method for intelligent initiation of human-computer dialog based on multimodal sensory input
JP5040865B2 (en) Robot control system, remote management device, remote management method and program
US8538750B2 (en) Speech communication system and method, and robot apparatus
CN112199002B (en) Interaction method and device based on virtual role, storage medium and computer equipment
JP6729571B2 (en) Information processing apparatus, information processing method, and program
KR20180129886A (en) Persistent companion device configuration and deployment platform
CN107480766B (en) Method and system for content generation for multi-modal virtual robots
US20190035394A1 (en) Proactive chatting apparatus
JP2019091387A (en) Information processing apparatus and program
JP6864831B2 (en) Robot devices and programs
KR20200097637A (en) Simulation sandbox system
JP6040745B2 (en) Information processing apparatus, information processing method, information processing program, and content providing system
JPWO2016136104A1 (en) Information processing apparatus, information processing method, and program
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
WO2020116233A1 (en) Information processing device, information processing method, and program
CN111324409A (en) Artificial intelligence-based interaction method and related device
JP7439826B2 (en) Information processing device, information processing method, and program
WO2016157993A1 (en) Information processing device, information processing method, and program
WO2016206643A1 (en) Method and device for controlling interactive behavior of robot and robot thereof
CN112820265B (en) Speech synthesis model training method and related device
JP2019046250A (en) Program executed by computer to provide virtual space, method thereof, information processing apparatus for executing said program
JP2021033676A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6864831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150