JP2015169702A - Emotion determination device and emotion determination method - Google Patents

Emotion determination device and emotion determination method Download PDF

Info

Publication number
JP2015169702A
JP2015169702A JP2014042577A JP2014042577A JP2015169702A JP 2015169702 A JP2015169702 A JP 2015169702A JP 2014042577 A JP2014042577 A JP 2014042577A JP 2014042577 A JP2014042577 A JP 2014042577A JP 2015169702 A JP2015169702 A JP 2015169702A
Authority
JP
Japan
Prior art keywords
information
emotion
character
user terminal
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014042577A
Other languages
Japanese (ja)
Inventor
哲 渋谷
Tetsu Shibuya
哲 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2014042577A priority Critical patent/JP2015169702A/en
Publication of JP2015169702A publication Critical patent/JP2015169702A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable grasping human emotion more accurately.SOLUTION: The emotion determination device of the present invention comprises: an information acquisition part for acquiring non-character information, and non-character related information which is at least one of acquisition position information indicative of a position in which the non-character information was acquired, time information indicative of time when the non-character information was acquired, and environment information indicative of the environment of the position in which the non-character information was acquired; a non-character information storage part for storing the non-character information in association with the non-character related information; and an emotion determination part for determining human emotion on the basis of the non-character information and the non-character related information.

Description

本発明は、感情判断装置および感情判断方法に関する。   The present invention relates to an emotion determination device and an emotion determination method.

従来、入力判断部121により、入力された言語情報が感情表現を示す言語情報であることが判断され、ユーザ協調性制御部123により、入力された言語情報が感情を表す言語情報であることを認識してユーザの感情を把握する技術が知られている。(特許文献1)。   Conventionally, the input determination unit 121 determines that the input language information is language information indicating emotional expression, and the user cooperation control unit 123 determines that the input language information is language information indicating emotion. A technique for recognizing and grasping a user's emotion is known. (Patent Document 1).

特開2005−222331号公報JP 2005-222331 A

ところで、人の感情は言語以外の情報にも端的に反映される。特に、人の感情は人の表情や会話、行動などに、より強く反映される。   By the way, human emotions are directly reflected in information other than language. In particular, human emotions are more strongly reflected in human facial expressions, conversations, and actions.

しかしながら、上述したようなユーザの感情を把握する技術では、入力された言語情報のみに基づいてユーザの感情を把握することはできるが、人の表情や会話、行動などが記録されている可能性のある、音声・画像・動画情報などの非言語情報に基づいて人の感情を判断できないため、人の感情をより正確に把握することができないという問題があった。   However, with the technology for grasping the user's emotion as described above, it is possible to grasp the user's emotion based only on the input language information, but there is a possibility that a person's facial expression, conversation, behavior, etc. are recorded. There is a problem in that it is impossible to determine a person's feelings more accurately because the person's feelings cannot be determined based on the non-linguistic information such as voice / image / video information.

そこで、本発明のいくつかの態様はかかる事情に鑑みてなされたものであり、音声・画像・動画情報などの非文字情報に基づいて人の感情を判断することにより、人の感情をより正確に把握することを目的の一つとし得る。   Accordingly, some aspects of the present invention have been made in view of such circumstances, and by determining a person's emotion based on non-text information such as voice, image, and video information, the person's emotion can be more accurately determined. One of the purposes can be to grasp.

上記課題を解決するために、本発明の一側面に係る感情判断装置は、非文字情報と、前記非文字情報を取得した位置を示す取得位置情報、前記非文字情報を取得した時間を示す時間情報、及び前記非文字情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである非文字関連情報と、を取得する情報取得部と、前記非文字情報を前記非文字関連情報と関連付けて記憶する非文字情報記憶部と、前記非文字情報と前記非文字関連情報とに基づいて人の感情を判断する感情判断部と、を備える。   In order to solve the above problem, an emotion determination apparatus according to one aspect of the present invention provides non-character information, acquisition position information indicating a position where the non-character information is acquired, and time indicating a time when the non-character information is acquired. Information and non-character related information that is at least one of environmental information indicating the environment of the position where the non-character information is acquired, an information acquisition unit that acquires the non-character information and the non-character related information A non-character information storage unit that stores the associated information; and an emotion determination unit that determines a human emotion based on the non-character information and the non-character related information.

また、本発明の一側面に係る感情判断方法は、非文字情報と、前記非文字情報を取得した位置を示す取得位置情報、前記非文字情報を取得した時間を示す時間情報、及び前記非文字情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである非文字関連情報と、を取得し、前記非文字情報を前記非文字関連情報と関連付けて記憶し、前記非文字情報と前記非文字関連情報とに基づいて人の感情を判断する。   The emotion determination method according to one aspect of the present invention includes non-character information, acquisition position information indicating a position where the non-character information is acquired, time information indicating a time when the non-character information is acquired, and the non-character. Non-character related information that is at least one of environment information indicating the environment of the position where the information was acquired, and stores the non-character information in association with the non-character related information, and the non-character information A human emotion is determined based on the non-character related information.

また、本発明の一側面に係るプログラムは、コンピュータに、非文字情報と、前記非文字情報を取得した位置を示す取得位置情報、前記非文字情報を取得した時間を示す時間情報、及び前記非文字情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである非文字関連情報と、を取得する機能と、前記非文字情報を前記非文字関連情報と関連付けて記憶する機能と、前記非文字情報と前記非文字関連情報とに基づいて人の感情を判断する機能と、を実行させる。   A program according to one aspect of the present invention provides a computer with non-character information, acquisition position information indicating a position where the non-character information is acquired, time information indicating a time when the non-character information is acquired, and the non-character information. A function of acquiring non-character related information that is at least one of environment information indicating an environment of the position where the character information has been acquired, and a function of storing the non-character information in association with the non-character related information; A function of judging a human emotion based on the non-character information and the non-character-related information.

なお、本発明において、「部」とは、単に物理的手段を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や装置の機能が1つの物理的手段や装置により実現されても良い。   In the present invention, the “part” does not simply mean a physical means, but includes a case where the function of the “part” is realized by software. Also, even if the functions of one “unit” or device are realized by two or more physical means or devices, the functions of two or more “units” or devices are realized by one physical means or device. May be.

本発明によれば、音声・画像・動画情報などの非文字情報に基づいて人の感情を判断するので、人の感情をより正確に把握することができる。   According to the present invention, since a person's emotion is determined based on non-character information such as voice, image, and moving image information, the person's emotion can be grasped more accurately.

本発明の第1実施形態に係る感情判断システムの一実施形態を示す概略構成図(システム構成図)である。It is a schematic block diagram (system block diagram) which shows one Embodiment of the emotion judgment system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る感情判断サーバの一実施形態を示す機能的構成を示すブロック図である。It is a block diagram which shows the functional structure which shows one Embodiment of the emotion judgment server which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る感情情報の提供の一例を示す図である。It is a figure which shows an example of provision of the emotion information which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る感情情報の提供のフローの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of provision of the emotion information which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る感情情報の提供の別のフローの一例を示すフローチャートである。It is a flowchart which shows an example of another flow of provision of the emotion information which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る感情情報の提供の別のフローの一例を示すフローチャートである。It is a flowchart which shows an example of another flow of provision of the emotion information which concerns on 3rd Embodiment of this invention.

以下、添付図面を参照しながら本発明の実施の形態について説明する。以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、様々な変形が可能である。さらに、各図面において同一の構成要素に対しては可能な限り同一の符号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiments are exemplifications for explaining the present invention, and are not intended to limit the present invention only to the embodiments. The present invention can be variously modified without departing from the gist thereof. Furthermore, in each drawing, the same components are denoted by the same reference numerals as much as possible, and redundant description is omitted.

まず、図1を参照して本発明の実施形態に係るシステムの全体構成を説明する。
図1は、本発明の第1実施形態に係る感情判断システム100の一実施形態を示す概略構成図(システム構成図)である。
First, an overall configuration of a system according to an embodiment of the present invention will be described with reference to FIG.
FIG. 1 is a schematic configuration diagram (system configuration diagram) showing an embodiment of an emotion determination system 100 according to the first embodiment of the present invention.

図1に示すように、本発明の実施の形態に係る感情判断システム100は、例示的に、感情判断サーバ1、ユーザ端末5a、5b、5c、5d、5e、及びネットワーク50を含んで構成されている。また、ネットワーク50は、例示的に、情報管理サーバ3a、3b、3cを含んで構成されている。   As shown in FIG. 1, the emotion determination system 100 according to the embodiment of the present invention is configured to include, for example, an emotion determination server 1, user terminals 5a, 5b, 5c, 5d, and 5e, and a network 50. ing. The network 50 is configured to include, for example, information management servers 3a, 3b, and 3c.

感情判断サーバ1は、ネットワーク50に接続されたサーバ用コンピュータであり、そのサーバ用コンピュータにおいて、図示しないCPU(Central Processing Unit:中央処理装置)が本発明に係るサーバ用プログラムを実行することにより、本発明に係る感情判断装置を機能的に実現させ、本発明に係る感情判断方法を実施するものである。   The emotion determination server 1 is a server computer connected to the network 50. In the server computer, a CPU (Central Processing Unit) (not shown) executes the server program according to the present invention. The emotion determination apparatus according to the present invention is functionally realized, and the emotion determination method according to the present invention is implemented.

ユーザ端末5a、5b、5c、5d、5eは、ネットワーク50に接続されたスマートフォンなどの携帯電話、タブレット端末、ラップトップ又はノートブック型コンピュータ等を含む、少なくとも情報を感情判断サーバ1との間で送受信する送受信機能を有する装置で構成されている。よって、ユーザ端末5a、5b、5c、5d、5eは、デスクトップコンピュータなど事業所内に備え付けられている端末であってもよい。また、ユーザ端末5a、5b、5c、5d、5eは、図3にて後述するが、ユーザ端末5a、5b、5c、5d、5eが備えるディスプレイにマップMを表示し、人の感情情報FIをさらに表示する機能を有する装置で構成されている。   The user terminals 5 a, 5 b, 5 c, 5 d, and 5 e include at least information with the emotion determination server 1, including mobile phones such as smartphones connected to the network 50, tablet terminals, laptops, notebook computers, and the like. It is comprised with the apparatus which has the transmission / reception function to transmit / receive. Therefore, the user terminals 5a, 5b, 5c, 5d, and 5e may be terminals provided in the office such as desktop computers. The user terminals 5a, 5b, 5c, 5d, and 5e are described later with reference to FIG. 3, but the map M is displayed on the display provided in the user terminals 5a, 5b, 5c, 5d, and 5e, and the human emotion information FI is displayed. Furthermore, it is comprised with the apparatus which has the function to display.

ネットワーク50は、所定のワイドエリアネットワーク(WAN:Wide Area Network)であり、例えばインターネットである。ネットワーク50の具体的な構成は、感情判断サーバ1及び情報管理サーバ3a、3b、3cの間で任意の情報の送受信が可能なように含んでいれば特に制限されない。ネットワーク50は、感情判断サーバ1に接続され、感情判断サーバ1がネットワーク50内の情報管理サーバ3a、3b、3cと相互に通信可能に接続されている。   The network 50 is a predetermined wide area network (WAN: Wide Area Network), for example, the Internet. The specific configuration of the network 50 is not particularly limited as long as the network 50 includes any information that can be transmitted and received between the emotion determination server 1 and the information management servers 3a, 3b, and 3c. The network 50 is connected to the emotion determination server 1, and the emotion determination server 1 is connected to the information management servers 3 a, 3 b, and 3 c in the network 50 so as to communicate with each other.

情報管理サーバ3a、3b、3cは、感情判断サーバ1と同様に、ネットワーク50に接続されたサーバ用コンピュータであり、そのサーバ用コンピュータにおいて図示しないCPUが所定のサーバ用プログラムを実行することにより、サーバ機能を発現するものである。   The information management servers 3a, 3b, and 3c are server computers connected to the network 50 in the same manner as the emotion determination server 1, and a CPU (not shown) in the server computer executes a predetermined server program. It expresses server functions.

情報管理サーバ3a、3b、3cは、ネットワーク50に接続され、図示しない端末装置(例えば、スマートフォンなどの携帯電話、タブレット端末、ラップトップ又はノートブック型コンピュータ等)、監視カメラなどの屋外に設置されている情報処理装置(不図示)、又は屋内に設置されている情報処理装置(不図示)などからの情報を収集する情報管理手段の例示である。例えば、このような情報管理サーバ3a、3b、3cは、個人のウェブページ、ブログ、SNS(ソーシャルネットワークサービス)、インターネット掲示板などのサービスを提供する管理業者や企業、個人のサーバである。情報管理サーバ3a、3b、3cは、不特定多数の人が、ウェブページ、ブログ、SNS(ソーシャルネットワークサービス)、インターネット掲示板などのいわゆるCGM(Consumer Generated Media)上に記載したテキスト(文書)などの文字情報を取得し、記憶する。また、情報管理サーバ3a、3b、3cは、CGM上に存在する音声情報、画像情報、動画情報、人・端末装置の動作情報、生体情報などの非文字情報を取得し、記憶する。さらに、情報管理サーバ3a、3b、3cは、情報管理サーバ3a、3b、3cと通信可能な端末装置(不図示)が取得又は保有する、音声情報、画像情報、動画情報、人・端末装置の動作情報、生体情報などの非文字情報を取得し、記憶する。情報管理サーバ3a、3b、3cは、これらの取得および記憶動作を、定期的にまたは不定期に繰り返して、ネットワーク50に新規に提供された情報をタイムリーに取得し、記憶している。   The information management servers 3a, 3b, and 3c are connected to the network 50 and installed outdoors such as a terminal device (not shown) (for example, a mobile phone such as a smartphone, a tablet terminal, a laptop or a notebook computer), and a surveillance camera. This is an example of information management means for collecting information from an information processing apparatus (not shown) or an information processing apparatus (not shown) installed indoors. For example, the information management servers 3a, 3b, and 3c are servers of management companies, companies, and individuals that provide services such as personal web pages, blogs, SNSs (social network services), and Internet bulletin boards. Information management servers 3a, 3b, and 3c can be used to create text (documents) written on so-called CGM (Consumer Generated Media) such as web pages, blogs, SNSs (social network services), and Internet bulletin boards. Acquire and store character information. Further, the information management servers 3a, 3b, and 3c acquire and store non-character information such as voice information, image information, moving image information, human / terminal device operation information, and biological information existing on the CGM. Furthermore, the information management servers 3a, 3b, and 3c are voice information, image information, video information, human / terminal device information that is acquired or held by a terminal device (not shown) that can communicate with the information management servers 3a, 3b, and 3c. Non-character information such as motion information and biological information is acquired and stored. The information management servers 3a, 3b, and 3c repeat these acquisition and storage operations regularly or irregularly to acquire and store information newly provided to the network 50 in a timely manner.

音声情報は、例えば、発声速度、声の強弱、声質、声の平均ピッチ、声のピッチ範囲、声のピッチ変化、発声の明瞭性などの情報を含む。画像情報・動画情報は、端末装置に備え付けのカメラ、屋外に設置されているカメラ(例えば監視カメラ)などによって撮影された写真、動画などを含む。人・端末装置の動作情報は、端末装置を所持している人の動きに基づく情報を含む。人・端末装置の動作情報は、例えば、端末装置を所持している人が、手に持っていたり、端末装置を置いたり、元気に歩いたり、とぼとぼ歩いたり、ゆっくり走ったり、急速に走ったり、スキップしたり、するような動きを反映する情報を含む。生体情報は、体温、心拍数、呼吸数などの情報を含む。これらの情報は、各情報の絶対値である必要はなく、程度(大きい、小さい、高い、低いなど)を示すものであってもよい。   The voice information includes, for example, information such as voice rate, voice strength, voice quality, voice average pitch, voice pitch range, voice pitch change, and voice clarity. The image information / moving image information includes a photograph, a moving image, and the like taken by a camera provided in the terminal device, a camera (for example, a surveillance camera) installed outdoors, and the like. The operation information of the person / terminal device includes information based on the movement of the person holding the terminal device. The operation information of the person / terminal device is, for example, that the person holding the terminal device holds it in his hand, puts the terminal device, walks well, walks slowly, runs slowly, runs rapidly , Including information that reflects movements such as skipping or doing. The biological information includes information such as body temperature, heart rate, and respiratory rate. These pieces of information need not be absolute values of each piece of information, and may indicate the degree (large, small, high, low, etc.).

また、情報管理サーバ3a、3b、3cは、非文字情報を取得した位置を示す取得位置情報、非文字情報を取得した時間を示す時間情報、及び非文字情報を取得した位置の環境を示す環境情報のうち少なくとも一つである非文字関連情報を取得し、記憶する。   In addition, the information management servers 3a, 3b, and 3c are the acquisition position information indicating the position where the non-character information is acquired, the time information indicating the time when the non-character information is acquired, and the environment indicating the environment of the position where the non-character information is acquired. Non-character related information that is at least one of the information is acquired and stored.

取得位置情報は、例えば、GPS(Global Positioning System)などの測位システムによる緯度経度の座標情報、住所や部屋番号などの地点情報などを含む。なお、取得位置情報は、非文字情報と独立して取得されるものであってもよいし、非文字情報である画像情報に埋め込まれている(記録されている)Exif(Exchangeable image file format)情報などの情報であってもよい。環境情報は、天気、気温、明るさ、室内であるか室外であるか、を示す情報などを含む。これらの情報は、絶対値である必要はなく、程度(明るい、暗い、高い、低いなど)を示すものであってもよい。   The acquired position information includes, for example, latitude and longitude coordinate information by a positioning system such as GPS (Global Positioning System), point information such as an address and a room number, and the like. Note that the acquisition position information may be acquired independently of non-character information, or Exif (Exchangeable image file format) embedded (recorded) in image information that is non-character information. Information such as information may be used. The environmental information includes information indicating weather, temperature, brightness, indoor or outdoor, and the like. These pieces of information do not need to be absolute values, and may indicate the degree (bright, dark, high, low, etc.).

なお、感情判断サーバ1は、情報管理サーバ3a、3b、3cから非文字情報及び非文字関連情報を受信する。また、情報管理サーバ3a、3b、3cは、非文字情報及び非文字関連情報のみ取得、記憶、送信するわけでなく、文字情報及び文字情報を取得した位置を示す取得位置情報、文字情報を取得した時間を示す時間情報、及び文字情報を取得した位置の環境を示す環境情報などを含む文字関連情報を取得、記憶、送信することができるように構成されている。   The emotion determination server 1 receives non-character information and non-character related information from the information management servers 3a, 3b, and 3c. In addition, the information management servers 3a, 3b, and 3c do not acquire, store, and transmit only non-character information and non-character related information, but acquire acquisition position information and character information indicating the position at which the character information and character information are acquired. Character-related information including time information indicating the time when the character information is acquired and environment information indicating the environment at the position where the character information is acquired can be acquired, stored, and transmitted.

このように、感情判断サーバ1と情報管理サーバ3a、3b、3cのそれぞれとの間、感情判断サーバ1とユーザ端末5a、5b、5c、5d、5eのそれぞれとの間において、互いに通信可能に設定されることにより、感情判断システム100が構成される。   As described above, communication between the emotion determination server 1 and each of the information management servers 3a, 3b, and 3c and between the emotion determination server 1 and each of the user terminals 5a, 5b, 5c, 5d, and 5e are possible. By being set, the emotion determination system 100 is configured.

なお、感情判断サーバ1は、所定のネットワーク内に分散された複数のサーバにより、1つの感情判断サーバ1として機能するように構成されていてもよい。   The emotion determination server 1 may be configured to function as one emotion determination server 1 by a plurality of servers distributed in a predetermined network.

図2は、本発明の第1実施形態に係る感情判断サーバ1の一実施形態を示す機能的構成を示すブロック図である。図2に示すように、感情判断サーバ1は、機能的に、情報処理部10、非文字情報記憶部12、及び感情情報記憶部14を含んで構成されている。   FIG. 2 is a block diagram showing a functional configuration showing an embodiment of the emotion determination server 1 according to the first embodiment of the present invention. As shown in FIG. 2, the emotion determination server 1 functionally includes an information processing unit 10, a non-character information storage unit 12, and an emotion information storage unit 14.

感情判断サーバ1の上記構成は、記憶領域に格納されているソフトウェアプログラムを図示しないCPUが実行することにより機能的に実現することができる。なお、感情判断サーバ1は、上記機能を持つものであれば、特に制限はなく、クラウド・コンピューティングなどで実現される場合も含む。   The configuration of the emotion determination server 1 can be functionally realized by a CPU (not shown) executing a software program stored in the storage area. The emotion determination server 1 is not particularly limited as long as it has the above functions, and includes cases where it is realized by cloud computing or the like.

情報処理部10は、非文字情報及び非文字関連情報以外の様々な情報を処理する機能ブロックであり、機能的に、情報取得部20、属性決定部22、感情判断部24、感情情報提供先特定部26、及び感情情報提供部28を含んで構成されている。   The information processing unit 10 is a functional block that processes various information other than non-character information and non-character related information. Functionally, the information acquisition unit 20, an attribute determination unit 22, an emotion determination unit 24, and an emotion information provider The identification unit 26 and the emotion information providing unit 28 are included.

情報取得部20は、情報管理サーバ3a、3b、3cから非文字情報及び非文字関連情報を取得する機能ブロックである。   The information acquisition unit 20 is a functional block that acquires non-character information and non-character related information from the information management servers 3a, 3b, and 3c.

非文字情報記憶部12は、情報取得部20が取得した非文字情報及び非文字関連情報について、非文字情報を非文字関連情報と関連付けて記憶する機能ブロックである。また、非文字情報記憶部12は、非文字情報及び非文字関連情報を、短期的に又は長期的に保持・管理できるように、そして容易に検索・抽出・出力などができるように構成されている。   The non-character information storage unit 12 is a functional block that stores non-character information in association with non-character related information for the non-character information and the non-character related information acquired by the information acquisition unit 20. Further, the non-character information storage unit 12 is configured so that non-character information and non-character related information can be held and managed in the short term or in the long term, and can be easily searched, extracted, output, and the like. Yes.

属性決定部22は、非文字情報に基づいて非文字情報に対応づけられる人の属性を決定する機能ブロックである。具体的に、属性決定部22は、情報取得部20が取得し、又は非文字情報記憶部12に記憶されている、非文字情報に含まれる声質に関する情報に基づいて、その声を発した人の属性を決定する。属性決定部22は、例えば、情報取得部20が取得し、又は非文字情報記憶部12に記憶されている、動画から動画に映っている人の属性を決定可能に構成されていている。また、属性決定部22は、非文字情報に基づいて非文字情報に対応づけられる人の属性を決定した際には、決定された人の属性を示す決定属性情報を生成する。なお、属性決定部22は、非文字情報の情報元である端末装置、情報処理装置又はユーザ端末5にあらかじめ設定された、人の属性に基づく属性情報を取得することにより、属性を決定するように構成されていてもよい。   The attribute determination unit 22 is a functional block that determines an attribute of a person associated with non-character information based on the non-character information. Specifically, the attribute determination unit 22 is a person who utters the voice based on information about the voice quality included in the non-character information acquired by the information acquisition unit 20 or stored in the non-character information storage unit 12. Determine the attributes of. For example, the attribute determination unit 22 is configured to be able to determine the attribute of a person appearing in a moving image from the moving image, which is acquired by the information acquisition unit 20 or stored in the non-character information storage unit 12. Further, when the attribute determination unit 22 determines the attribute of the person associated with the non-character information based on the non-character information, the attribute determination unit 22 generates determination attribute information indicating the determined attribute of the person. The attribute determination unit 22 determines the attribute by acquiring attribute information based on the attribute of the person set in advance in the terminal device, the information processing device, or the user terminal 5 that is the information source of the non-character information. It may be configured.

ここで、「属性」とは、物体の性質や特徴のことをいい、人の属性とは、人の年齢、生年月日、性別、国籍、身長、体重等に限られず、人の好み・趣味・趣向、家族構成、知人・友人・同僚関係などの人間関係、社会的ステータス等も広く含む。   Here, “attributes” refers to the nature and characteristics of an object, and human attributes are not limited to a person's age, date of birth, gender, nationality, height, weight, etc. -Widely includes preferences, family structure, human relationships such as acquaintances / friends / colleague relationships, social status, etc.

感情判断部24は、非文字情報と非文字関連情報とに基づいて人の感情を判断する機能ブロックである。感情判断部24は、例えば、人の感情として「幸せ」、「喜び」、「楽しみ」、「嬉しい」、「怒り」、「悲しみ」、「驚き」、「怨み(恨み)」、「嫌悪」などを判断するように構成される。感情判断部24は、例えば、非文字情報である笑顔の子供が写っている画像情報と、その子供が遊園地にいる場合の画像情報の取得位置情報と、に基づいてその子供の感情を判断する。この場合、感情判断部24は、画像情報からは子供が笑顔であると判断でき、取得位置情報からは、その子供が遊園地にいる(遊園地で遊んでいる)と判断できる。よって、感情判断部24は、その子供の感情は「楽しみ」、「喜び」、「嬉しさ」などのポジティブな感情を持っていることを判断することができる。これにより、感情判断部24は、笑顔の子供が写っている画像情報のみに基づいて人の感情を判断する場合よりも、より正確に人の感情を判断することができる。   The emotion determination unit 24 is a functional block that determines a person's emotion based on non-character information and non-character related information. For example, the emotion determination unit 24 may include “happiness”, “joy”, “fun”, “joyful”, “anger”, “sadness”, “surprise”, “sadness”, “hate” as human emotions. It is configured to judge such as. The emotion determination unit 24 determines the child's emotion based on, for example, image information showing a smiling child, which is non-character information, and image information acquisition position information when the child is in an amusement park. To do. In this case, the emotion determination unit 24 can determine that the child is smiling from the image information, and can determine from the acquired position information that the child is at the amusement park (playing at the amusement park). Therefore, the emotion determination unit 24 can determine that the emotion of the child has positive emotions such as “fun”, “joy”, and “joy”. Thereby, the emotion judgment part 24 can judge a person's emotion more correctly than the case where a person's emotion is judged only based on the image information in which the smiling child is reflected.

また、感情判断部24は、人が複数の感情を持っている又は表現している場合は、同時に複数の感情を判断するように構成されていてもよい。さらに、感情判断部24は、人の複数の感情を判断した場合は、その複数の感情のそれぞれの割合を判断するように構成されていてもよい。感情判断部24は、例えば、人が「喜び」と「幸せ」の感情を持っている又は表現している場合、「喜び」については60%、「幸せ」については40%というように、感情の割合を判断するように構成される。   In addition, the emotion determination unit 24 may be configured to simultaneously determine a plurality of emotions when the person has or expresses a plurality of emotions. Furthermore, when the emotion determination unit 24 determines a plurality of emotions of a person, the emotion determination unit 24 may be configured to determine the ratio of each of the plurality of emotions. For example, when a person has or expresses emotions of “joy” and “happiness”, the emotion determination unit 24 expresses 60% for “joy” and 40% for “happiness”. Configured to determine the percentage of

さらに、感情判断部24は、属性決定部22により非文字情報に基づいて非文字情報に対応づけられる人の属性を決定し、非文字情報及び決定された人の属性を示す決定属性情報にさらに基づいて人の感情を判断する機能ブロックである。具体的に、属性決定部22により、人の声に関する情報(例えば発声速度)に基づいて、その人の声に関する情報に対応づけられる人の年齢(属性)が決定される。感情判断部24は、人の発声速度だけではなく、決定されたその人の年齢にさらに基づいて、その人の感情を判断することにより、より正確に人の感情を判断することができる。   Further, the emotion determination unit 24 determines the attribute of the person associated with the non-character information based on the non-character information by the attribute determination unit 22, and further adds the non-character information and the determined attribute information indicating the determined person attribute. It is a functional block that determines a person's emotion based on it. Specifically, the attribute determination unit 22 determines the age (attribute) of the person associated with the information related to the voice of the person based on the information related to the voice of the person (for example, the speaking rate). The emotion determination unit 24 can determine a person's emotion more accurately by determining the person's emotion based not only on the voice rate of the person but also on the determined age of the person.

さらに、感情判断部24は、人の感情を判断した際には、感情の判断結果に基づいて人の感情情報を生成する機能ブロックである。   Furthermore, the emotion determination unit 24 is a functional block that generates human emotion information based on the emotion determination result when the human emotion is determined.

感情情報記憶部14は、感情判断部24により生成された、人の感情を示す感情情報を非文字関連情報と関連付けて記憶する機能ブロックである。感情情報記憶部14は、属性決定部22により、決定属性情報が生成された場合、非文字情報と決定属性情報とを関連付けて記憶するように構成されていてもよい。また、感情情報記憶部14は、非文字情報、非文字関連情報、及び属性情報などを、短期的に又は長期的に保持・管理できるように、そして容易に検索・抽出・出力などができるように構成されている。   The emotion information storage unit 14 is a functional block that stores emotion information generated by the emotion determination unit 24 and indicating emotions of a person in association with non-character related information. The emotion information storage unit 14 may be configured to store the non-character information and the determination attribute information in association with each other when the determination attribute information is generated by the attribute determination unit 22. The emotion information storage unit 14 can store and manage non-character information, non-character related information, attribute information, and the like in a short term or a long term, and can easily search, extract, and output the information. It is configured.

感情情報提供先特定部26は、感情判断部24により判断された人の感情を示す感情情報の提供先を特定する機能ブロックである。感情情報提供先特定部26は、複数のユーザ端末の間で感情情報を授受する場合に機能するオプショナルな機能ブロックである。例えば、感情情報提供先特定部26は、図1に示すユーザ端末5a、5b、5c、5d、5eのうち少なくとも一つからの指示に基づいて感情情報を提供する提供先を特定する。また、感情情報提供先特定部26は、図1に不図示であるなんらかの事業者からの指示に基づいて感情情報の提供先を特定するように構成されていてもよい。   The emotion information provider specifying unit 26 is a functional block that specifies a provider of emotion information indicating a person's emotion determined by the emotion determination unit 24. The emotion information provider specifying unit 26 is an optional functional block that functions when emotion information is exchanged between a plurality of user terminals. For example, the emotion information provider specifying unit 26 specifies a provider that provides emotion information based on an instruction from at least one of the user terminals 5a, 5b, 5c, 5d, and 5e shown in FIG. Moreover, the emotion information provision destination specific | specification part 26 may be comprised so that the provision destination of emotion information may be specified based on the instruction | indication from some provider which is not illustrated in FIG.

感情情報提供先特定部26は、感情情報を提供することを指示するユーザ端末5a(第1ユーザ端末)の位置を示す第1位置情報と、ユーザ端末5aとは異なるユーザ端末5b(第2ユーザ端末)の位置を示す第2位置情報と、に基づいてユーザ端末5aとユーザ端末5bとの距離を測定し、測定した距離に基づいてユーザ端末5bを感情情報の提供先として特定するか否かを判断する機能ブロックである。   The emotion information provision destination specifying unit 26 includes first position information indicating the position of the user terminal 5a (first user terminal) instructing to provide emotion information, and a user terminal 5b (second user) different from the user terminal 5a. Whether or not the distance between the user terminal 5a and the user terminal 5b is measured based on the second position information indicating the position of the terminal), and the user terminal 5b is specified as the provision destination of emotion information based on the measured distance Is a functional block for determining

具体的には、感情判断サーバ1は、各ユーザ端末5a、5bに対して各ユーザ端末5a、5bの位置情報を問い合わせて、各ユーザ端末5a、5bから、各ユーザ端末5a、5bの位置情報を受信できる問い合わせ情報受信部(不図示)を備えている。問い合わせ情報受信部が受信した各ユーザ端末5a、5bの位置情報に基づいて、感情情報提供先特定部26は、ユーザ端末5aとユーザ端末5bとの距離を測定し、測定した距離に基づいてユーザ端末5bを感情情報の提供先として特定するか否かを判断する。   Specifically, the emotion determination server 1 inquires each user terminal 5a, 5b about the position information of each user terminal 5a, 5b, and the position information of each user terminal 5a, 5b from each user terminal 5a, 5b. Inquiry information receiving unit (not shown) can be received. Based on the location information of each user terminal 5a, 5b received by the inquiry information receiving unit, the emotion information providing destination specifying unit 26 measures the distance between the user terminal 5a and the user terminal 5b, and the user is based on the measured distance. It is determined whether or not the terminal 5b is specified as an emotion information provider.

感情情報提供先特定部26は、例えば、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が近いと判断した場合、ユーザ端末5bを感情情報の提供先として特定しないと判断するように構成される。また、感情情報提供先特定部26は、例えば、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が近いと判断した場合、ユーザ端末5bを感情情報の提供先として特定すると判断するように構成される。   For example, the emotion information provider specifying unit 26 measures the distance between the user terminal 5a and the user terminal 5b, and determines that the user terminal 5b is not specified as the provider of emotion information when it is determined that the distance between the two is close. Configured as follows. In addition, for example, the emotion information provider specifying unit 26 measures the distance between the user terminal 5a and the user terminal 5b, and determines that the user terminal 5b is specified as the provider of emotion information when it is determined that the distance between the two is close. Configured to do.

また、感情情報提供先特定部26は、例えば、ユーザ端末5aとユーザ端末5b及びユーザ端末5cそれぞれとの距離を測定し、ユーザ端末5aにより近いユーザ端末5を選択し、選択されたユーザ端末5を感情情報の提供先として特定するように構成されていてもよい。   The emotion information provider specifying unit 26 measures, for example, the distance between the user terminal 5a and each of the user terminal 5b and the user terminal 5c, selects the user terminal 5 closer to the user terminal 5a, and selects the selected user terminal 5 May be specified as a provider of emotion information.

さらに、感情情報提供先特定部26は、感情情報を提供することを指示するユーザ端末5a(第1ユーザ端末)の第1ユーザの属性を示す第1属性情報と、ユーザ端末5aとは異なるユーザ端末5bの第2ユーザの属性を示す第2属性情報と、に基づいて第1ユーザと第2ユーザとの関連性を判断し、判断した関連性に基づいてユーザ端末5bを感情情報の提供先として特定するか否かを判断する機能ブロックである。   Further, the emotion information provision destination specifying unit 26 is different from the user terminal 5a and the first attribute information indicating the attribute of the first user of the user terminal 5a (first user terminal) instructing to provide emotion information. Based on the second attribute information indicating the attribute of the second user of the terminal 5b, the relevance between the first user and the second user is determined, and the user terminal 5b is provided with emotion information based on the determined relevance It is a functional block for determining whether or not to specify.

具体的には、感情判断サーバ1は、各ユーザ端末5a、5bに対して各ユーザ端末5a、5bのユーザの属性情報を問い合わせて、各ユーザ端末5a、5bから、各ユーザ端末5a、5bのユーザの属性情報を受信できる問い合わせ情報受信部(不図示)を備えている。問い合わせ情報受信部が受信した各ユーザ端末5a、5bのユーザの属性情報に基づいて、感情情報提供先特定部26は、ユーザ端末5aのユーザとユーザ端末5bのユーザとの関連性を判断し、判断した関連性に基づいてユーザ端末5bを感情情報の提供先として特定するか否かを判断する。   Specifically, the emotion determination server 1 inquires the user terminal 5a, 5b about the attribute information of the user of each user terminal 5a, 5b, and from each user terminal 5a, 5b, each user terminal 5a, 5b. An inquiry information receiving unit (not shown) that can receive user attribute information is provided. Based on the attribute information of the user of each user terminal 5a, 5b received by the inquiry information receiving unit, the emotion information providing destination specifying unit 26 determines the relevance between the user of the user terminal 5a and the user of the user terminal 5b, Based on the determined relevance, it is determined whether or not the user terminal 5b is specified as the provision destination of emotion information.

感情情報提供先特定部26は、例えば、ユーザ端末5aのユーザとユーザ端末5bのユーザとの関連性(趣味・趣向が合うか合わないか、知り合いであるかないか、親族であるかないか、同僚であるかないなどの親密度)を判断し、両者の関連性がない又は低い(趣味・趣向が合わない、知り合いでない、親族でない、同僚でないなど親密度が低い)と判断した場合、ユーザ端末5bを感情情報の提供先として特定しないと判断するように構成される。また、感情情報提供先特定部26は、例えば、ユーザ端末5aのユーザとユーザ端末5bのユーザとの関連性を判断し、両者の関連性が有る又は高い(趣味・趣向が合う、知り合いである、親族である、同僚であるなど親密度が高い)と判断した場合、ユーザ端末5bを感情情報の提供先として特定すると判断するように構成される。   The emotion information providing destination specifying unit 26, for example, the relevance between the user of the user terminal 5a and the user of the user terminal 5b (whether or not the hobbies / preferences match, the acquaintances, the relatives, the colleagues, If the user terminal 5b determines that the relationship between the two is not relevant or low (the hobbies / intentions do not match, the acquaintances, the relatives are not relatives, the colleagues are not close, etc.) Is determined not to be specified as a provider of emotion information. Moreover, the emotion information provision destination specific | specification part 26 judges the relevance with the user of the user terminal 5a and the user of the user terminal 5b, for example, and both have high relevance (a hobby and a taste are acquaintances with which it suits). If the user terminal 5b is identified as a provider of emotion information, the user terminal 5b is determined to be specified.

また、感情情報提供先特定部26は、例えば、ユーザ端末5aのユーザとユーザ端末5dのユーザ及びユーザ端末5eのユーザそれぞれとの関連性を測定し、ユーザ端末ユーザ端末5dよりユーザ端末5eを選択し、選択されたユーザ端末5eを感情情報の提供先として特定するように構成されていてもよい。   The emotion information providing destination specifying unit 26 measures, for example, the relevance between the user of the user terminal 5a, the user of the user terminal 5d, and the user of the user terminal 5e, and selects the user terminal 5e from the user terminal user terminal 5d. In addition, the selected user terminal 5e may be specified as a provider of emotion information.

なお、感情情報提供先特定部26は、ユーザの指示により、感情情報の提供範囲又は提供先が予め設定されるように構成されていてもよい。例えば、感情情報提供先特定部26は、感情情報の提供範囲又は提供先として、あらゆるユーザ端末5を特定しない、すなわち、どのユーザ端末5にも感情情報が提供されない(完全非公開)ように構成されていてもよい。また、感情情報提供先特定部26は、感情情報の提供範囲又は提供先として、すべてのユーザ端末5を特定する、すなわち、すべてのユーザ端末5に感情情報が提供される(完全公開、全世界公開)ように構成されていてもよい。さらに、感情情報提供先特定部26は、感情情報の提供範囲又は提供先として、一部のユーザ端末5を特定する、すなわち、一部のユーザ端末5に感情情報が提供される(例えば、友人まで公開、友人の友人まで公開、ある国のユーザまで公開など)ように構成されていてもよい。さらにまた、感情情報提供先特定部26は、ユーザ端末5aから遠くに存在するユーザ端末5dを、感情情報の提供先として特定してもよい。例えば、ユーザ端末5aのユーザと他のユーザ端末5のユーザが友人関係である場合であって、ユーザ端末5aのユーザが、ユーザ端末5のユーザに対して、今後両ユーザが向かう先の位置又は範囲の感情情報を予め提供・共有したい場合、感情情報提供先特定部26は、ユーザ端末5aの指示により、ユーザ端末5aとユーザ端末5との距離が遠い場合であっても、感情情報の提供先として、ユーザ端末5を特定するように構成されていてもよい。   In addition, the emotion information provision destination specific | specification part 26 may be comprised so that the provision range or provision destination of emotion information may be preset by a user's instruction | indication. For example, the emotion information provision destination specifying unit 26 is configured not to specify any user terminal 5 as a provision range or a provision destination of emotion information, that is, emotion information is not provided to any user terminal 5 (completely undisclosed). May be. Also, the emotion information provider specifying unit 26 specifies all user terminals 5 as the emotion information provision range or provider, that is, emotion information is provided to all user terminals 5 (completely disclosed, worldwide) (Public). Furthermore, the emotion information provision destination specifying unit 26 identifies some user terminals 5 as the provision range or provision destination of emotion information, that is, emotion information is provided to some user terminals 5 (for example, friends To a friend of a friend, to a user in a certain country, etc.). Furthermore, the emotion information provision destination specifying unit 26 may specify the user terminal 5d that is located far from the user terminal 5a as the provision destination of emotion information. For example, when the user of the user terminal 5a and the user of the other user terminal 5 are in a friendship relationship, the user of the user terminal 5a is directed to the location where both users will be directed to the user of the user terminal 5 in the future. When it is desired to provide / share emotion information within a range in advance, the emotion information provision destination specifying unit 26 provides emotion information even when the distance between the user terminal 5a and the user terminal 5 is long according to an instruction from the user terminal 5a. First, the user terminal 5 may be specified.

感情情報提供部28は、感情情報提供先特定部26により特定された感情情報の提供先に少なくとも感情情報を提供する機能ブロックである。また、感情情報提供部28は、感情情報記憶部14に記憶されている、少なくとも感情情報を取得し提供するように構成されている。   The emotion information providing unit 28 is a functional block that provides at least emotion information to the destination of the emotion information specified by the emotion information providing destination specifying unit 26. The emotion information providing unit 28 is configured to acquire and provide at least emotion information stored in the emotion information storage unit 14.

図3は、本発明の第1実施形態に係る感情情報の提供の一例を示す図である。図3に示すように、ユーザ端末5は表示部を備えており、当該表示部に地図M、エリアAr、及び人の感情情報FIを表示している。これにより、ユーザ端末5のユーザは、地図M上のどの位置でどのような感情を持つ人がいるのか、又は、いたのかを知ることができる。   FIG. 3 is a diagram illustrating an example of provision of emotion information according to the first embodiment of the present invention. As illustrated in FIG. 3, the user terminal 5 includes a display unit, and displays a map M, an area Ar, and human emotion information FI on the display unit. Thereby, the user of the user terminal 5 can know at which position on the map M what kind of emotion is present or has been present.

具体的には、図2に示す、感情判断サーバ1の感情判断部24により、複数の異なる位置で取得した複数の非文字情報(例えば、笑顔の人が写っている画像情報)とそれぞれの画像情報の取得位置情報とに基づいて人の感情を判断する。図3に示すように、感情情報FIは、「笑顔」となっており、感情判断部24では、人の感情は「楽しみ」、「喜び」、「嬉しさ」などのポジティブな感情であったと判断したことになる。なお、画像情報の取得位置情報として、画像情報に文字情報として記録された位置情報(Exif情報)を用いることも可能である。また、感情判断部24は、ユーザ端末5、他の端末装置又は情報処理装置に位置情報を問い合わせることなく、ネットワーク上で公開しているすべての(位置情報が記録された)画像情報から、人の感情を判断できるように構成されていてもよい。   Specifically, a plurality of non-character information (for example, image information showing a smiling person) acquired at a plurality of different positions by the emotion determination unit 24 of the emotion determination server 1 shown in FIG. A person's emotion is judged based on information acquisition position information. As shown in FIG. 3, the emotion information FI is “smile”, and the emotion determination unit 24 indicates that the emotion of the person is a positive emotion such as “fun”, “joy”, “joy”. It will be judged. In addition, it is also possible to use position information (Exif information) recorded as character information in the image information as the acquisition position information of the image information. In addition, the emotion determination unit 24 can search for the person information from all the image information (position information recorded) disclosed on the network without inquiring the user terminal 5, another terminal device, or the information processing device about the position information. It may be configured to be able to judge the emotions.

感情判断サーバ1の感情情報提供先特定部26により、感情情報FIの提供先としてユーザ端末5が特定され、感情判断サーバ1の感情情報提供部28は、感情情報提供先特定部26により特定されたユーザ端末5に複数の感情情報FI及び取得位置情報を提供する。   The emotion information providing destination specifying unit 26 of the emotion determination server 1 identifies the user terminal 5 as the provision destination of the emotion information FI, and the emotion information providing unit 28 of the emotion determination server 1 is specified by the emotion information providing destination specifying unit 26. The user terminal 5 is provided with a plurality of emotion information FI and acquisition position information.

ユーザ端末5は、提供された複数の感情情報FIに基づいて複数の笑顔画像(感情情報FI)を生成する。生成された複数の笑顔画像を、マップM上の取得位置情報に対応した複数の位置に表示する。また、ユーザ端末5は、複数の取得位置情報に基づいてある一定の範囲に感情情報FIを表示する際は、図3に示すエリアArのような表示を追加するように構成されていてもよい。これにより、ユーザ端末5のユーザは、どのエリアの感情情報FIであるかを、より明確に認識することができる。   The user terminal 5 generates a plurality of smile images (emotion information FI) based on the provided plurality of emotion information FI. The plurality of generated smile images are displayed at a plurality of positions corresponding to the acquired position information on the map M. Further, the user terminal 5 may be configured to add a display such as the area Ar shown in FIG. 3 when displaying the emotion information FI in a certain range based on a plurality of pieces of acquisition position information. . Thereby, the user of the user terminal 5 can recognize more clearly which area the emotion information FI is.

なお、ユーザ端末5が生成した笑顔画像(感情情報FI)は、感情判断サーバ1においてあらかじめ生成された上で、感情判断サーバ1から提供されるように構成されていてもよい。   The smile image (emotion information FI) generated by the user terminal 5 may be configured to be generated from the emotion determination server 1 in advance and then provided from the emotion determination server 1.

また、感情情報提供部28は、感情情報提供先特定部26により特定された提供先に、複数人の感情情報をある一定量まとめて提供するように構成されていてもよい。さらに、感情情報提供部28は、感情情報提供先特定部26により特定された複数の提供先に同時に、感情情報を提供するように構成されていてもよい。   The emotion information providing unit 28 may be configured to provide a certain amount of emotion information of a plurality of persons collectively to the providing destination specified by the emotion information providing destination specifying unit 26. Furthermore, the emotion information providing unit 28 may be configured to simultaneously provide emotion information to a plurality of providing destinations specified by the emotion information providing destination specifying unit 26.

さらに、感情情報提供部28は、感情情報記憶部14に記憶されている少なくとも非文字情報から生成した提案情報などの追加情報を、感情情報提供先特定部26により特定された提供先に提供するように構成されていてもよい。提案情報は、例えば、人の集客方法に関する情報が含まれる。また、その他の追加情報は、例えば、ある一定のエリアごとに、それらのエリアに居住している複数人がどのような感情を持っているのかなどを分析した情報などが含まれる。   Further, the emotion information providing unit 28 provides additional information such as proposal information generated from at least non-character information stored in the emotion information storage unit 14 to the providing destination specified by the emotion information providing destination specifying unit 26. It may be configured as follows. The proposal information includes, for example, information on how to attract people. The other additional information includes, for example, information obtained by analyzing, for each certain area, what kind of feelings a plurality of people living in those areas have.

図4は、本発明の第1実施形態に係る感情情報の提供のフローの一例を示すフローチャートである。図4のうち、ステップS5およびステップS6は、感情情報提供先特性部26および感情情報提供部28を機能させる場合に必要となるオプショナルなステップである。   FIG. 4 is a flowchart showing an example of a flow of providing emotion information according to the first embodiment of the present invention. In FIG. 4, step S5 and step S6 are optional steps required when the emotion information providing destination characteristic unit 26 and the emotion information providing unit 28 are made to function.

図2に示す情報取得部20は、音声・画像・動画情報などの非文字情報を取得する(図4に示すステップ1)。   The information acquisition unit 20 shown in FIG. 2 acquires non-character information such as voice / image / moving picture information (step 1 shown in FIG. 4).

図2に示す非文字情報記憶部12は、非文字情報を非文字関連情報と関連づけて記憶する(図4に示すステップ2)。   The non-character information storage unit 12 shown in FIG. 2 stores the non-character information in association with the non-character related information (step 2 shown in FIG. 4).

図2に示す属性決定部22は、非文字情報に対応づけられる人の属性を決定する(図4に示すステップ3)。   The attribute determination unit 22 shown in FIG. 2 determines the attribute of the person associated with the non-character information (step 3 shown in FIG. 4).

図2に示す感情判断部24は、非文字情報と非文字関連情報とに基づいて人の感情を判断する。また、非文字情報及び属性決定部22により決定された人の属性を示す決定属性情報にさらに基づいて人の感情を判断する(図4に示すステップ4)。   The emotion determination unit 24 shown in FIG. 2 determines a person's emotion based on the non-character information and the non-character related information. Further, the emotion of the person is determined based on the non-character information and the determined attribute information indicating the attribute of the person determined by the attribute determining unit 22 (step 4 shown in FIG. 4).

図2に示す感情情報提供先特定部26は、感情判断部24により判断された人の感情を示す感情情報の提供先を特定する(図4に示すステップ5)。   The emotion information providing destination specifying unit 26 shown in FIG. 2 specifies the destination of the emotion information indicating the emotion of the person determined by the emotion determining unit 24 (step 5 shown in FIG. 4).

図2に示す感情情報提供部28は、感情情報提供先特定部26により特定された感情情報の提供先に感情情報を提供する(図4に示すステップ6)。   The emotion information providing unit 28 shown in FIG. 2 provides emotion information to the emotion information providing destination specified by the emotion information providing destination specifying unit 26 (step 6 shown in FIG. 4).

(第2実施形態)
第2実施形態では、複数のユーザ端末5の間で感情情報を授受する場合を想定しているのに対して、第1実施形態では、単一のユーザ端末5に感情情報を提供する場合を想定している点で相違する。
(Second Embodiment)
In the second embodiment, it is assumed that emotion information is exchanged between a plurality of user terminals 5, whereas in the first embodiment, emotion information is provided to a single user terminal 5. It is different in the assumption.

図5は、本発明の第2実施形態に係る感情情報の提供のフローの一例を示すフローチャートである。図5のうち、ステップS15およびステップS16は、感情情報提供先特性部26および感情情報提供部28を機能させる場合に必要となるオプショナルなステップである。   FIG. 5 is a flowchart showing an example of a flow of providing emotion information according to the second embodiment of the present invention. In FIG. 5, step S15 and step S16 are optional steps required when the emotion information providing destination characteristic unit 26 and the emotion information providing unit 28 are made to function.

図1に示す感情判断サーバ1は、図1に示すネットワーク50内の情報管理サーバ3a、3b、3cが保有している非文字情報及び非文字関連情報を取得する(図5に示すステップ10)。   The emotion determination server 1 shown in FIG. 1 acquires non-character information and non-character related information held by the information management servers 3a, 3b, and 3c in the network 50 shown in FIG. 1 (step 10 shown in FIG. 5). .

図1に示すユーザ端末5a(第1ユーザ端末)は、図1に示す感情判断サーバ1に対して、感情情報を提供することを指示する(図5に示すステップ11)。   The user terminal 5a (first user terminal) shown in FIG. 1 instructs the emotion determination server 1 shown in FIG. 1 to provide emotion information (step 11 shown in FIG. 5).

感情判断サーバ1は、ユーザ端末5aに対してユーザ端末5aの位置情報を送信するよう問い合わせる(図5に示すステップ12)。   The emotion determination server 1 inquires the user terminal 5a to transmit the position information of the user terminal 5a (step 12 shown in FIG. 5).

ユーザ端末5aは、感情判断サーバ1の問い合わせに基づいてユーザ端末5aの位置情報を感情判断サーバ1に送信する(図5に示すステップ13)。   The user terminal 5a transmits the position information of the user terminal 5a to the emotion determination server 1 based on the inquiry of the emotion determination server 1 (step 13 shown in FIG. 5).

感情判断サーバ1は、ユーザ端末5bに対してユーザ端末5bの位置情報を送信するよう問い合わせる(図5に示すステップ14)。   The emotion determination server 1 inquires the user terminal 5b to transmit the position information of the user terminal 5b (step 14 shown in FIG. 5).

ユーザ端末5bは、感情判断サーバ1の問い合わせに基づいてユーザ端末5bの位置情報を感情判断サーバ1に送信する(図5に示すステップ15)。   The user terminal 5b transmits the position information of the user terminal 5b to the emotion determination server 1 based on the inquiry of the emotion determination server 1 (step 15 shown in FIG. 5).

図2に示す、感情判断サーバ1の感情情報提供先特定部26は、ユーザ端末5aの位置情報及びユーザ端末5bの位置情報に基づいてユーザ端末5aとユーザ端末5bとの距離を測定し、測定した距離に基づいてユーザ端末5bを感情情報の提供先として特定するか否かを判断する。   The emotion information providing destination specifying unit 26 of the emotion determination server 1 shown in FIG. 2 measures the distance between the user terminal 5a and the user terminal 5b based on the position information of the user terminal 5a and the position information of the user terminal 5b, and measures the distance. It is determined whether or not the user terminal 5b is specified as the provision destination of emotion information based on the distance.

感情情報提供先特定部26は、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が近いと判断した場合、ユーザ端末5bを感情情報の提供先として特定しないと判断する。又は、感情情報提供先特定部26は、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が近いと判断した場合、ユーザ端末5bを感情情報の提供先として特定すると判断する。   The emotion information provision destination specifying unit 26 measures the distance between the user terminal 5a and the user terminal 5b, and determines that the user terminal 5b is not specified as the provision destination of emotion information when it is determined that the distance between the two is close. Or the emotion information provision destination specific | specification part 26 measures the distance of the user terminal 5a and the user terminal 5b, and when it is judged that both distance is near, it judges that it specifies the user terminal 5b as a provision destination of emotion information.

図2に示す、感情判断サーバ1の感情情報提供部28は、感情情報提供先特定部26がユーザ端末5bを感情情報の提供先として特定すると判断した場合は、感情情報をユーザ端末5bに送信する(図5に示すステップ16)。一方で、感情判断サーバ1の感情情報提供部28は、感情情報提供先特定部26がユーザ端末5bを感情情報の提供先として特定しないと判断した場合は、感情情報をユーザ端末5bに送信しない。   The emotion information providing unit 28 of the emotion determination server 1 shown in FIG. 2 transmits the emotion information to the user terminal 5b when the emotion information providing destination specifying unit 26 determines that the user terminal 5b is specified as the emotion information providing destination. (Step 16 shown in FIG. 5). On the other hand, the emotion information providing unit 28 of the emotion determination server 1 does not transmit emotion information to the user terminal 5b when the emotion information providing destination specifying unit 26 determines that the user terminal 5b is not specified as the emotion information providing destination. .

(第3実施形態)
第3実施形態は、複数のユーザ端末5の間で感情情報を授受することを想定している点で第2実施形態と共通しているが、第2実施形態では提供先を特定するのに、取得位置情報を用いているのに対して、第3実施形態では提供先を特定するために、属性情報を用いている点が相違している。
(Third embodiment)
The third embodiment is common to the second embodiment in that it is assumed that emotion information is exchanged between a plurality of user terminals 5, but in the second embodiment, a destination is specified. The third embodiment is different in that attribute information is used in order to specify a provision destination, whereas acquisition position information is used.

図6は、本発明の第3実施形態に係る感情情報の提供のフローの一例を示すフローチャートである。図6のうち、ステップS25およびステップS26は、感情情報提供先特性部26および感情情報提供部28を機能させる場合に必要となるオプショナルなステップである。   FIG. 6 is a flowchart showing an example of a flow of providing emotion information according to the third embodiment of the present invention. In FIG. 6, step S25 and step S26 are optional steps required when the emotion information providing destination characteristic unit 26 and the emotion information providing unit 28 are made to function.

図1に示す感情判断サーバ1は、図1に示すネットワーク50内の情報管理サーバ3a、3b、3cが保有している非文字情報及び非文字関連情報を取得する(図6に示すステップ20)。   The emotion determination server 1 shown in FIG. 1 acquires non-character information and non-character related information held by the information management servers 3a, 3b, and 3c in the network 50 shown in FIG. 1 (step 20 shown in FIG. 6). .

図1に示すユーザ端末5a(第1ユーザ端末)は、図1に示す感情判断サーバ1に対して、感情情報を提供することを指示する(図6に示すステップ21)。   The user terminal 5a (first user terminal) shown in FIG. 1 instructs the emotion determination server 1 shown in FIG. 1 to provide emotion information (step 21 shown in FIG. 6).

感情判断サーバ1は、ユーザ端末5aに対してユーザ端末5aの属性情報を送信するよう問い合わせる(図6に示すステップ22)。   The emotion determination server 1 inquires the user terminal 5a to transmit the attribute information of the user terminal 5a (step 22 shown in FIG. 6).

ユーザ端末5aは、感情判断サーバ1の問い合わせに基づいてユーザ端末5aの属性情報を感情判断サーバ1に送信する(図6に示すステップ23)。   The user terminal 5a transmits the attribute information of the user terminal 5a to the emotion determination server 1 based on the inquiry of the emotion determination server 1 (step 23 shown in FIG. 6).

感情判断サーバ1は、ユーザ端末5bに対してユーザ端末5bの属性情報を送信するよう問い合わせる(図6に示すステップ24)。   The emotion determination server 1 inquires the user terminal 5b to transmit the attribute information of the user terminal 5b (step 24 shown in FIG. 6).

ユーザ端末5bは、感情判断サーバ1の問い合わせに基づいてユーザ端末5bの属性情報を感情判断サーバ1に送信する(図6に示すステップ25)。   The user terminal 5b transmits the attribute information of the user terminal 5b to the emotion determination server 1 based on the inquiry of the emotion determination server 1 (step 25 shown in FIG. 6).

図2に示す、感情判断サーバ1の感情情報提供先特定部26は、ユーザ端末5aの属性情報及びユーザ端末5bの属性情報に基づいてユーザ端末5aとユーザ端末5bとの関連性を判断し、判断した関連性に基づいてユーザ端末5bを感情情報の提供先として特定するか否かを判断する。   The emotion information providing destination specifying unit 26 of the emotion determination server 1 shown in FIG. 2 determines the relevance between the user terminal 5a and the user terminal 5b based on the attribute information of the user terminal 5a and the attribute information of the user terminal 5b. Based on the determined relevance, it is determined whether or not the user terminal 5b is specified as the provision destination of emotion information.

感情情報提供先特定部26は、両者の関連性がない又は低いと判断した場合、ユーザ端末5bを感情情報の提供先として特定しないと判断する。又は、感情情報提供先特定部26は、ユーザ端末5aとユーザ端末5bとの関連性を判断し、両者の関連性が有る又は高いと判断した場合、ユーザ端末5bを感情情報の提供先として特定すると判断する。   When the emotion information provider specifying unit 26 determines that the relationship between the two is not high or low, it determines that the user terminal 5b is not specified as the provider of emotion information. Alternatively, the emotion information provision destination specifying unit 26 determines the relevance between the user terminal 5a and the user terminal 5b, and if it is determined that the relevance of both is high or high, specifies the user terminal 5b as the provision destination of the emotion information Judge that.

図2に示す、感情判断サーバ1の感情情報提供部28は、感情情報提供先特定部26がユーザ端末5bを感情情報の提供先として特定すると判断した場合は、感情情報をユーザ端末5bに送信する(図6に示すステップ26)。一方で、感情判断サーバ1の感情情報提供部28は、感情情報提供先特定部26がユーザ端末5bを感情情報の提供先として特定しないと判断した場合は、感情情報をユーザ端末5bに送信しない。   The emotion information providing unit 28 of the emotion determination server 1 shown in FIG. 2 transmits the emotion information to the user terminal 5b when the emotion information providing destination specifying unit 26 determines that the user terminal 5b is specified as the emotion information providing destination. (Step 26 shown in FIG. 6). On the other hand, the emotion information providing unit 28 of the emotion determination server 1 does not transmit emotion information to the user terminal 5b when the emotion information providing destination specifying unit 26 determines that the user terminal 5b is not specified as the emotion information providing destination. .

上記により、音声・画像・動画情報などの非文字情報に基づいて人の感情を判断することにより、人の感情をより正確に把握することができる。   As described above, by determining a person's emotion based on non-character information such as voice, image, and moving image information, the person's emotion can be grasped more accurately.

(他の実施形態)
なお、本実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するものではない。本発明はその趣旨を逸脱することなく、変更/改良され得るとともに、本発明にはその等価物も含まれる。
(Other embodiments)
In addition, this embodiment is for making an understanding of this invention easy, and does not limit this invention and interpret it. The present invention can be changed / improved without departing from the gist thereof, and the present invention includes equivalents thereof.

本実施形態では、感情判断サーバ1、ユーザ端末5a、5b、5c、5d、5e、及び情報管理サーバ3a、3b、3cが処理する情報として、非文字情報及び非文字関連情報を例に挙げて説明をしているが、文字情報及び文字関連情報を排除しているわけでない。上記各構成は、文字情報及び文字関連情報についても、処理可能なように構成されていてもよい。   In the present embodiment, the non-character information and the non-character related information are exemplified as information processed by the emotion determination server 1, the user terminals 5a, 5b, 5c, 5d, and 5e, and the information management servers 3a, 3b, and 3c. Although described, character information and character-related information are not excluded. Each said structure may be comprised so that processing is possible also about character information and character related information.

また、感情判断システム100は、図1に示した構成要素を全て含むものではなく、その一部の構成要素により構成されるものであってもよい。例えば、図1には、情報管理サーバ3a、3b、3cは三つ、ユーザ端末5a、5b、5c、5d、5eは五つ、示されているが、数に制限はない。さらに、本実施形態では、感情判断部24は、感情判断サーバ1に例示的に含まれているが、感情判断部24は、ユーザ端末5a、5b、5c、5d、5eに含まれるように構成されていてもよい。   Moreover, the emotion determination system 100 does not include all the components illustrated in FIG. 1, and may be configured by some of the components. For example, FIG. 1 shows three information management servers 3a, 3b, and 3c and five user terminals 5a, 5b, 5c, 5d, and 5e, but the number is not limited. Furthermore, in the present embodiment, the emotion determination unit 24 is exemplarily included in the emotion determination server 1, but the emotion determination unit 24 is configured to be included in the user terminals 5a, 5b, 5c, 5d, and 5e. May be.

さらに、図5及び図6に示すステップは必ずしもこのステップ通りに実行されなくてもよく、適宜変更されてよい。例えば、図5のS12及びS13が実行される前に、S14及びS15が実行されてもよいし、図6のS22及びS23が実行される前に、S24及びS25が実行されてもよい。   Furthermore, the steps shown in FIG. 5 and FIG. 6 do not necessarily have to be executed according to these steps, and may be changed as appropriate. For example, S14 and S15 may be executed before S12 and S13 in FIG. 5 are executed, and S24 and S25 may be executed before S22 and S23 in FIG. 6 are executed.

1:感情判断サーバ
3a、3b、3c:情報管理サーバ
5、5a、5b、5c、5d、5e:ユーザ端末
10:情報処理部
12:非文字情報記憶部
14:感情情報記憶部
20:情報取得部
22:属性決定部
24:感情判断部
26:感情情報提供先特定部
28:感情情報提供部
M:マップ
Ar:エリア
FI:感情情報
50:ネットワーク
100:感情判断システム
1: Emotion determination servers 3a, 3b, 3c: Information management servers 5, 5a, 5b, 5c, 5d, 5e: User terminal 10: Information processing unit 12: Non-character information storage unit 14: Emotion information storage unit 20: Information acquisition Unit 22: Attribute determination unit 24: Emotion determination unit 26: Emotion information provision destination identification unit 28: Emotion information provision unit M: Map Ar: Area FI: Emotion information 50: Network 100: Emotion determination system

そこで、本発明のいくつかの態様はかかる事情に鑑みてなされたものであり、画像情報に基づいて人の感情を判断することにより、人の感情をより正確に把握することを目的の一つとし得る。 Accordingly, some aspects of the present invention have been made in view of such circumstances, and one of the purposes is to more accurately grasp a person's emotion by judging the person's emotion based on image information. Can do.

上記課題を解決するために、本発明の一側面に係る感情判断装置は、画像情報と、前記画像情報を取得した位置を示す取得位置情報、前記画像情報を取得した時間を示す時間情報、及び前記画像情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである画像関連情報と、を取得する情報取得部と、前記画像情報を前記画像関連情報と関連付けて記憶する非文字情報記憶部と、前記画像情報と前記画像関連情報とに基づいて人の感情を判断する感情判断部と、を備える。 In order to solve the above problems, the emotion determination device according to one aspect of the present invention, image information, the acquisition position information indicating the position acquired image information, the image information acquired time information indicating the time, and at least one image-related information and is, an information acquisition section that acquires, non-text information storing the image information the image related information in association with one of the environmental information indicating the environment of the position acquired the image information A storage unit; and an emotion determination unit that determines a human emotion based on the image information and the image- related information.

また、本発明の一側面に係る感情判断方法は、画像情報と、前記画像情報を取得した位置を示す取得位置情報、前記画像情報を取得した時間を示す時間情報、及び前記画像情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである画像関連情報と、を取得し、前記画像情報を前記画像関連情報と関連付けて記憶し、前記画像情報と前記画像関連情報とに基づいて人の感情を判断する。 The emotion determination method according to an aspect of the present invention includes an image information acquisition position information indicating the position acquiring the image information, time information indicating a time obtained the image information, and acquires the image information acquires, image-related information and at least one of environmental information indicating the environment of the location, the image information stored in association with the image-related information, based on the image information and the image-related information Judge the feelings of people.

また、本発明の一側面に係るプログラムは、コンピュータに、画像情報と、前記画像情報を取得した位置を示す取得位置情報、前記画像情報を取得した時間を示す時間情報、及び前記画像情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである画像関連情報と、を取得する機能と、前記画像情報を前記画像関連情報と関連付けて記憶する機能と、前記画像情報と前記画像関連情報とに基づいて人の感情を判断する機能と、を実行させる。 The program according to one aspect of the present invention, obtains the computer, and image information, acquiring position information indicating the position acquiring the image information, time information indicating a time obtained the image information, and the image information the function of acquiring the image related information and, said at least one of environmental information indicating the position of the environment with the function of storing the image information in association with the image-related information, the image associated with the image information And a function of judging a person's emotion based on the information.

本発明によれば、画像情報に基づいて人の感情を判断するので、人の感情をより正確に把握することができる。 According to the present invention, since a person's emotion is judged based on image information, a person's emotion can be grasped more accurately.

感情情報提供先特定部26は、例えば、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が遠いと判断した場合、ユーザ端末5bを感情情報の提供先として特定しないと判断するように構成される。また、感情情報提供先特定部26は、例えば、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が近いと判断した場合、ユーザ端末5bを感情情報の提供先として特定すると判断するように構成される。 For example, the emotion information provider specifying unit 26 measures the distance between the user terminal 5a and the user terminal 5b, and determines that the user terminal 5b is not specified as the provider of emotion information when it is determined that the distance between the two is long. Configured as follows. In addition, for example, the emotion information provider specifying unit 26 measures the distance between the user terminal 5a and the user terminal 5b, and determines that the user terminal 5b is specified as the provider of emotion information when it is determined that the distance between the two is close. Configured to do.

感情情報提供先特定部26は、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が遠いと判断した場合、ユーザ端末5bを感情情報の提供先として特定しないと判断する。又は、感情情報提供先特定部26は、ユーザ端末5aとユーザ端末5bとの距離を測定し、両者の距離が近いと判断した場合、ユーザ端末5bを感情情報の提供先として特定すると判断する。 The emotion information provider specifying unit 26 measures the distance between the user terminal 5a and the user terminal 5b, and determines that the user terminal 5b is not specified as the provider of emotion information when it is determined that the distance between the two is long . Or the emotion information provision destination specific | specification part 26 measures the distance of the user terminal 5a and the user terminal 5b, and when it is judged that both distance is near, it judges that it specifies the user terminal 5b as a provision destination of emotion information.

そこで、本発明のいくつかの態様はかかる事情に鑑みてなされたものであり、画像情報と、画像関連情報と、画像情報に基づいて決定される、画像情報に対応づけられる人の属性を示す決定属性情報と、に基づいて人の感情を判断することにより、人の感情をより正確に把握することを目的の一つとし得る。 Therefore, some aspects of the present invention have been made in view of such circumstances, and show image information, image-related information, and attributes of a person associated with the image information determined based on the image information. One of the purposes can be to grasp a person's emotion more accurately by judging the person's emotion based on the decision attribute information .

上記課題を解決するために、本発明の一側面に係る感情判断装置は、画像情報と、前記画像情報を取得した位置を示す取得位置情報、前記画像情報を取得した時間を示す時間情報、及び前記画像情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである画像関連情報と、を取得する情報取得部と、前記画像情報を前記画像関連情報と関連付けて記憶する非文字情報記憶部と、前記画像情報と前記画像関連情報と、前記画像情報に基づいて決定される、前記画像情報に対応づけられる人の属性を示す決定属性情報と、に基づいて人の感情を判断する感情判断部と、を備える。 In order to solve the above problem, an emotion determination apparatus according to an aspect of the present invention includes image information, acquisition position information indicating a position where the image information is acquired, time information indicating a time when the image information is acquired, and An information acquisition unit that acquires image-related information that is at least one of environment information indicating the environment at the position where the image information was acquired, and non-character information that stores the image information in association with the image-related information A person's emotion is determined based on the storage unit, the image information, the image-related information, and determined attribute information that is determined based on the image information and indicates an attribute of the person associated with the image information. An emotion determination unit.

また、本発明の一側面に係る感情判断方法は、画像情報と、前記画像情報を取得した位置を示す取得位置情報、前記画像情報を取得した時間を示す時間情報、及び前記画像情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである画像関連情報と、を取得し、前記画像情報を前記画像関連情報と関連付けて記憶し、前記画像情報と前記画像関連情報と、前記画像情報に基づいて決定される、前記画像情報に対応づけられる人の属性を示す決定属性情報と、に基づいて人の感情を判断する。 In addition, the emotion determination method according to one aspect of the present invention acquires image information, acquisition position information indicating a position where the image information is acquired, time information indicating a time when the image information is acquired, and the image information. Image related information that is at least one of environmental information indicating an environment of the position, and stores the image information in association with the image related information, the image information, the image related information , A person's emotion is judged based on the determination attribute information which shows the attribute of the person matched with the said image information determined based on image information .

また、本発明の一側面に係るプログラムは、コンピュータに、画像情報と、前記画像情報を取得した位置を示す取得位置情報、前記画像情報を取得した時間を示す時間情報、及び前記画像情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである画像関連情報と、を取得する機能と、前記画像情報を前記画像関連情報と関連付けて記憶する機能と、前記画像情報と前記画像関連情報と、前記画像情報に基づいて決定される、前記画像情報に対応づけられる人の属性を示す決定属性情報と、に基づいて人の感情を判断する機能と、を実行させる。 A program according to an aspect of the present invention acquires, in a computer, image information, acquisition position information indicating a position where the image information is acquired, time information indicating a time when the image information is acquired, and the image information. A function of acquiring image related information that is at least one of environment information indicating the environment of the position, a function of storing the image information in association with the image related information, the image information, and the image The function of determining the emotion of the person based on the related information and the determination attribute information indicating the attribute of the person associated with the image information determined based on the image information is executed.

本発明によれば、画像情報と、画像関連情報と、画像情報に基づいて決定される、画像情報に対応づけられる人の属性を示す決定属性情報と、に基づいて人の感情を判断するので、人の感情をより正確に把握することができる。 According to the present invention, since a person's emotion is determined based on image information, image-related information, and determined attribute information that is determined based on the image information and indicates the attribute of the person associated with the image information . , Can understand the emotions of people more accurately.

Claims (8)

非文字情報と、前記非文字情報を取得した位置を示す取得位置情報、前記非文字情報を取得した時間を示す時間情報、及び前記非文字情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである非文字関連情報と、を取得する情報取得部と、
前記非文字情報を前記非文字関連情報と関連付けて記憶する非文字情報記憶部と、
前記非文字情報と前記非文字関連情報とに基づいて人の感情を判断する感情判断部と、
を備える感情判断装置。
Non-character information, acquisition position information indicating a position where the non-character information is acquired, time information indicating a time when the non-character information is acquired, and environment information indicating an environment of the position where the non-character information is acquired An information acquisition unit for acquiring at least one non-character related information;
A non-character information storage unit for storing the non-character information in association with the non-character related information;
An emotion determination unit that determines a person's emotion based on the non-character information and the non-character-related information;
Emotion determination device comprising:
前記非文字情報に基づいて当該非文字情報に対応づけられる人の属性を決定する属性決定部をさらに備え、
前記感情判断部は、前記非文字情報及び決定された前記人の属性を示す決定属性情報にさらに基づいて前記人の感情を判断する、
請求項1に記載の感情判断装置。
An attribute determining unit that determines an attribute of a person associated with the non-character information based on the non-character information;
The emotion determination unit determines the emotion of the person based on the non-character information and the determined attribute information indicating the determined attribute of the person;
The emotion determination apparatus according to claim 1.
前記感情判断部により判断された前記人の感情を示す感情情報の提供先を特定する感情情報提供先特定部と、
特定された前記提供先に前記感情情報を提供する感情情報提供部と、をさらに備える、
請求項1又は2に記載の感情判断装置。
An emotion information provider identifying unit that identifies a provider of emotion information indicating the emotion of the person determined by the emotion determination unit;
An emotion information providing unit that provides the emotion information to the specified providing destination;
The emotion judgment device according to claim 1 or 2.
前記感情情報提供先特定部は、前記感情情報を提供することを指示する第1ユーザ端末の位置を示す第1位置情報と、前記第1ユーザ端末とは異なる第2ユーザ端末の位置を示す第2位置情報と、に基づいて前記第1ユーザ端末と前記第2ユーザ端末との距離を測定し、測定した前記距離に基づいて前記第2ユーザ端末を前記提供先として特定するか否かを判断する、
請求項3に記載の感情判断装置。
The emotion information providing destination specifying unit includes first position information indicating a position of a first user terminal that instructs to provide the emotion information, and a second position indicating a position of a second user terminal different from the first user terminal. And measuring the distance between the first user terminal and the second user terminal based on the position information, and determining whether to specify the second user terminal as the providing destination based on the measured distance. To
The emotion determination apparatus according to claim 3.
前記感情情報提供先特定部は、前記感情情報を提供することを指示する第1ユーザ端末の第1ユーザの属性を示す第1属性情報と、前記第1ユーザ端末とは異なる第2ユーザ端末の第2ユーザの属性を示す第2属性情報と、に基づいて前記第1ユーザと前記第2ユーザとの関連性を判断し、判断した前記関連性に基づいて前記第2ユーザ端末を前記提供先として特定するか否かを判断する、
請求項3に記載の感情判断装置。
The emotion information provision destination specifying unit includes first attribute information indicating an attribute of the first user of the first user terminal instructing to provide the emotion information, and a second user terminal different from the first user terminal. Based on the second attribute information indicating the attribute of the second user, the relevance between the first user and the second user is determined, and the second user terminal is provided based on the determined relevance To determine whether to identify as,
The emotion determination apparatus according to claim 3.
判断された前記人の感情を示す感情情報を、前記非文字関連情報と関連付けて記憶する感情情報記憶部をさらに含む、
請求項1〜5のいずれか一つに記載の感情判断装置。
An emotion information storage unit for storing emotion information indicating the determined emotion of the person in association with the non-character related information;
The emotion judgment device according to any one of claims 1 to 5.
非文字情報と、前記非文字情報を取得した位置を示す取得位置情報、前記非文字情報を取得した時間を示す時間情報、及び前記非文字情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである非文字関連情報と、を取得し、
前記非文字情報を前記非文字関連情報と関連付けて記憶し、
前記非文字情報と前記非文字関連情報とに基づいて人の感情を判断する、
感情判断方法。
Non-character information, acquisition position information indicating a position where the non-character information is acquired, time information indicating a time when the non-character information is acquired, and environment information indicating an environment of the position where the non-character information is acquired And at least one non-character related information,
Storing the non-character information in association with the non-character related information;
Determining a human emotion based on the non-character information and the non-character-related information;
Emotion judgment method.
コンピュータに、
非文字情報と、前記非文字情報を取得した位置を示す取得位置情報、前記非文字情報を取得した時間を示す時間情報、及び前記非文字情報を取得した前記位置の環境を示す環境情報のうち少なくとも一つである非文字関連情報と、を取得する機能と、
前記非文字情報を前記非文字関連情報と関連付けて記憶する機能と、
前記非文字情報と前記非文字関連情報とに基づいて人の感情を判断する機能と、
を実行させるためのプログラム。
On the computer,
Non-character information, acquisition position information indicating a position where the non-character information is acquired, time information indicating a time when the non-character information is acquired, and environment information indicating an environment of the position where the non-character information is acquired A function of acquiring at least one non-character related information;
A function of storing the non-character information in association with the non-character related information;
A function of judging human emotion based on the non-character information and the non-character-related information;
A program for running
JP2014042577A 2014-03-05 2014-03-05 Emotion determination device and emotion determination method Pending JP2015169702A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014042577A JP2015169702A (en) 2014-03-05 2014-03-05 Emotion determination device and emotion determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014042577A JP2015169702A (en) 2014-03-05 2014-03-05 Emotion determination device and emotion determination method

Publications (1)

Publication Number Publication Date
JP2015169702A true JP2015169702A (en) 2015-09-28

Family

ID=54202518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014042577A Pending JP2015169702A (en) 2014-03-05 2014-03-05 Emotion determination device and emotion determination method

Country Status (1)

Country Link
JP (1) JP2015169702A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018061840A1 (en) * 2016-09-29 2018-04-05 株式会社村田製作所 Information display program, data transmission program, data transmission device, data transmission method, information provision device, and information provision method
WO2018150720A1 (en) * 2017-02-20 2018-08-23 ソニー株式会社 Information processing system and information processing method
JP2019518247A (en) * 2016-03-31 2019-06-27 シェン ツェン クアン−チ ヘチョン テクノロジー リミティッド Cloud-based equipment and operation method thereof
CN110021308A (en) * 2019-05-16 2019-07-16 北京百度网讯科技有限公司 Voice mood recognition methods, device, computer equipment and storage medium
US11272888B1 (en) 2021-06-22 2022-03-15 Nft Ip Holdings Llc Devices and systems that measure, quantify, compare, package, and capture human content in databases

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003110703A (en) * 2001-10-02 2003-04-11 Sony Corp Information communication system, information communication method and computer program
JP2010054568A (en) * 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd Emotional identification device, method and program
JP2012146216A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and program for controlling the same
JP2013210813A (en) * 2012-03-30 2013-10-10 Nec Casio Mobile Communications Ltd Terminal device, emotion information sharing method, and program
JP2013222347A (en) * 2012-04-17 2013-10-28 Canon Inc Minute book generation device and minute book generation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003110703A (en) * 2001-10-02 2003-04-11 Sony Corp Information communication system, information communication method and computer program
JP2010054568A (en) * 2008-08-26 2010-03-11 Oki Electric Ind Co Ltd Emotional identification device, method and program
JP2012146216A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and program for controlling the same
JP2013210813A (en) * 2012-03-30 2013-10-10 Nec Casio Mobile Communications Ltd Terminal device, emotion information sharing method, and program
JP2013222347A (en) * 2012-04-17 2013-10-28 Canon Inc Minute book generation device and minute book generation method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019518247A (en) * 2016-03-31 2019-06-27 シェン ツェン クアン−チ ヘチョン テクノロジー リミティッド Cloud-based equipment and operation method thereof
WO2018061840A1 (en) * 2016-09-29 2018-04-05 株式会社村田製作所 Information display program, data transmission program, data transmission device, data transmission method, information provision device, and information provision method
JPWO2018061840A1 (en) * 2016-09-29 2019-08-29 株式会社村田製作所 Information display program, data transmission program, data transmission apparatus, data transmission method, information provision apparatus, and information provision method
WO2018150720A1 (en) * 2017-02-20 2018-08-23 ソニー株式会社 Information processing system and information processing method
JPWO2018150720A1 (en) * 2017-02-20 2019-12-19 ソニー株式会社 Information processing system and information processing method
JP7052734B2 (en) 2017-02-20 2022-04-12 ソニーグループ株式会社 Information processing system and information processing method
US11413519B2 (en) 2017-02-20 2022-08-16 Sony Corporation Information processing system and information processing method
CN110021308A (en) * 2019-05-16 2019-07-16 北京百度网讯科技有限公司 Voice mood recognition methods, device, computer equipment and storage medium
CN110021308B (en) * 2019-05-16 2021-05-18 北京百度网讯科技有限公司 Speech emotion recognition method and device, computer equipment and storage medium
US11272888B1 (en) 2021-06-22 2022-03-15 Nft Ip Holdings Llc Devices and systems that measure, quantify, compare, package, and capture human content in databases
US11382570B1 (en) 2021-06-22 2022-07-12 Nft Ip Holdings Llc Encrypted securitized databases for devices and systems that measure, quantify, compare, package, and capture data

Similar Documents

Publication Publication Date Title
US11637797B2 (en) Automated image processing and content curation
US10664512B1 (en) Query matching to media collections in a messaging system
CN108885639B (en) Content collection navigation and automatic forwarding
US20190236450A1 (en) Multimodal machine learning selector
US11676378B2 (en) Providing travel-based augmented reality content with a captured image
US11966853B2 (en) Machine learning modeling using social graph signals
US11601391B2 (en) Automated image processing and insight presentation
US11769500B2 (en) Augmented reality-based translation of speech in association with travel
US11574005B2 (en) Client application content classification and discovery
US11983461B2 (en) Speech-based selection of augmented reality content for detected objects
JP2015169702A (en) Emotion determination device and emotion determination method
KR20240024347A (en) Messaging system for resurfacing content items
KR20220155601A (en) Voice-based selection of augmented reality content for detected objects
KR20230031915A (en) Third-Party Fixes to the Camera User Interface
US11544921B1 (en) Augmented reality items based on scan
US9875512B2 (en) Photo and video sharing
US20220319082A1 (en) Generating modified user content that includes additional text content
US11645324B2 (en) Location-based timeline media content system
US20210304449A1 (en) Machine learning-based modification of image content
US11651280B2 (en) Recording medium, information processing system, and information processing method
US11108581B1 (en) Group contact lists generation

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160122