JP7068156B2 - Information processing equipment and programs - Google Patents
Information processing equipment and programs Download PDFInfo
- Publication number
- JP7068156B2 JP7068156B2 JP2018246806A JP2018246806A JP7068156B2 JP 7068156 B2 JP7068156 B2 JP 7068156B2 JP 2018246806 A JP2018246806 A JP 2018246806A JP 2018246806 A JP2018246806 A JP 2018246806A JP 7068156 B2 JP7068156 B2 JP 7068156B2
- Authority
- JP
- Japan
- Prior art keywords
- passenger
- moving body
- emotion
- emotional tendency
- emotion estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Quality & Reliability (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
車両の搭乗者の顔画像に基づいて搭乗者の感情を推定する感情推定処理を実行する装置が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2018-106530号公報
A device that executes an emotion estimation process for estimating an emotion of a occupant based on a face image of a occupant of a vehicle has been known (see, for example, Patent Document 1).
[Prior Art Document]
[Patent Document]
[Patent Document 1] Japanese Unexamined Patent Publication No. 2018-106530
顔画像に基づく感情推定処理の推定精度の向上に貢献可能な技術を提供することが望ましい。 It is desirable to provide a technique that can contribute to improving the estimation accuracy of emotion estimation processing based on facial images.
本発明の第1の態様によれば、情報処理装置が提供される。情報処理装置は、一の移動体の状況を取得する状況取得部を備えてよい。情報処理装置は、一の移動体に搭載された撮像部によって撮像された移動体の搭乗者の画像に基づく感情推定処理を実行して搭乗者の感情を推定する感情推定部であって、移動体の状況に応じた感情推定処理を実行する感情推定部を備えてよい。 According to the first aspect of the present invention, an information processing apparatus is provided. The information processing device may include a status acquisition unit that acquires the status of one moving object. The information processing device is an emotion estimation unit that estimates the emotions of the occupant by executing emotion estimation processing based on the image of the occupant of the moving object captured by the imaging unit mounted on the moving body. It may be provided with an emotion estimation unit that executes emotion estimation processing according to the physical condition.
上記情報処理装置は、上記搭乗者が上記一の移動体に搭乗しているときの上記一の移動体の状況毎の上記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部を備えてよく、上記感情推定部は、上記一の移動体の状況に対応する上記搭乗者の感情の傾向を用いた感情推定処理を実行してよい。上記感情傾向情報格納部は、上記一の移動体の複数の搭乗者のそれぞれに対応する感情傾向情報を格納してよく、上記感情推定部は、上記搭乗者に対応する上記感情傾向情報を参照して、上記一の移動体の状況に対応する上記搭乗者の感情の傾向を特定してよい。 The information processing device stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger is on board the one moving body. The emotion estimation unit may include an emotion estimation unit, and the emotion estimation unit may execute an emotion estimation process using the emotional tendency of the passenger corresponding to the situation of the moving body. The emotional tendency information storage unit may store emotional tendency information corresponding to each of the plurality of passengers of the one moving body, and the emotional estimation unit may refer to the emotional tendency information corresponding to the passengers. Then, the emotional tendency of the passenger corresponding to the situation of the moving object may be specified.
上記感情傾向情報は、上記一の移動体の移動速度に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体の移動速度が予め定められた速度より速い状況と、上記搭乗者が恐怖を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体の移動速度が予め定められた速度より速い場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の恐怖の感情の度合が強くなるように上記搭乗者の感情を推定してよい。 The emotional tendency information may include the emotional tendency of the passenger corresponding to the situation regarding the moving speed of the moving body. The emotional tendency information may correspond to a situation in which the moving speed of the one moving body is faster than a predetermined speed and an emotional tendency indicating that the passenger is likely to have fear, and the emotion estimation unit may be used. Compared with the case where the emotion of the passenger is estimated without using the emotional tendency information when the moving speed of the one moving body is faster than the predetermined speed, is the emotion of fear of the passenger. The emotions of the above passengers may be estimated so that the degree of the above becomes stronger.
上記感情傾向情報は、上記一の移動体の搭乗者の数に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体に複数の搭乗者が搭乗している状況と、上記搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体に複数の搭乗者が搭乗している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の喜びの感情の度合が強くなるように上記搭乗者の感情を推定してよい。上記感情傾向情報は、上記一の移動体に複数の搭乗者が搭乗している状況と、上記搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体に複数の搭乗者が搭乗している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の哀しみの感情の度合が強くなるように上記搭乗者の感情を推定してよい。 The emotional tendency information may include the emotional tendency of the passenger corresponding to the situation regarding the number of passengers of the one moving object. The emotional tendency information may correspond to a situation in which a plurality of passengers are on board the one moving body and an emotional tendency indicating that the passengers are likely to have joy, and the emotion estimation unit may be used. , The degree of emotion of joy of the passenger as compared with the case of estimating the emotion of the passenger without using the emotional tendency information when a plurality of passengers are on board the one moving body. The emotions of the above passengers may be estimated so that The emotional tendency information may correspond to a situation in which a plurality of passengers are on board the one moving object and an emotional tendency indicating that the passengers are likely to have sadness, and the emotion estimation unit may be used. , When a plurality of passengers are on board the one moving object, the degree of the emotional feelings of the passengers is compared with the case where the emotions of the passengers are estimated without using the emotional tendency information. The emotions of the above passengers may be estimated so that
上記一の移動体は自動車であってよく、上記感情傾向情報は、上記一の移動体が走行している道路に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体が走行している道路が高速道路である状況と、上記搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体が高速道路を走行している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の興奮の感情の度合が強くなるように上記搭乗者の感情を推定してよい。上記感情傾向情報は、上記一の移動体が走行している道路が高速道路である状況と、上記搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体が高速道路を走行している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の緊張の感情の度合が強くなるように上記搭乗者の感情を推定してよい。 The one moving object may be an automobile, and the emotional tendency information may include the emotional tendency of the passenger corresponding to the situation regarding the road on which the one moving object is traveling. The emotional tendency information may correlate the situation where the road on which the one moving object is traveling is a highway with the emotional tendency indicating that the passenger is likely to have excitement, and the emotional estimation unit may be used. Compared with the case where the emotion of the passenger is estimated without using the emotional tendency information when the moving body is traveling on the highway, the degree of emotion of the passenger's excitement is higher. The emotions of the passenger may be estimated so as to be stronger. The emotional tendency information may correspond to the situation where the road on which the one moving body is traveling is a highway and the emotional tendency indicating that the passenger is likely to have tension, and the emotional estimation unit may be used. Compared with the case where the emotion of the passenger is estimated without using the emotional tendency information when the moving body is traveling on the highway, the degree of emotion of the passenger's emotion is higher. The emotions of the passenger may be estimated so as to be stronger.
上記情報処理装置は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための感情推定用データを格納するデータ格納部を備えてよく、上記感情推定部は、上記一の移動体の状況に対応する感情推定用データを用いた感情推定処理を実行してよい。上記データ格納部は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための感情推定アルゴリズムを格納してよく、上記感情推定部は、上記一の移動体の状況に対応する感情推定アルゴリズムを用いて、上記撮像部によって撮像された上記搭乗者の画像に基づく感情推定処理を実行することにより、上記搭乗者の感情を推定してよい。上記データ格納部は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための上記搭乗者のニュートラルな表情の画像を格納してよく、上記感情推定部は、上記撮像部によって撮像された上記搭乗者の画像と、上記一の移動体の状況に対応する上記搭乗者のニュートラルな表情の画像とを比較することにより、上記搭乗者の感情を推定してよい。 The information processing apparatus may include a data storage unit for storing emotion estimation data for estimating the emotion of the passenger of the one mobile body for each situation of the mobile body, and the emotion estimation unit may include the emotion estimation unit. Emotion estimation processing using emotion estimation data corresponding to the situation of one moving body may be executed. The data storage unit may store an emotion estimation algorithm for estimating the emotion of the passenger of the one moving body for each situation of the moving body, and the emotion estimation unit may store the situation of the one moving body. The emotions of the passenger may be estimated by executing the emotion estimation process based on the image of the passenger captured by the imaging unit using the emotion estimation algorithm corresponding to the above. The data storage unit may store an image of the passenger's neutral facial expression for estimating the emotion of the passenger of the one moving body for each situation of the moving body, and the emotion estimation unit may store the image of the neutral facial expression of the passenger. The emotion of the passenger may be estimated by comparing the image of the passenger captured by the image pickup unit with the image of the neutral facial expression of the passenger corresponding to the situation of the moving body.
本発明の第2の態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。 According to the second aspect of the present invention, a program for making a computer function as the information processing apparatus is provided.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. A subcombination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention to which the claims are made. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.
図1は、本実施形態に係る車両100の一例を概略的に示す。車両100は、複数の搭乗者を乗せて移動する移動体の一例であってよい。車両100は、情報処理装置200を備えてよい。情報処理装置200は、車両100の搭乗者の感情を推定する感情推定処理機能を有する。
FIG. 1 schematically shows an example of a
本実施形態において、車両100に搭乗している者を区別しない場合、搭乗者と記載し、運転している者としていない者とを区別する場合、前者を運転者52、後者を同乗者54と記載する。車両100が自動運転車である場合、運転者52は、運転席に座っている者であってよい。同乗者54は、助手席に座っている者であってよい。同乗者54は、後部座席に座っている者であってよい。
In the present embodiment, when the person who is on the
情報処理装置200は、搭乗者の画像を用いて搭乗者の感情を推定する感情推定処理を実行可能であってよい。情報処理装置200は、車両100が備える撮像部によって撮像された搭乗者の画像を取得する。撮像部は、車両100の車内の全体を撮像可能な1台のカメラ110を有してよい。情報処理装置200は、当該カメラ110から、運転者52の画像及び同乗者54の画像を取得してよい。
The
撮像部は、複数のカメラ110を有してもよい。情報処理装置200は、複数のカメラ110のそれぞれによって撮像された運転者52の画像及び同乗者54の画像を、当該複数のカメラ110から取得してよい。撮像部は、例えば、運転席及び助手席を撮像可能なカメラ110と、後部座席を撮像可能なカメラ110とを有する。撮像部は、運転席を撮像可能なカメラ110と、助手席を撮像可能なカメラ110とを有してもよい。撮像部は、後部座席の複数の同乗者54のそれぞれを撮像可能な複数のカメラ110を有してもよい。
The image pickup unit may have a plurality of
情報処理装置200は、例えば、搭乗者のニュートラルな表情の画像を予め格納しておく。ニュートラルな表情とは、いわゆる素の表情であってよい。搭乗者の素の表情とは、例えば、搭乗者が何も意識していないときの表情である。情報処理装置200は、カメラ110によって撮像された搭乗者の顔画像とニュートラルな表情の画像とを比較することによって、搭乗者の感情を推定してよい。
The
情報処理装置200は、例えば、初期設定としてカメラ110によって撮像された搭乗者のニュートラルな表情の画像を格納する。情報処理装置200は、搭乗者のニュートラルな表情の画像を他の装置から受信して格納してもよい。情報処理装置200は、例えば、搭乗者が所有するスマートフォン等の携帯通信端末から、Bluetooth(登録商標)等の近距離無線通信を介して、搭乗者のニュートラルな表情の画像を受信する。また、情報処理装置200は、例えば、搭乗者のニュートラルな表情の画像を管理する管理サーバから、移動体通信ネットワーク等を介して、搭乗者のニュートラルな表情の画像を受信する。情報処理装置200は、1人の搭乗者につき、複数のニュートラルな表情の画像を格納してもよい。
The
情報処理装置200は、搭乗者のニュートラルな表情の画像を用いるのではなく、汎用のニュートラルな表情の画像を用いて搭乗者の感情を推定してもよい。汎用のニュートラルな表情の画像とは、多数の人の平均的なニュートラルな表情の画像であってよい。汎用のニュートラルな表情の画像は、性別、年齢、及び人種等の属性毎に用意されていてもよい。
The
情報処理装置200は、例えば、ニュートラルな表情との相違と、人間の感情パターンとを対応付けた対応付けデータを予め格納しておく。対応付けデータは、例えば、ニュートラルな表情に対して口角が上がっていることとポジティブな感情とを対応付け、ニュートラルな表情に対して口角が下がっていることとネガティブな感情とを対応付ける。対応付けデータは、ニュートラルな表情との相違の度合と、感情の度合とをさらに対応付けてよい。例えば、対応付けデータは、ニュートラルな表情に対して、より口角が上がっているほど、より高い度合を対応付ける。情報処理装置200は、カメラ110によって撮像された搭乗者の画像、ニュートラルな表情の画像、及び当該対応付けデータを用いて、感情のパターンのいずれかと、感情の度合とを特定することにより、搭乗者の感情の推定結果とする。
The
人間の感情のパターンとして、例えば、人間の感情を活性度(Arousal)と覚醒度(Valence)の2軸で表し、感情の度合いを原点からの距離で表すラッセル(Russell)の円環モデルに基づく感情のパターンを採用し得る。また、例えば、人間の感情を、8つの基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、期待)と、隣り合う2つの感情の組み合わせによる応用感情とに分類したプルチック(Plutchik)の感情の輪に基づく感情のパターンを採用し得る。これらに限らず、本実施形態に係る情報処理装置200は、任意の感情のパターンを採用し得る。
As a pattern of human emotions, for example, it is based on a ring model of Russell, which expresses human emotions on the two axes of activity (Arousal) and arousal (Valence), and expresses the degree of emotions by the distance from the origin. Emotional patterns can be adopted. Also, for example, human emotions are classified into eight basic emotions (joy, trust, fear, surprise, sadness, disgust, anger, expectation) and applied emotions by combining two adjacent emotions. Emotional patterns based on the emotional circle of can be adopted. Not limited to these, the
情報処理装置200は、ニュートラルな表情の画像を用いるのではなく、搭乗者が複数の種類の感情のそれぞれを抱いているときの顔画像を格納しておき、その後にカメラ110によって撮像された搭乗者の顔画像と、格納している複数の顔画像とを比較することによって、搭乗者の感情を推定してもよい。例えば、情報処理装置200は、格納している複数の顔画像のうち、カメラ110によって撮像された搭乗者の顔画像に最も類似する顔画像を特定し、特定した顔画像に対応する感情の種類を、搭乗者の感情の種類の推定結果とする。また、情報処理装置200は、カメラ110によって撮像された搭乗者の顔画像と、当該顔画像に最も類似する顔画像との類似度に応じた度合を、搭乗者の感情の度合の推定結果としてよい。
The
情報処理装置200は、予め格納した画像を用いるのではなく、搭乗者の顔画像の変動等に基づいて、搭乗者の感情を推定してもよい。人物の顔画像から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、当該様々な技術のうちの任意の技術を採用し得る。
The
車両100の搭乗者は、車両100の状況毎に、抱く感情の傾向が異なる場合がある。例えば、スピードが速いと怖く感じる人がいるが、このような人が車両100に搭乗した場合、車両100の速度が速い状況においては、恐怖の感情を抱く可能性が高いといえる。また、例えば、他の人と一緒にいることを喜ばしいと感じる人がいるが、このような人が車両100に搭乗した場合、他の搭乗者がいれば喜びの感情を抱く可能性が高いといえる。また、例えば、1人でいることが好きな人がいるが、このような人が車両100に搭乗した場合に、他の搭乗者がいれば哀しみの感情を抱く可能性が高いといえる。
The passengers of the
本実施形態に係る情報処理装置200は、搭乗者の感情を推定する場合に、車両100の状況に応じた感情推定処理を実行する。情報処理装置200は、例えば、車両100の状況毎の搭乗者の感情の傾向を示す感情傾向情報を格納しておき、車両100の状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行する。
The
例えば、情報処理装置200は、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、感情傾向情報を用いない場合と比較して恐怖の度合が強くなるように、搭乗者の感情を推定する。情報処理装置200は、例えば、感情傾向情報を用いない場合と同様に搭乗者の感情を推定した後、恐怖の度合を強める補正を行う。また、例えば、情報処理装置200は、恐怖の度合が強くなるようにパラメータを設定した上で、感情推定処理を実行する。これにより、感情推定結果が、搭乗者の実際の感情を示す確率を高めることができ、感情推定精度の向上に貢献し得る。
For example, the
情報処理装置200は、任意の手法によって、感情傾向情報を取得してよい。例えば、情報処理装置200は、搭乗者本人によって入力された感情傾向情報を取得する。また、例えば、情報処理装置200は、搭乗者の感情推定結果から、感情傾向情報を生成してもよい。例えば、情報処理装置200は、車両100の状況と、当該状況における搭乗者の感情推定結果とを収集して分析することによって、車両100の複数の状況のそれぞれにおける搭乗者の感情の傾向を特定し、特定結果を用いて感情傾向情報を生成する。
The
情報処理装置200は、生成した感情傾向情報を、他の車両100等と共有してもよい。例えば、情報処理装置200は、車両100に搭乗した搭乗者の識別情報を取得しておき、搭乗者に対して生成した感情傾向情報と識別情報とを対応付けて格納する。そして、情報処理装置200は、対応付けて格納している識別情報及び感情傾向情報を、ネットワーク10を介して情報管理サーバ300に送信する。
The
搭乗者の識別情報は、例えば、情報管理サーバ300によって割り振られるユーザIDである。搭乗者を識別可能な識別情報は、例えば搭乗者が所有する携帯電話の番号等、搭乗者を識別することができれば、どのような情報であってもよい。
The passenger identification information is, for example, a user ID assigned by the
ネットワーク10は、任意のネットワークであってよい。例えば、ネットワーク10は、3G(3rd Generation)通信システム、LTE(Long Term Evolution)通信システム、及び5G(5th Generation)通信システム等の移動体通信システムを含んでよい。ネットワーク10は、インターネット、公衆無線LAN(Local Area Network)、及び任意の専用網等を含んでもよい。
The
情報管理サーバ300は、複数の情報処理装置200から収集した識別情報及び感情傾向情報を登録しておく。情報管理サーバ300は、例えば、識別情報を含む要求を受信した場合であって、当該識別情報に対応する感情傾向情報が登録されている場合に、要求の送信元に対して、感情傾向情報を送信する。
The
要求の送信元は、例えば、車両100の情報処理装置200である。情報処理装置200は、例えば、情報処理装置200を搭載している車両100に搭乗者が搭乗した場合に、当該搭乗者の識別情報を取得して、識別情報を含む要求を情報管理サーバ300に送信し、情報管理サーバ300から感情傾向情報を受信する。これにより、情報処理装置200は、他の車両100の情報処理装置200によって生成された感情傾向情報を用いて、搭乗者の感情を推定することができる。要求の送信元は、人物の顔画像に基づく感情推定処理を実行する装置であれば、任意の装置であり得る。
The source of the request is, for example, the
図2は、車両100の構成の一例を概略的に示す。図2に示す各種構成は、車両100が備えるナビゲーションシステムの一部であってもよい。
FIG. 2 schematically shows an example of the configuration of the
車両100は、カメラ110を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてを撮像可能なカメラ110を備える場合を例示する。図2において例示する画角112が示すように、カメラ110によれば、運転席162、助手席164、及び後部座席166の搭乗者を撮像可能である。図2におけるカメラ110の配置は例示であり、カメラ110は、運転席162、助手席164、及び後部座席166のすべてを撮像可能であれば任意の場所に配置されてよい。なお、車両100は、運転席162、助手席164、及び後部座席166のそれぞれを撮像する複数のカメラ110を備えてもよい。
The
車両100は、マイク122を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するマイク122を備える場合を例示する。図2におけるマイク122の配置は例示であり、マイク122は、運転席162、助手席164及び後部座席166のすべての搭乗者の音声を拾うことができれば、任意の場所に配置されてよい。車両100は、複数のマイク122を備えてもよい。複数のマイク122は、例えば、運転席162用のマイク122、助手席164用のマイク122、及び後部座席166用のマイク122を含む。
The
車両100は、スピーカ124を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するスピーカ124を備える場合を例示する。図2におけるスピーカ124の配置は例示であり、スピーカ124は、任意の場所に配置されてよい。車両100は、複数のスピーカ124を備えてもよい。
The
車両100は、ディスプレイ130を備える。図2におけるディスプレイ130の配置は例示であり、ディスプレイ130は、主に運転席162及び助手席164から閲覧可能であれば、任意の場所に配置されてよい。ディスプレイ130は、タッチパネルディスプレイであってよい。車両100は、複数のディスプレイ130を備えてもよい。例えば、車両100は、運転席162及び助手席164用のディスプレイ130と、後部座席166用のディスプレイ130とを備える。
The
車両100は、無線通信アンテナ142を備える。無線通信アンテナ142は、ネットワーク10上の装置と通信するためのアンテナであってよい。車両100は、例えば、無線通信アンテナ142によって、移動体通信システムにおける無線基地局及び無線ルータ等を介してネットワーク10上の装置と通信する。なお、無線通信アンテナ142は、車車間通信及び路車間通信等を行うためのアンテナであってもよく、車両100は、車車間通信及び路車間通信等を介して、ネットワーク10上の装置と通信してもよい。
The
車両100は、GPS(Global Positioning System)アンテナ144を備える。GPSアンテナ144は、GPS衛星から位置測定用の電波を受信する。車両100は、GPSアンテナ144が受信する位置測定用の電波を用いて、車両100の現在地を測位してよい。車両100は、さらに自立航法による測位を組み合わせることによって、車両100の現在地を測位してもよい。車両100は、公知の任意の測位技術を用いて、車両100の現在地を測位してよい。
The
車両100は、車両100の搭乗者の生体情報を検知可能な不図示のセンサを備えてもよい。当該センサは、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置され、搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を検知する。車両100は、搭乗者が身に着けているウェアラブルデバイスと通信接続する近距離無線通信部を備えていてもよく、ウェアラブルデバイスによって検知された搭乗者の生体情報を、当該ウェアラブルデバイスから受信してもよい。近距離無線通信部は、例えば、Bluetooth等によってウェアラブルデバイスと通信接続する。
The
上述の各種構成は、情報処理装置200が備えてもよい。情報処理装置200は、車両100が備えるナビゲーションシステムと一体であってよく、また、別体であってもよい。
The
図3は、情報処理装置200の機能構成の一例を概略的に示す。情報処理装置200は、画像取得部202、音声取得部204、センサ情報取得部206、感情推定部210、状況取得部220、感情傾向情報格納部230、感情傾向情報生成部232、識別情報取得部234、感情傾向情報送信部236、感情傾向情報取得部238、データ格納部240、及びデータ取得部242を備える。なお、情報処理装置200がこれらのすべての構成を備えることは必須とは限らない。
FIG. 3 schematically shows an example of the functional configuration of the
画像取得部202は、車両100の搭乗者の画像を取得する。画像取得部202は、車両100の撮像部によって撮像された搭乗者の画像を取得する。画像取得部202は、100の撮像部によって撮像される搭乗者の画像を継続的に取得してよい。
The
音声取得部204は、車両100の搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から入力された搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から搭乗者の音声を継続的に取得してよい。
The
センサ情報取得部206は、センサによって検知された車両100の搭乗者の生体情報を取得する。センサ情報取得部206は、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置されたセンサによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該センサから取得する。また、センサ情報取得部206は、例えば、搭乗者が身に着けているウェアラブルデバイスによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該ウェアラブルデバイスから取得する。
The sensor
感情推定部210は、感情推定処理を実行して搭乗者の感情の種類及び度合を推定する。感情推定部210は、画像取得部202によって取得された搭乗者の顔画像を用いた感情推定処理を実行してよい。
The
また、感情推定部210は、音声取得部204によって取得された搭乗者の音声を用いた感情推定処理を実行可能であってよい。感情推定部210は、例えば、音声自体の特徴量に基づく感情推定処理を実行する。音声自体の特徴量としては、音声の大きさ、トーン、スペクトル、及び基本周波数等が例示できる。感情推定部210は、音声を音声認識した結果の文字列に基づく感情推定処理を実行してもよい。また、感情推定部210は、音声自体の特徴量と、音声を音声認識した結果の文字列との両方に基づく感情推定処理を実行してもよい。車両100が複数の搭乗者のそれぞれの音声を拾う複数のマイクを備えている場合、感情推定部210は、マイクの違いによって、話者を識別してよい。一つのマイクによって複数の搭乗者の音声を拾う場合、感情推定部210は、公知の話者識別機能を用いることによって、話者を識別してよい。公知の話者識別機能としては、音声の特徴量を用いる方法、音声の取得方向から判定する方法等が知られている。人物の音声から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、感情推定部210は、当該様々な技術のうちの任意の技術を採用し得る。
Further, the
また、感情推定部210は、センサ情報取得部206によって取得された複数種類の生体情報を用いた感情推定処理を実行可能であってよい。感情推定部210は、例えば、搭乗者の心拍、脈拍、発汗、血圧、及び体温等を用いた感情推定処理を実行する。人物の心拍、脈拍、発汗、血圧、及び体温等から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、情報処理装置200は、当該様々な技術のうちの任意の技術を採用し得る。
Further, the
状況取得部220は、車両100の状況を取得する。状況取得部220は、例えば、車両100の走行状況を取得する。状況取得部220は、例えば、車両100のナビゲーションシステムによって管理されている車両100の走行状況を、ナビゲーションシステムから取得する。車両100のナビゲーションシステムは、車両100の位置情報、車両100が走行している周辺の道路データ、車両100の速度、加速度、ステアリングの操作状態、及びブレーキの操作状態等から、車両100の走行状況を判定してよい。
The
車両100の走行状況は、車両100の状態及び車両100が走行している道路の状況等を含んでよい。車両100の状態は、例えば、車両100の走行速度に関する情報を含む。車両100の走行速度に関する情報は、例えば、車両100が通常速度で走行していること、車両100が加速していること、車両100が急加速したこと、及び車両100が急停止したこと等を含む。
The traveling condition of the
車両100が走行している道路の状況は、例えば、車両100が走行している道路の形状を含む。道路の形状としては、直線、カーブ、及び坂道等が例示できる。カーブは、カーブの度合いによって、緩いカーブ、普通のカーブ、急カーブ等に細分化されてもよい。坂道は、上り坂及び下り坂に区別されてよく、また、坂道の度合いによって緩い上り坂、普通の上り坂、急な上り坂、緩い下り坂、普通の下り坂、急な下り坂等に細分化されてもよい。
The condition of the road on which the
また、状況取得部220は、例えば、車両100の内部状況を取得する。状況取得部220は、例えば、画像取得部202が取得する画像によって、車両100の内部状況を取得する。状況取得部220は、例えば、車両100の搭乗者の数を取得する。また、状況取得部220は、車両100の搭乗者を識別して個人を特定することにより、車両100に搭乗している人物の情報を取得する。
Further, the
感情傾向情報格納部230は、搭乗者の感情傾向情報を格納する。感情傾向情報格納部230は、複数の搭乗者のそれぞれに対応する感情傾向情報を格納してよい。感情傾向情報格納部230は、例えば、車両100を常用している人物の感情傾向情報を格納する。例えば、感情傾向情報格納部230は、車両100の所有者と、所有者と同居している者の感情傾向情報を格納する。感情傾向情報格納部230は、車両100を常用している人物以外に、車両100に搭乗する可能性がある人物の感情傾向情報を格納してよい。
The emotional tendency
感情傾向情報は、車両100の移動速度に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100の走行速度が予め定められた速度より速い状況と、搭乗者が恐怖を抱きやすいことを示す感情の傾向とを対応付ける。
The emotional tendency information may include the emotional tendency of the occupant corresponding to the situation regarding the moving speed of the
感情傾向情報は、例えば、車両100の搭乗者の数に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100に複数の搭乗者が搭乗している状況と、搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付ける。また、感情傾向情報は、例えば、車両100に複数の搭乗者が搭乗している状況と、搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付ける。
The emotional tendency information may include, for example, a passenger's emotional tendency corresponding to a situation regarding the number of passengers in the
感情傾向情報は、車両100が走行している道路に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100が走行している道路が高速道路である状況と、搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付ける。また、感情傾向情報は、例えば、車両100が走行している道路が高速道路である状況と、搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付ける。
The emotional tendency information may include the emotional tendency of the occupant corresponding to the situation regarding the road on which the
感情傾向情報格納部230は、複数の搭乗者のそれぞれについて、下記表1に例示するように、運転する場合と同乗する場合とのそれぞれの感情の傾向を示す感情傾向情報を格納してよい。
The emotional tendency
感情推定部210は、状況取得部220によって取得された車両100の状況に応じた感情推定処理を実行する。感情推定部210は、例えば、搭乗者に対応する感情傾向情報を参照し、状況取得部220が取得した状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行する。感情推定部210は、搭乗者が運転者52である場合、当該搭乗者が運転する場合のそれぞれの感情の傾向を示す感情傾向情報を用いた感情推定処理を実行してよい。また、感情推定部210は、搭乗者が同乗者54である場合、当該搭乗者が同乗する場合のそれぞれの感情の傾向を示す感情傾向情報を用いた感情推定処理を実行してよい。
The
感情推定部210は、例えば、搭乗者が3人いる場合、3人のそれぞれの感情傾向情報を感情傾向情報格納部230から読み出す。下記表2は、読み出した感情傾向情報の一例を示す。
For example, when there are three passengers, the
感情推定部210は、例えば、車両100の移動速度が予め定められた速度より速い場合に、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の興奮の感情の度合が強くなるように運転者の感情を推定する。また、感情推定部210は、例えば、車両100の移動速度が予め定められた速度より速い場合に、感情傾向情報を用いずに同乗者Aの感情を推定する場合と比較して、同乗者Aの恐怖の感情の度合が強くなるように同乗者Aの感情を推定する。
The
感情推定部210は、車両100に複数の搭乗者が搭乗していることから、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の哀しみの感情の度合が強くなるように運転者の感情を推定してよい。また、感情推定部210は、車両100に複数の搭乗者が搭乗していることから、感情傾向情報を用いずに同乗者Bの感情を推定する場合と比較して、同乗者Bの喜びの感情の度合が強くなるように運転者の感情を推定してよい。
Since the
感情推定部210は、例えば、車両100が高速道路を走行している場合に、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の興奮の感情の度合が強くなるように運転者の感情を推定する。また、感情推定部210は、例えば、車両100が高速道路を走行している場合に、感情傾向情報を用いずに同乗者A、同乗者Bの感情を推定する場合と比較して、同乗者A、同乗者Bの興奮の感情の度合が強くなるように運転者の感情を推定する。
For example, when the
上述したように、感情推定部210が、搭乗者に対応する感情傾向情報を参照し、車両100の状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行することにより、各状況において搭乗者が抱きやすい感情の情報を反映した推定結果を導出できるので、推定精度の向上に貢献し得る。
As described above, the
感情傾向情報生成部232は、感情傾向情報を生成する。感情傾向情報生成部232は、例えば、状況取得部220が取得した状況と、感情推定部210が感情傾向情報を用いずに推定した搭乗者の感情の推定結果とから、感情傾向情報を生成する。感情傾向情報生成部232は、車両100の状況と、当該状況における搭乗者の感情推定結果とを収集して分析することによって、車両100の複数の状況のそれぞれにおける搭乗者の感情の傾向を特定し、特定結果を用いて感情傾向情報を生成してよい。感情傾向情報生成部232は、生成した感情傾向情報を感情傾向情報格納部230に格納する。
The emotional tendency
識別情報取得部234は、車両100の搭乗者の識別情報を取得する。識別情報取得部234は、例えば、画像取得部202によって取得される搭乗者の顔画像に対して人物認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。また、識別情報取得部234は、例えば、音声取得部204によって取得される搭乗者の音声に対して話者認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。識別情報取得部234は、搭乗者が所有する携帯通信端末から、近距離無線通信を介して、搭乗者の識別情報を受信してもよい。感情傾向情報生成部232は、識別情報取得部234が取得する搭乗者の識別情報を対応付けて、当該搭乗者の感情傾向情報を感情傾向情報格納部230に格納してよい。
The identification
感情傾向情報送信部236は、感情傾向情報格納部230に格納されている、識別情報が対応付けられた感情傾向情報を、情報管理サーバ300に送信する。感情傾向情報送信部236は、ネットワーク10を介して、感情傾向情報を情報管理サーバ300に送信してよい。
The emotional tendency
感情傾向情報取得部238は、情報管理サーバ300から感情傾向情報を取得する。感情傾向情報取得部238は、例えば、識別情報取得部234によって取得された車両100の搭乗者の識別情報を含む要求を情報管理サーバ300に送信し、情報管理サーバ300から、要求に含まれる識別情報に対応する感情傾向情報を受信してよい。感情傾向情報取得部238は、情報管理サーバ300から受信した感情傾向情報を感情傾向情報格納部230に格納してよい。
The emotional tendency
データ格納部240は、車両100の搭乗者の感情を推定するための感情推定用データを格納する。データ格納部240は、車両100の状況毎に、感情推定用データを格納してよい。感情推定用データは、車両100がある状況のときに当該車両100の搭乗者が抱きやすい感情の種類が推定結果として導出されやすくなるように生成されたデータであってよい。また、感情推定用データは、車両100がある状況のときに搭乗者が抱きやすい感情の種類の感情の度合が強い度合となるように生成されたデータであってよい。
The
データ格納部240は、例えば、車両100の走行速度毎の感情推定用データを格納する。また、データ格納部240は、例えば、車両100の搭乗者の数毎の感情推定用データを格納する。また、データ格納部240は、例えば、自動運転及び手動運転のそれぞれ用の感情推定用データを格納する。データ格納部240は、これらに限らず、さらに多様な状況に応じた感情推定用データを格納してもよい。
The
感情推定部210は、状況取得部220によって取得された状況に対応する感情推定用データを用いた感情推定処理を実行してよい。これにより、車両100の状況に応じた搭乗者の感情の傾向を反映した感情推定結果を導出することができる。
The
感情推定用データは、例えば、感情推定アルゴリズムである。感情推定部210は、状況取得部220によって取得された状況に対応する感情推定アルゴリズムを用いた感情推定アルゴリズムを実行してよい。データ格納部240は、車両100の状況毎に、感情推定アルゴリズムを格納してよい。データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類が推定結果として導出されやすい感情推定アルゴリズムを、当該状況に対応付けて格納する。また、データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類の感情の度合が強い度合となるように生成された感情推定アルゴリズムを、当該状況に対応付けて格納する。
The emotion estimation data is, for example, an emotion estimation algorithm. The
データ格納部240は、例えば、車両100の走行速度毎の感情推定アルゴリズムを格納する。具体例として、データ格納部240は、車両100の走行速度がより速い状況に対して、推定結果の恐怖の感情がより強い度合となるように生成された感情推定アルゴリズムを対応付ける。これにより、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、推定結果における恐怖の感情の度合をより強い度合とすることができ、推定結果の感情と、搭乗者の実際の感情との一致度を高め得る。
The
また、感情推定用データは、例えば、搭乗者のニュートラルな表情の顔画像である。感情推定部210は、例えば、画像取得部202によって取得された搭乗者の顔画像と、状況取得部220によって取得された状況に対応する搭乗者のニュートラルな表情の画像とを比較することにより、搭乗者の感情を推定する。データ格納部240は、車両100の状況毎に、搭乗者のニュートラルな表情の顔画像を格納してよい。データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類が推定結果として導出されやすい搭乗者のニュートラルな表情の顔画像を、当該状況に対応付けて格納する。また、データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類の度合が強い度合となるような搭乗者のニュートラルな表情の画像を、当該状況に対応付けて格納する。搭乗者が抱きやすい感情の種類の度合が強い度合となるような搭乗者のニュートラルな表情とは、このような種類の感情を抱いたときに変化する部分の変化量がより大きくなるような表情であってよい。例えば、目が大きく見開いているほど、驚きの感情の度合を強いと判定する場合、驚きの感情の度合が強い度合となるような搭乗者のニュートラルな表情とは、目の見開きが少ない表情である。
Further, the emotion estimation data is, for example, a face image of the passenger's neutral facial expression. The
データ格納部240は、例えば、車両100の走行速度毎のニュートラルな表情の画像を格納する。具体例として、データ格納部240は、車両100の走行速度がより速い状況に対して、推定結果の恐怖の感情がより強い度合となるような搭乗者のニュートラルな表情の画像を対応付ける。これにより、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、推定結果における恐怖の感情の度合をより強い度合とすることができ、推定結果の感情と、搭乗者の実際の感情との一致度を高め得る。
The
図4は、情報処理装置200による処理の流れの一例を概略的に示す。ここでは、感情推定部210が感情傾向情報を用いた感情推定処理を実行する場合の処理の流れを説明する。
FIG. 4 schematically shows an example of the processing flow by the
ステップ(ステップをSと省略して記載する場合がある。)102では、状況取得部220が車両100の状況を取得する。S104では、画像取得部202が搭乗者の画像を取得する。S106では、感情推定部210が感情推定処理を実行するか否かを判定する。感情推定部210は、例えば、周期的に感情推定処理を実行してよく、感情推定部210は、実行周期になったか否かを判定する。当該周期は、例えば、画像取得部202が取得する画像のフレームの周期であってよい。感情推定処理を実行すると判定した場合、S108に進み、実行しないと判定した場合、S102に戻る。
In step 102 (the step may be abbreviated as S) 102, the
S108では、感情推定部210が、感情傾向情報格納部230に格納されている複数の感情傾向情報のうち、感情推定対象の搭乗者に対応する感情傾向情報を参照する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、複数の搭乗者のそれぞれに対応する感情傾向情報を参照してよい。S110では、感情推定部210が、S102において取得された車両100の状況に対応する感情の傾向を特定し、当該感情の傾向を用いた感情推定処理を実行する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定処理を実行してよい。そして、S102に戻る。
In S108, the
図4に示す処理は、感情推定処理の実行を停止するまで継続されてよい。情報処理装置200は、例えば、搭乗者によって感情推定処理の実行の停止が指示された場合、車両100のエンジンが停止した場合、車両100の電源がオフにされた場合等に、図4に示す処理を終了する。
The process shown in FIG. 4 may be continued until the execution of the emotion estimation process is stopped. The
図5は、情報処理装置200による処理の流れの一例を概略的に示す。ここでは、感情推定部210が、感情推定用データを用いた感情推定処理を実行する場合の処理の流れを説明する。
FIG. 5 schematically shows an example of the processing flow by the
S202では、状況取得部220が車両100の状況を取得する。S204では、画像取得部202が搭乗者の画像を取得する。S206では、感情推定部210が感情推定処理を実行するか否かを判定する。感情推定処理を実行すると判定した場合、S208に進み、実行しないと判定した場合、S202に戻る。
In S202, the
S208では、感情推定部210が、データ格納部240に格納されている複数の感情推定用データのうち、S202において取得された状況及び感情推定対象の搭乗者に対応する感情推定用データを取得する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定用データを取得してよい。S210では、感情推定部210が、S208において取得した感情推定用データを用いた感情推定処理を実行する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定処理を実行してよい。そして、S202に戻る。
In S208, the
図5に示す処理は、感情推定処理の実行を停止するまで継続されてよい。情報処理装置200は、例えば、搭乗者によって感情推定処理の実行の停止が指示された場合、車両100のエンジンが停止した場合、車両100の電源がオフにされた場合等に、図5に示す処理を終了する。
The process shown in FIG. 5 may be continued until the execution of the emotion estimation process is stopped. The
図6は、情報管理サーバ300の機能構成の一例を概略的に示す。情報管理サーバ300は、感情傾向情報受信部302、感情傾向情報格納部304、要求受信部306、及び感情傾向情報送信部308を備える。
FIG. 6 schematically shows an example of the functional configuration of the
感情傾向情報受信部302は、複数の情報処理装置200から、ネットワーク10を介して、識別情報が対応付けられた感情傾向情報を受信する。感情傾向情報格納部304は、感情傾向情報受信部302が受信した感情傾向情報を格納する。
The emotional tendency
要求受信部306は、識別情報を含む、感情傾向情報の要求を受信する。感情傾向情報送信部308は、要求受信部306が要求を受信した場合に、要求に含まれる識別情報に対応する感情傾向情報が感情傾向情報格納部230に格納されているか否かを判定し、格納されている場合に、要求の送信元に、感情傾向情報を送信する。
The
図7は、情報処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、上記実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、上記実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、上記実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
FIG. 7 schematically shows an example of a hardware configuration of a
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
The
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。コンピュータ1200は、ディスプレイデバイス1218を備えていなくてもよく、その場合、グラフィックコントローラ1216は、イメージデータが外部のディスプレイデバイスに表示されるようにする。
The
通信インタフェース1222は、無線通信ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD-ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
The
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、USBポート等を介して、様々な入出力ユニットを入出力コントローラ1220に接続してよい。
The
プログラムは、DVD-ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
The program is provided by a computer-readable storage medium such as a DVD-
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
For example, when communication is executed between the
また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD-ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
Further, the
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
The program or software module described above may be stored on a
上記実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams of the above embodiments may represent the stages of the process in which the operation is performed or the "parts" of the device responsible for performing the operation. Specific steps and "parts" are supplied with dedicated circuits, programmable circuits supplied with computer-readable instructions stored on computer-readable storage media, and / or computer-readable instructions stored on computer-readable storage media. It may be implemented by the processor. Dedicated circuits may include digital and / or analog hardware circuits, and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include logical products, logical sums, exclusive logical sums, negative logical sums, negative logical sums, and other logical operations, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like. , Flipflops, registers, and reconfigurable hardware circuits, including memory elements.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer readable storage medium may include any tangible device capable of storing instructions executed by the appropriate device, so that the computer readable storage medium having the instructions stored therein may be in a flow chart or block diagram. It will be equipped with a product that contains instructions that can be executed to create means for performing the specified operation. Examples of the computer-readable storage medium may include an electronic storage medium, a magnetic storage medium, an optical storage medium, an electromagnetic storage medium, a semiconductor storage medium, and the like. More specific examples of computer-readable storage media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray® Disc, Memory Stick , Integrated circuit cards and the like may be included.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 Computer-readable instructions are assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcodes, firmware instructions, state-setting data, or object-oriented programming such as Smalltalk, JAVA®, C ++, etc. Includes either source code or object code written in any combination of one or more programming languages, including languages and traditional procedural programming languages such as the "C" programming language or similar programming languages. good.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions are used to generate means for a general-purpose computer, a special-purpose computer, or the processor of another programmable data processing device, or a programmable circuit, to perform an operation specified in a flowchart or block diagram. General purpose computers, special purpose computers, or other programmable data processing locally or via a local area network (LAN), a wide area network (WAN) such as the Internet, etc. to execute such computer-readable instructions. It may be provided to the processor of the device or a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.
上記実施形態では、移動体の例として車両100を挙げて説明したが、これに限らない。移動体は、複数の搭乗者を搭乗させて移動可能であれば、どのようなものであってもよい。例えば、車両100の他、電車、飛行機、及び船舶等であってよい。
In the above embodiment, the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.
10 ネットワーク、52 運転者、54 同乗者、100 車両、110 カメラ、112 画角、122 マイク、124 スピーカ、130 ディスプレイ、142 無線通信アンテナ、144 GPSアンテナ、150 ハンドル、162 運転席、164 助手席、166 後部座席、200 情報処理装置、202 画像取得部、204 音声取得部、206 センサ情報取得部、210 感情推定部、220 状況取得部、230 感情傾向情報格納部、232 感情傾向情報生成部、234 識別情報取得部、236 感情傾向情報送信部、238 感情傾向情報取得部、240 データ格納部、242 データ取得部、300 情報管理サーバ、302 感情傾向情報受信部、304 感情傾向情報格納部、306 要求受信部、308 感情傾向情報送信部、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD-ROM、1230 ROM、1240 入出力チップ 10 network, 52 driver, 54 passenger, 100 vehicle, 110 camera, 112 angle of view, 122 microphone, 124 speaker, 130 display, 142 wireless communication interface, 144 GPS antenna, 150 handle, 162 driver's seat, 164 passenger's seat, 166 rear seat, 200 information processing device, 202 image acquisition unit, 204 voice acquisition unit, 206 sensor information acquisition unit, 210 emotion estimation unit, 220 situation acquisition unit, 230 emotional tendency information storage unit, 232 emotional tendency information generation unit, 234 Identification information acquisition unit, 236 emotional tendency information transmission unit, 238 emotional tendency information acquisition unit, 240 data storage unit, 242 data acquisition unit, 300 information management server, 302 emotional tendency information reception unit, 304 emotional tendency information storage unit, 306 request Receiver, 308 Emotional trend information transmitter, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input / output controller, 1222 communication interface, 1224 storage device, 1226 DVD drive, 1227 DVD -ROM, 1230 ROM, 1240 input / output chip
Claims (9)
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と
を備え、
前記感情傾向情報は、前記一の移動体の搭乗者の数に関する状況に対応する前記搭乗者の感情の傾向を含み、
前記感情推定部は、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を用いた感情推定処理を実行する、情報処理装置。 The status acquisition unit that acquires the status of one moving object,
Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. It is equipped with an emotion estimation unit that executes emotion estimation processing according to the situation of the moving body .
The emotional tendency information includes the emotional tendency of the passenger corresponding to the situation regarding the number of passengers of the one moving object.
The emotion estimation unit is an information processing device that executes an emotion estimation process using the emotional tendency of the passenger corresponding to the situation of the moving body .
前記感情推定部は、前記一の移動体に複数の搭乗者が搭乗している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の喜びの感情の度合が強くなるように前記搭乗者の感情を推定する、請求項1に記載の情報処理装置。The emotion estimation unit estimates the emotions of the passengers when a plurality of passengers are on board the moving object, as compared with the case where the emotions of the passengers are estimated without using the emotional tendency information. The information processing apparatus according to claim 1, wherein the passenger's emotions are estimated so that the degree of joyful emotions becomes stronger.
前記感情推定部は、前記一の移動体に複数の搭乗者が搭乗している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の哀しみの感情の度合が強くなるように前記搭乗者の感情を推定する、請求項1に記載の情報処理装置。 The emotional tendency information associates a situation in which a plurality of passengers are on board the one moving object with an emotional tendency indicating that the passengers are likely to have sadness.
The emotion estimation unit estimates the emotions of the passengers when a plurality of passengers are on board the moving object, as compared with the case where the emotions of the passengers are estimated without using the emotional tendency information. The information processing apparatus according to claim 1, wherein the passenger's emotions are estimated so that the degree of sorrowful emotions becomes stronger .
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部とIt is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
を備え、Equipped with
前記感情傾向情報は、前記一の移動体の移動速度が予め定められた速度より速い状況と、前記搭乗者が恐怖又は興奮を抱きやすいことを示す感情の傾向とを対応付け、The emotional tendency information associates a situation in which the moving speed of the one moving object is faster than a predetermined speed with an emotional tendency indicating that the passenger is likely to have fear or excitement.
前記感情推定部は、前記一の移動体の移動速度が予め定められた速度より速い場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の恐怖又は興奮の感情の度合が強くなるように前記搭乗者の感情を推定する、情報処理装置。The emotion estimation unit estimates the emotion of the passenger when the moving speed of the one moving body is faster than a predetermined speed, as compared with the case where the emotion of the passenger is estimated without using the emotion tendency information. An information processing device that estimates the passenger's emotions so that the degree of fear or excitement of the passenger becomes stronger.
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と
を備え、
前記一の移動体は自動車であり、
前記感情傾向情報は、前記一の移動体が走行している道路が高速道路である状況と、前記搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付け、
前記感情推定部は、前記一の移動体が高速道路を走行している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の興奮の感情の度合が強くなるように前記搭乗者の感情を推定する、情報処理装置。 The status acquisition unit that acquires the status of one moving object,
Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
Equipped with
The one moving object is a car,
The emotional tendency information associates the situation where the road on which the one moving object is traveling is a highway with the emotional tendency indicating that the passenger is likely to have excitement.
The emotion estimation unit determines the emotion of the passenger when the moving body is traveling on the highway, as compared with the case where the emotion of the passenger is estimated without using the emotion tendency information. An information processing device that estimates the emotions of the passenger so that the degree of emotions becomes stronger.
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と
を備え、
前記一の移動体は自動車であり、
前記感情傾向情報は、前記一の移動体が走行している道路が高速道路である状況と、前記搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付け、
前記感情推定部は、前記一の移動体が高速道路を走行している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の緊張の感情の度合が強くなるように前記搭乗者の感情を推定する、情報処理装置。 The status acquisition unit that acquires the status of one moving object,
Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
Equipped with
The one moving object is a car,
The emotional tendency information associates the situation where the road on which the one moving object is traveling is a highway with the emotional tendency indicating that the passenger is likely to have tension.
The emotion estimation unit estimates the emotions of the passenger when the moving body is traveling on the highway, as compared with the case where the emotions of the passenger are estimated without using the emotion tendency information. An information processing device that estimates the emotions of the passenger so that the degree of emotions becomes stronger.
移動体の状況毎に、前記一の移動体の搭乗者の感情を推定するための前記搭乗者のニュートラルな表情の画像を格納するデータ格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と、
を備え、
前記感情推定部は、前記撮像部によって撮像された前記搭乗者の画像と、前記一の移動体の状況に対応する前記搭乗者のニュートラルな表情の画像とを比較することにより、前記搭乗者の感情を推定する、情報処理装置。 The status acquisition unit that acquires the status of one moving object,
A data storage unit that stores an image of the passenger's neutral facial expression for estimating the emotion of the passenger of the one moving body for each situation of the moving body.
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. An emotion estimation unit that executes emotion estimation processing according to the situation of the moving body, and
Equipped with
The emotion estimation unit compares the image of the occupant captured by the imaging unit with the image of the occupant's neutral facial expression corresponding to the situation of the moving object of the occupant. An information processing device that estimates emotions.
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部とIt is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
を備え、Equipped with
前記感情傾向情報格納部は、前記搭乗者が前記一の移動体を運転する場合と、前記一の移動体に同乗する場合とのそれぞれの感情の傾向を示す前記感情傾向情報を格納し、The emotional tendency information storage unit stores the emotional tendency information indicating the tendency of each emotion when the passenger drives the one moving body and when the passenger rides on the one moving body.
前記感情推定部は、前記搭乗者が運転者である場合、前記搭乗者が運転する場合のそれぞれの感情の傾向を示す前記感情傾向情報を用いて、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を用いた感情推定処理を実行し、前記搭乗者が同乗者である場合、前記搭乗者が同乗する場合のそれぞれの感情の傾向を示す前記感情傾向情報を用いて、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を用いた感情推定処理を実行する、情報処理装置。The emotion estimation unit corresponds to the situation of the one moving body by using the emotion tendency information indicating the tendency of each emotion when the passenger is a driver. The emotion estimation process using the emotional tendency of the passenger is executed, and when the passenger is a passenger, the emotional tendency information indicating the tendency of each emotion when the passenger is on board is used to describe the above. An information processing device that executes an emotion estimation process using the emotional tendency of the passenger corresponding to the situation of one moving body.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018246806A JP7068156B2 (en) | 2018-12-28 | 2018-12-28 | Information processing equipment and programs |
CN201911265422.0A CN111382665B (en) | 2018-12-28 | 2019-12-11 | Information processing apparatus and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018246806A JP7068156B2 (en) | 2018-12-28 | 2018-12-28 | Information processing equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020103704A JP2020103704A (en) | 2020-07-09 |
JP7068156B2 true JP7068156B2 (en) | 2022-05-16 |
Family
ID=71216954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018246806A Active JP7068156B2 (en) | 2018-12-28 | 2018-12-28 | Information processing equipment and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7068156B2 (en) |
CN (1) | CN111382665B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112168190B (en) * | 2020-10-23 | 2021-09-21 | 清华大学 | Real-time driving pressure monitoring system and method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101472A (en) | 2017-11-28 | 2019-06-24 | トヨタ自動車株式会社 | Emotion estimation device |
JP2020103462A (en) | 2018-12-26 | 2020-07-09 | トヨタ紡織株式会社 | Emotion estimation device, environment providing system, vehicle, emotion estimation method, and information processing program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101710449A (en) * | 2009-12-04 | 2010-05-19 | 吉林大学 | Traffic flow running rate recognizing method based on bus GPS data |
CN105303829A (en) * | 2015-09-11 | 2016-02-03 | 深圳市乐驰互联技术有限公司 | Vehicle driver emotion recognition method and device |
JP2017136922A (en) * | 2016-02-02 | 2017-08-10 | 富士通テン株式会社 | Vehicle control device, on-vehicle device controller, map information generation device, vehicle control method, and on-vehicle device control method |
DE102016208797A1 (en) * | 2016-05-20 | 2017-11-23 | Zf Friedrichshafen Ag | Method for computer-aided driving data analysis of motor vehicles |
US20180118218A1 (en) * | 2016-10-27 | 2018-05-03 | Ford Global Technologies, Llc | Method and apparatus for vehicular adaptation to driver state |
JP6639444B2 (en) * | 2017-06-07 | 2020-02-05 | 本田技研工業株式会社 | Information providing apparatus and information providing method |
CN107316436B (en) * | 2017-07-31 | 2021-06-18 | 努比亚技术有限公司 | Dangerous driving state processing method, electronic device and storage medium |
CN108429970B (en) * | 2018-05-28 | 2020-04-14 | Oppo广东移动通信有限公司 | Audio playing method, device, terminal, earphone and readable storage medium |
-
2018
- 2018-12-28 JP JP2018246806A patent/JP7068156B2/en active Active
-
2019
- 2019-12-11 CN CN201911265422.0A patent/CN111382665B/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019101472A (en) | 2017-11-28 | 2019-06-24 | トヨタ自動車株式会社 | Emotion estimation device |
JP2020103462A (en) | 2018-12-26 | 2020-07-09 | トヨタ紡織株式会社 | Emotion estimation device, environment providing system, vehicle, emotion estimation method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2020103704A (en) | 2020-07-09 |
CN111382665B (en) | 2024-03-01 |
CN111382665A (en) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111741884B (en) | Traffic distress and road rage detection method | |
JP2020109578A (en) | Information processing device and program | |
US11776083B2 (en) | Passenger-related item loss mitigation | |
CN107392083A (en) | Identification device, recognition methods, recognizer and recording medium | |
CN109302486B (en) | Method and system for pushing music according to environment in vehicle | |
JP6552548B2 (en) | Point proposing device and point proposing method | |
JP6999540B2 (en) | Information processing equipment and programs | |
JP7068156B2 (en) | Information processing equipment and programs | |
US11580777B2 (en) | Control apparatus and computer-readable storage medium | |
CN111866382A (en) | Method for acquiring image, electronic device and computer readable storage medium | |
JP2020095502A (en) | Information processor and program | |
JP2020095538A (en) | Information processor and program | |
JP7100575B2 (en) | Information processing equipment and programs | |
JP7469467B2 (en) | Digital human-based vehicle interior interaction method, device, and vehicle | |
KR102486161B1 (en) | Vehicle, Control Method of the vehicle and Image tracking apparatus | |
CN110740211B (en) | Non-interference type danger early warning method based on traveling state perception and concentration degree perception | |
CN114074669B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
JP7375705B2 (en) | Information processing device, information processing method, and program | |
JP2022030591A (en) | Edition device, edition method, and program | |
JP2024083316A (en) | Electronic device and method for providing cloud-based vehicle information | |
CN115631550A (en) | User feedback method and system | |
CN117475493A (en) | Emotion recognition method and device, electronic equipment, chip and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7068156 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |