JP7068156B2 - Information processing equipment and programs - Google Patents

Information processing equipment and programs Download PDF

Info

Publication number
JP7068156B2
JP7068156B2 JP2018246806A JP2018246806A JP7068156B2 JP 7068156 B2 JP7068156 B2 JP 7068156B2 JP 2018246806 A JP2018246806 A JP 2018246806A JP 2018246806 A JP2018246806 A JP 2018246806A JP 7068156 B2 JP7068156 B2 JP 7068156B2
Authority
JP
Japan
Prior art keywords
passenger
moving body
emotion
emotional tendency
emotion estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018246806A
Other languages
Japanese (ja)
Other versions
JP2020103704A (en
Inventor
祥和 松尾
日淑 江▲崎▼
隆 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018246806A priority Critical patent/JP7068156B2/en
Priority to CN201911265422.0A priority patent/CN111382665B/en
Publication of JP2020103704A publication Critical patent/JP2020103704A/en
Application granted granted Critical
Publication of JP7068156B2 publication Critical patent/JP7068156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.

車両の搭乗者の顔画像に基づいて搭乗者の感情を推定する感情推定処理を実行する装置が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2018-106530号公報
A device that executes an emotion estimation process for estimating an emotion of a occupant based on a face image of a occupant of a vehicle has been known (see, for example, Patent Document 1).
[Prior Art Document]
[Patent Document]
[Patent Document 1] Japanese Unexamined Patent Publication No. 2018-106530

顔画像に基づく感情推定処理の推定精度の向上に貢献可能な技術を提供することが望ましい。 It is desirable to provide a technique that can contribute to improving the estimation accuracy of emotion estimation processing based on facial images.

本発明の第1の態様によれば、情報処理装置が提供される。情報処理装置は、一の移動体の状況を取得する状況取得部を備えてよい。情報処理装置は、一の移動体に搭載された撮像部によって撮像された移動体の搭乗者の画像に基づく感情推定処理を実行して搭乗者の感情を推定する感情推定部であって、移動体の状況に応じた感情推定処理を実行する感情推定部を備えてよい。 According to the first aspect of the present invention, an information processing apparatus is provided. The information processing device may include a status acquisition unit that acquires the status of one moving object. The information processing device is an emotion estimation unit that estimates the emotions of the occupant by executing emotion estimation processing based on the image of the occupant of the moving object captured by the imaging unit mounted on the moving body. It may be provided with an emotion estimation unit that executes emotion estimation processing according to the physical condition.

上記情報処理装置は、上記搭乗者が上記一の移動体に搭乗しているときの上記一の移動体の状況毎の上記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部を備えてよく、上記感情推定部は、上記一の移動体の状況に対応する上記搭乗者の感情の傾向を用いた感情推定処理を実行してよい。上記感情傾向情報格納部は、上記一の移動体の複数の搭乗者のそれぞれに対応する感情傾向情報を格納してよく、上記感情推定部は、上記搭乗者に対応する上記感情傾向情報を参照して、上記一の移動体の状況に対応する上記搭乗者の感情の傾向を特定してよい。 The information processing device stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger is on board the one moving body. The emotion estimation unit may include an emotion estimation unit, and the emotion estimation unit may execute an emotion estimation process using the emotional tendency of the passenger corresponding to the situation of the moving body. The emotional tendency information storage unit may store emotional tendency information corresponding to each of the plurality of passengers of the one moving body, and the emotional estimation unit may refer to the emotional tendency information corresponding to the passengers. Then, the emotional tendency of the passenger corresponding to the situation of the moving object may be specified.

上記感情傾向情報は、上記一の移動体の移動速度に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体の移動速度が予め定められた速度より速い状況と、上記搭乗者が恐怖を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体の移動速度が予め定められた速度より速い場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の恐怖の感情の度合が強くなるように上記搭乗者の感情を推定してよい。 The emotional tendency information may include the emotional tendency of the passenger corresponding to the situation regarding the moving speed of the moving body. The emotional tendency information may correspond to a situation in which the moving speed of the one moving body is faster than a predetermined speed and an emotional tendency indicating that the passenger is likely to have fear, and the emotion estimation unit may be used. Compared with the case where the emotion of the passenger is estimated without using the emotional tendency information when the moving speed of the one moving body is faster than the predetermined speed, is the emotion of fear of the passenger. The emotions of the above passengers may be estimated so that the degree of the above becomes stronger.

上記感情傾向情報は、上記一の移動体の搭乗者の数に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体に複数の搭乗者が搭乗している状況と、上記搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体に複数の搭乗者が搭乗している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の喜びの感情の度合が強くなるように上記搭乗者の感情を推定してよい。上記感情傾向情報は、上記一の移動体に複数の搭乗者が搭乗している状況と、上記搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体に複数の搭乗者が搭乗している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の哀しみの感情の度合が強くなるように上記搭乗者の感情を推定してよい。 The emotional tendency information may include the emotional tendency of the passenger corresponding to the situation regarding the number of passengers of the one moving object. The emotional tendency information may correspond to a situation in which a plurality of passengers are on board the one moving body and an emotional tendency indicating that the passengers are likely to have joy, and the emotion estimation unit may be used. , The degree of emotion of joy of the passenger as compared with the case of estimating the emotion of the passenger without using the emotional tendency information when a plurality of passengers are on board the one moving body. The emotions of the above passengers may be estimated so that The emotional tendency information may correspond to a situation in which a plurality of passengers are on board the one moving object and an emotional tendency indicating that the passengers are likely to have sadness, and the emotion estimation unit may be used. , When a plurality of passengers are on board the one moving object, the degree of the emotional feelings of the passengers is compared with the case where the emotions of the passengers are estimated without using the emotional tendency information. The emotions of the above passengers may be estimated so that

上記一の移動体は自動車であってよく、上記感情傾向情報は、上記一の移動体が走行している道路に関する状況に対応する上記搭乗者の感情の傾向を含んでよい。上記感情傾向情報は、上記一の移動体が走行している道路が高速道路である状況と、上記搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体が高速道路を走行している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の興奮の感情の度合が強くなるように上記搭乗者の感情を推定してよい。上記感情傾向情報は、上記一の移動体が走行している道路が高速道路である状況と、上記搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付けてよく、上記感情推定部は、上記一の移動体が高速道路を走行している場合に、上記感情傾向情報を用いずに上記搭乗者の感情を推定する場合と比較して、上記搭乗者の緊張の感情の度合が強くなるように上記搭乗者の感情を推定してよい。 The one moving object may be an automobile, and the emotional tendency information may include the emotional tendency of the passenger corresponding to the situation regarding the road on which the one moving object is traveling. The emotional tendency information may correlate the situation where the road on which the one moving object is traveling is a highway with the emotional tendency indicating that the passenger is likely to have excitement, and the emotional estimation unit may be used. Compared with the case where the emotion of the passenger is estimated without using the emotional tendency information when the moving body is traveling on the highway, the degree of emotion of the passenger's excitement is higher. The emotions of the passenger may be estimated so as to be stronger. The emotional tendency information may correspond to the situation where the road on which the one moving body is traveling is a highway and the emotional tendency indicating that the passenger is likely to have tension, and the emotional estimation unit may be used. Compared with the case where the emotion of the passenger is estimated without using the emotional tendency information when the moving body is traveling on the highway, the degree of emotion of the passenger's emotion is higher. The emotions of the passenger may be estimated so as to be stronger.

上記情報処理装置は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための感情推定用データを格納するデータ格納部を備えてよく、上記感情推定部は、上記一の移動体の状況に対応する感情推定用データを用いた感情推定処理を実行してよい。上記データ格納部は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための感情推定アルゴリズムを格納してよく、上記感情推定部は、上記一の移動体の状況に対応する感情推定アルゴリズムを用いて、上記撮像部によって撮像された上記搭乗者の画像に基づく感情推定処理を実行することにより、上記搭乗者の感情を推定してよい。上記データ格納部は、移動体の状況毎に、上記一の移動体の搭乗者の感情を推定するための上記搭乗者のニュートラルな表情の画像を格納してよく、上記感情推定部は、上記撮像部によって撮像された上記搭乗者の画像と、上記一の移動体の状況に対応する上記搭乗者のニュートラルな表情の画像とを比較することにより、上記搭乗者の感情を推定してよい。 The information processing apparatus may include a data storage unit for storing emotion estimation data for estimating the emotion of the passenger of the one mobile body for each situation of the mobile body, and the emotion estimation unit may include the emotion estimation unit. Emotion estimation processing using emotion estimation data corresponding to the situation of one moving body may be executed. The data storage unit may store an emotion estimation algorithm for estimating the emotion of the passenger of the one moving body for each situation of the moving body, and the emotion estimation unit may store the situation of the one moving body. The emotions of the passenger may be estimated by executing the emotion estimation process based on the image of the passenger captured by the imaging unit using the emotion estimation algorithm corresponding to the above. The data storage unit may store an image of the passenger's neutral facial expression for estimating the emotion of the passenger of the one moving body for each situation of the moving body, and the emotion estimation unit may store the image of the neutral facial expression of the passenger. The emotion of the passenger may be estimated by comparing the image of the passenger captured by the image pickup unit with the image of the neutral facial expression of the passenger corresponding to the situation of the moving body.

本発明の第2の態様によれば、コンピュータを、上記情報処理装置として機能させるためのプログラムが提供される。 According to the second aspect of the present invention, a program for making a computer function as the information processing apparatus is provided.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the necessary features of the present invention. A subcombination of these feature groups can also be an invention.

本実施形態に係る車両100の一例を概略的に示す。An example of the vehicle 100 according to the present embodiment is schematically shown. 車両100の構成の一例を概略的に示す。An example of the configuration of the vehicle 100 is shown schematically. 情報処理装置200の機能構成の一例を概略的に示す。An example of the functional configuration of the information processing apparatus 200 is schematically shown. 情報処理装置200による処理の流れの一例を概略的に示す。An example of the processing flow by the information processing apparatus 200 is schematically shown. 情報処理装置200による処理の流れの一例を概略的に示す。An example of the processing flow by the information processing apparatus 200 is schematically shown. 情報管理サーバ300の機能構成の一例を概略的に示す。An example of the functional configuration of the information management server 300 is shown schematically. 情報処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。An example of the hardware configuration of the computer 1200 that functions as the information processing apparatus 200 is schematically shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention to which the claims are made. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.

図1は、本実施形態に係る車両100の一例を概略的に示す。車両100は、複数の搭乗者を乗せて移動する移動体の一例であってよい。車両100は、情報処理装置200を備えてよい。情報処理装置200は、車両100の搭乗者の感情を推定する感情推定処理機能を有する。 FIG. 1 schematically shows an example of a vehicle 100 according to this embodiment. The vehicle 100 may be an example of a moving body that carries and moves a plurality of passengers. The vehicle 100 may include an information processing device 200. The information processing device 200 has an emotion estimation processing function for estimating the emotions of the passengers of the vehicle 100.

本実施形態において、車両100に搭乗している者を区別しない場合、搭乗者と記載し、運転している者としていない者とを区別する場合、前者を運転者52、後者を同乗者54と記載する。車両100が自動運転車である場合、運転者52は、運転席に座っている者であってよい。同乗者54は、助手席に座っている者であってよい。同乗者54は、後部座席に座っている者であってよい。 In the present embodiment, when the person who is on the vehicle 100 is not distinguished, it is described as a passenger, and when the person who is driving and the person who is not driving are distinguished, the former is referred to as the driver 52 and the latter is referred to as the passenger 54. Describe. When the vehicle 100 is an autonomous driving vehicle, the driver 52 may be a person sitting in the driver's seat. The passenger 54 may be a person sitting in the passenger seat. The passenger 54 may be a person sitting in the back seat.

情報処理装置200は、搭乗者の画像を用いて搭乗者の感情を推定する感情推定処理を実行可能であってよい。情報処理装置200は、車両100が備える撮像部によって撮像された搭乗者の画像を取得する。撮像部は、車両100の車内の全体を撮像可能な1台のカメラ110を有してよい。情報処理装置200は、当該カメラ110から、運転者52の画像及び同乗者54の画像を取得してよい。 The information processing apparatus 200 may be capable of executing an emotion estimation process for estimating the emotions of the passenger using the image of the passenger. The information processing device 200 acquires an image of a passenger captured by an image pickup unit included in the vehicle 100. The image pickup unit may have one camera 110 capable of capturing the entire interior of the vehicle 100. The information processing apparatus 200 may acquire an image of the driver 52 and an image of the passenger 54 from the camera 110.

撮像部は、複数のカメラ110を有してもよい。情報処理装置200は、複数のカメラ110のそれぞれによって撮像された運転者52の画像及び同乗者54の画像を、当該複数のカメラ110から取得してよい。撮像部は、例えば、運転席及び助手席を撮像可能なカメラ110と、後部座席を撮像可能なカメラ110とを有する。撮像部は、運転席を撮像可能なカメラ110と、助手席を撮像可能なカメラ110とを有してもよい。撮像部は、後部座席の複数の同乗者54のそれぞれを撮像可能な複数のカメラ110を有してもよい。 The image pickup unit may have a plurality of cameras 110. The information processing apparatus 200 may acquire the image of the driver 52 and the image of the passenger 54 captured by each of the plurality of cameras 110 from the plurality of cameras 110. The image pickup unit includes, for example, a camera 110 capable of capturing an image of a driver's seat and a passenger seat, and a camera 110 capable of imaging a rear seat. The imaging unit may include a camera 110 capable of imaging the driver's seat and a camera 110 capable of imaging the passenger seat. The image pickup unit may have a plurality of cameras 110 capable of photographing each of the plurality of passengers 54 in the rear seats.

情報処理装置200は、例えば、搭乗者のニュートラルな表情の画像を予め格納しておく。ニュートラルな表情とは、いわゆる素の表情であってよい。搭乗者の素の表情とは、例えば、搭乗者が何も意識していないときの表情である。情報処理装置200は、カメラ110によって撮像された搭乗者の顔画像とニュートラルな表情の画像とを比較することによって、搭乗者の感情を推定してよい。 The information processing apparatus 200 stores, for example, an image of a passenger's neutral facial expression in advance. The neutral facial expression may be a so-called plain facial expression. The original facial expression of the passenger is, for example, a facial expression when the passenger is not aware of anything. The information processing apparatus 200 may estimate the emotions of the occupant by comparing the facial image of the occupant captured by the camera 110 with the image of the neutral facial expression.

情報処理装置200は、例えば、初期設定としてカメラ110によって撮像された搭乗者のニュートラルな表情の画像を格納する。情報処理装置200は、搭乗者のニュートラルな表情の画像を他の装置から受信して格納してもよい。情報処理装置200は、例えば、搭乗者が所有するスマートフォン等の携帯通信端末から、Bluetooth(登録商標)等の近距離無線通信を介して、搭乗者のニュートラルな表情の画像を受信する。また、情報処理装置200は、例えば、搭乗者のニュートラルな表情の画像を管理する管理サーバから、移動体通信ネットワーク等を介して、搭乗者のニュートラルな表情の画像を受信する。情報処理装置200は、1人の搭乗者につき、複数のニュートラルな表情の画像を格納してもよい。 The information processing apparatus 200 stores, for example, an image of the passenger's neutral facial expression captured by the camera 110 as an initial setting. The information processing device 200 may receive and store an image of the passenger's neutral facial expression from another device. The information processing device 200 receives, for example, an image of the passenger's neutral expression from a mobile communication terminal such as a smartphone owned by the passenger via short-range wireless communication such as Bluetooth (registered trademark). Further, the information processing apparatus 200 receives, for example, an image of the passenger's neutral expression from a management server that manages the image of the passenger's neutral expression via a mobile communication network or the like. The information processing device 200 may store a plurality of images having a neutral facial expression for one passenger.

情報処理装置200は、搭乗者のニュートラルな表情の画像を用いるのではなく、汎用のニュートラルな表情の画像を用いて搭乗者の感情を推定してもよい。汎用のニュートラルな表情の画像とは、多数の人の平均的なニュートラルな表情の画像であってよい。汎用のニュートラルな表情の画像は、性別、年齢、及び人種等の属性毎に用意されていてもよい。 The information processing apparatus 200 may estimate the emotion of the passenger by using the image of the neutral facial expression of the passenger instead of using the image of the neutral facial expression of the passenger. The general-purpose neutral facial expression image may be an average neutral facial expression image of a large number of people. Images of general-purpose neutral facial expressions may be prepared for each attribute such as gender, age, and race.

情報処理装置200は、例えば、ニュートラルな表情との相違と、人間の感情パターンとを対応付けた対応付けデータを予め格納しておく。対応付けデータは、例えば、ニュートラルな表情に対して口角が上がっていることとポジティブな感情とを対応付け、ニュートラルな表情に対して口角が下がっていることとネガティブな感情とを対応付ける。対応付けデータは、ニュートラルな表情との相違の度合と、感情の度合とをさらに対応付けてよい。例えば、対応付けデータは、ニュートラルな表情に対して、より口角が上がっているほど、より高い度合を対応付ける。情報処理装置200は、カメラ110によって撮像された搭乗者の画像、ニュートラルな表情の画像、及び当該対応付けデータを用いて、感情のパターンのいずれかと、感情の度合とを特定することにより、搭乗者の感情の推定結果とする。 The information processing apparatus 200 stores, for example, the correspondence data in which the difference from the neutral facial expression and the human emotion pattern are associated with each other in advance. The associative data, for example, associates the raised angle of the mouth with a neutral facial expression and the positive emotion, and associates the lowered angle of the mouth with the negative emotion with respect to the neutral facial expression. The association data may further associate the degree of difference with the neutral facial expression and the degree of emotion. For example, the associative data associates a neutral facial expression with a higher degree as the corner of the mouth rises. The information processing apparatus 200 uses the image of the passenger captured by the camera 110, the image of the neutral facial expression, and the associated data to identify one of the emotional patterns and the degree of emotion for boarding. It is the estimation result of the person's emotions.

人間の感情のパターンとして、例えば、人間の感情を活性度(Arousal)と覚醒度(Valence)の2軸で表し、感情の度合いを原点からの距離で表すラッセル(Russell)の円環モデルに基づく感情のパターンを採用し得る。また、例えば、人間の感情を、8つの基本感情(喜び、信頼、恐れ、驚き、悲しみ、嫌悪、怒り、期待)と、隣り合う2つの感情の組み合わせによる応用感情とに分類したプルチック(Plutchik)の感情の輪に基づく感情のパターンを採用し得る。これらに限らず、本実施形態に係る情報処理装置200は、任意の感情のパターンを採用し得る。 As a pattern of human emotions, for example, it is based on a ring model of Russell, which expresses human emotions on the two axes of activity (Arousal) and arousal (Valence), and expresses the degree of emotions by the distance from the origin. Emotional patterns can be adopted. Also, for example, human emotions are classified into eight basic emotions (joy, trust, fear, surprise, sadness, disgust, anger, expectation) and applied emotions by combining two adjacent emotions. Emotional patterns based on the emotional circle of can be adopted. Not limited to these, the information processing apparatus 200 according to the present embodiment may adopt any emotional pattern.

情報処理装置200は、ニュートラルな表情の画像を用いるのではなく、搭乗者が複数の種類の感情のそれぞれを抱いているときの顔画像を格納しておき、その後にカメラ110によって撮像された搭乗者の顔画像と、格納している複数の顔画像とを比較することによって、搭乗者の感情を推定してもよい。例えば、情報処理装置200は、格納している複数の顔画像のうち、カメラ110によって撮像された搭乗者の顔画像に最も類似する顔画像を特定し、特定した顔画像に対応する感情の種類を、搭乗者の感情の種類の推定結果とする。また、情報処理装置200は、カメラ110によって撮像された搭乗者の顔画像と、当該顔画像に最も類似する顔画像との類似度に応じた度合を、搭乗者の感情の度合の推定結果としてよい。 The information processing apparatus 200 does not use an image of a neutral facial expression, but stores a facial image when the passenger has each of a plurality of types of emotions, and then the boarding image captured by the camera 110. The emotion of the occupant may be estimated by comparing the facial image of the person with a plurality of stored facial images. For example, the information processing apparatus 200 identifies a face image most similar to the passenger's face image captured by the camera 110 among a plurality of stored face images, and the type of emotion corresponding to the specified face image. Is the estimation result of the type of emotion of the passenger. Further, the information processing apparatus 200 determines the degree of similarity between the face image of the occupant captured by the camera 110 and the face image most similar to the face image as the estimation result of the degree of emotion of the occupant. good.

情報処理装置200は、予め格納した画像を用いるのではなく、搭乗者の顔画像の変動等に基づいて、搭乗者の感情を推定してもよい。人物の顔画像から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、当該様々な技術のうちの任意の技術を採用し得る。 The information processing apparatus 200 may estimate the emotion of the occupant based on the fluctuation of the occupant's face image or the like, instead of using the image stored in advance. Various techniques are known as an emotion estimation technique for estimating the emotion of the person from the face image of the person, and any technique among the various techniques can be adopted.

車両100の搭乗者は、車両100の状況毎に、抱く感情の傾向が異なる場合がある。例えば、スピードが速いと怖く感じる人がいるが、このような人が車両100に搭乗した場合、車両100の速度が速い状況においては、恐怖の感情を抱く可能性が高いといえる。また、例えば、他の人と一緒にいることを喜ばしいと感じる人がいるが、このような人が車両100に搭乗した場合、他の搭乗者がいれば喜びの感情を抱く可能性が高いといえる。また、例えば、1人でいることが好きな人がいるが、このような人が車両100に搭乗した場合に、他の搭乗者がいれば哀しみの感情を抱く可能性が高いといえる。 The passengers of the vehicle 100 may have different emotional tendencies depending on the situation of the vehicle 100. For example, there are people who feel scared when the speed is high, but when such a person gets on the vehicle 100, it can be said that there is a high possibility that they will have a feeling of fear in the situation where the speed of the vehicle 100 is high. Also, for example, there are people who are happy to be with other people, but when such a person gets on the vehicle 100, there is a high possibility that they will have a feeling of joy if there are other passengers. I can say. Also, for example, there are people who like to be alone, but when such a person gets on the vehicle 100, it is highly likely that they will feel sad if there are other passengers.

本実施形態に係る情報処理装置200は、搭乗者の感情を推定する場合に、車両100の状況に応じた感情推定処理を実行する。情報処理装置200は、例えば、車両100の状況毎の搭乗者の感情の傾向を示す感情傾向情報を格納しておき、車両100の状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行する。 The information processing apparatus 200 according to the present embodiment executes an emotion estimation process according to the situation of the vehicle 100 when estimating the emotions of the passenger. The information processing device 200 stores, for example, emotional tendency information indicating the emotional tendency of the occupant for each situation of the vehicle 100, and the emotion estimation process using the emotional tendency of the occupant corresponding to the situation of the vehicle 100. To execute.

例えば、情報処理装置200は、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、感情傾向情報を用いない場合と比較して恐怖の度合が強くなるように、搭乗者の感情を推定する。情報処理装置200は、例えば、感情傾向情報を用いない場合と同様に搭乗者の感情を推定した後、恐怖の度合を強める補正を行う。また、例えば、情報処理装置200は、恐怖の度合が強くなるようにパラメータを設定した上で、感情推定処理を実行する。これにより、感情推定結果が、搭乗者の実際の感情を示す確率を高めることができ、感情推定精度の向上に貢献し得る。 For example, the information processing apparatus 200 estimates the emotions of the passengers so that the degree of fear becomes stronger when the emotions of the passengers who feel scared when the speed is high are estimated as compared with the case where the emotional tendency information is not used. do. The information processing apparatus 200 estimates the emotions of the occupant as in the case where the emotional tendency information is not used, and then makes a correction to increase the degree of fear. Further, for example, the information processing apparatus 200 executes the emotion estimation process after setting the parameters so that the degree of fear becomes stronger. As a result, the probability that the emotion estimation result shows the actual emotion of the passenger can be increased, which can contribute to the improvement of the emotion estimation accuracy.

情報処理装置200は、任意の手法によって、感情傾向情報を取得してよい。例えば、情報処理装置200は、搭乗者本人によって入力された感情傾向情報を取得する。また、例えば、情報処理装置200は、搭乗者の感情推定結果から、感情傾向情報を生成してもよい。例えば、情報処理装置200は、車両100の状況と、当該状況における搭乗者の感情推定結果とを収集して分析することによって、車両100の複数の状況のそれぞれにおける搭乗者の感情の傾向を特定し、特定結果を用いて感情傾向情報を生成する。 The information processing apparatus 200 may acquire emotional tendency information by any method. For example, the information processing apparatus 200 acquires emotional tendency information input by the passenger himself / herself. Further, for example, the information processing apparatus 200 may generate emotional tendency information from the emotion estimation result of the passenger. For example, the information processing apparatus 200 identifies the tendency of the occupant's emotion in each of the plurality of situations of the vehicle 100 by collecting and analyzing the situation of the vehicle 100 and the emotion estimation result of the occupant in the situation. And generate emotional tendency information using specific results.

情報処理装置200は、生成した感情傾向情報を、他の車両100等と共有してもよい。例えば、情報処理装置200は、車両100に搭乗した搭乗者の識別情報を取得しておき、搭乗者に対して生成した感情傾向情報と識別情報とを対応付けて格納する。そして、情報処理装置200は、対応付けて格納している識別情報及び感情傾向情報を、ネットワーク10を介して情報管理サーバ300に送信する。 The information processing device 200 may share the generated emotional tendency information with another vehicle 100 or the like. For example, the information processing apparatus 200 acquires the identification information of the passenger who has boarded the vehicle 100, and stores the emotional tendency information generated for the passenger and the identification information in association with each other. Then, the information processing apparatus 200 transmits the identification information and the emotional tendency information stored in association with each other to the information management server 300 via the network 10.

搭乗者の識別情報は、例えば、情報管理サーバ300によって割り振られるユーザIDである。搭乗者を識別可能な識別情報は、例えば搭乗者が所有する携帯電話の番号等、搭乗者を識別することができれば、どのような情報であってもよい。 The passenger identification information is, for example, a user ID assigned by the information management server 300. The identification information that can identify the passenger may be any information as long as the passenger can be identified, such as a mobile phone number owned by the passenger.

ネットワーク10は、任意のネットワークであってよい。例えば、ネットワーク10は、3G(3rd Generation)通信システム、LTE(Long Term Evolution)通信システム、及び5G(5th Generation)通信システム等の移動体通信システムを含んでよい。ネットワーク10は、インターネット、公衆無線LAN(Local Area Network)、及び任意の専用網等を含んでもよい。 The network 10 may be any network. For example, the network 10 may include a mobile communication system such as a 3G (3rd Generation) communication system, an LTE (Long Term Evolution) communication system, and a 5G (5th Generation) communication system. The network 10 may include the Internet, a public wireless LAN (Local Area Network), an arbitrary dedicated network, and the like.

情報管理サーバ300は、複数の情報処理装置200から収集した識別情報及び感情傾向情報を登録しておく。情報管理サーバ300は、例えば、識別情報を含む要求を受信した場合であって、当該識別情報に対応する感情傾向情報が登録されている場合に、要求の送信元に対して、感情傾向情報を送信する。 The information management server 300 registers identification information and emotional tendency information collected from a plurality of information processing devices 200. For example, when the information management server 300 receives a request including the identification information and the emotional tendency information corresponding to the identification information is registered, the information management server 300 sends the emotional tendency information to the sender of the request. Send.

要求の送信元は、例えば、車両100の情報処理装置200である。情報処理装置200は、例えば、情報処理装置200を搭載している車両100に搭乗者が搭乗した場合に、当該搭乗者の識別情報を取得して、識別情報を含む要求を情報管理サーバ300に送信し、情報管理サーバ300から感情傾向情報を受信する。これにより、情報処理装置200は、他の車両100の情報処理装置200によって生成された感情傾向情報を用いて、搭乗者の感情を推定することができる。要求の送信元は、人物の顔画像に基づく感情推定処理を実行する装置であれば、任意の装置であり得る。 The source of the request is, for example, the information processing device 200 of the vehicle 100. For example, when a occupant boarded a vehicle 100 equipped with the information processing apparatus 200, the information processing apparatus 200 acquires the identification information of the occupant and sends a request including the identification information to the information management server 300. It transmits and receives emotional tendency information from the information management server 300. Thereby, the information processing apparatus 200 can estimate the emotion of the occupant by using the emotional tendency information generated by the information processing apparatus 200 of the other vehicle 100. The source of the request may be any device as long as it is a device that executes emotion estimation processing based on a person's face image.

図2は、車両100の構成の一例を概略的に示す。図2に示す各種構成は、車両100が備えるナビゲーションシステムの一部であってもよい。 FIG. 2 schematically shows an example of the configuration of the vehicle 100. The various configurations shown in FIG. 2 may be a part of the navigation system included in the vehicle 100.

車両100は、カメラ110を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてを撮像可能なカメラ110を備える場合を例示する。図2において例示する画角112が示すように、カメラ110によれば、運転席162、助手席164、及び後部座席166の搭乗者を撮像可能である。図2におけるカメラ110の配置は例示であり、カメラ110は、運転席162、助手席164、及び後部座席166のすべてを撮像可能であれば任意の場所に配置されてよい。なお、車両100は、運転席162、助手席164、及び後部座席166のそれぞれを撮像する複数のカメラ110を備えてもよい。 The vehicle 100 includes a camera 110. FIG. 2 illustrates a case where the vehicle 100 includes a camera 110 capable of capturing all of the driver's seat 162, the passenger seat 164, and the rear seat 166. As shown by the angle of view 112 exemplified in FIG. 2, according to the camera 110, the passengers of the driver's seat 162, the passenger's seat 164, and the rear seat 166 can be imaged. The arrangement of the camera 110 in FIG. 2 is an example, and the camera 110 may be arranged at any place as long as all of the driver's seat 162, the passenger's seat 164, and the rear seat 166 can be imaged. The vehicle 100 may include a plurality of cameras 110 that capture images of the driver's seat 162, the passenger seat 164, and the rear seat 166, respectively.

車両100は、マイク122を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するマイク122を備える場合を例示する。図2におけるマイク122の配置は例示であり、マイク122は、運転席162、助手席164及び後部座席166のすべての搭乗者の音声を拾うことができれば、任意の場所に配置されてよい。車両100は、複数のマイク122を備えてもよい。複数のマイク122は、例えば、運転席162用のマイク122、助手席164用のマイク122、及び後部座席166用のマイク122を含む。 The vehicle 100 includes a microphone 122. FIG. 2 illustrates a case where the vehicle 100 includes a microphone 122 corresponding to all of the driver's seat 162, the passenger seat 164, and the rear seat 166. The arrangement of the microphone 122 in FIG. 2 is an example, and the microphone 122 may be arranged at any place as long as the voices of all the passengers in the driver's seat 162, the passenger seat 164 and the rear seat 166 can be picked up. The vehicle 100 may include a plurality of microphones 122. The plurality of microphones 122 include, for example, a microphone 122 for the driver's seat 162, a microphone 122 for the passenger seat 164, and a microphone 122 for the rear seat 166.

車両100は、スピーカ124を備える。図2では、車両100が、運転席162、助手席164、及び後部座席166のすべてに対応するスピーカ124を備える場合を例示する。図2におけるスピーカ124の配置は例示であり、スピーカ124は、任意の場所に配置されてよい。車両100は、複数のスピーカ124を備えてもよい。 The vehicle 100 includes a speaker 124. FIG. 2 illustrates a case where the vehicle 100 is provided with speakers 124 corresponding to all of the driver's seat 162, the passenger's seat 164, and the rear seat 166. The arrangement of the speaker 124 in FIG. 2 is an example, and the speaker 124 may be arranged at an arbitrary place. The vehicle 100 may include a plurality of speakers 124.

車両100は、ディスプレイ130を備える。図2におけるディスプレイ130の配置は例示であり、ディスプレイ130は、主に運転席162及び助手席164から閲覧可能であれば、任意の場所に配置されてよい。ディスプレイ130は、タッチパネルディスプレイであってよい。車両100は、複数のディスプレイ130を備えてもよい。例えば、車両100は、運転席162及び助手席164用のディスプレイ130と、後部座席166用のディスプレイ130とを備える。 The vehicle 100 includes a display 130. The arrangement of the display 130 in FIG. 2 is an example, and the display 130 may be arranged at any place as long as it can be viewed mainly from the driver's seat 162 and the passenger's seat 164. The display 130 may be a touch panel display. The vehicle 100 may include a plurality of displays 130. For example, the vehicle 100 includes a display 130 for the driver's seat 162 and the passenger seat 164, and a display 130 for the rear seat 166.

車両100は、無線通信アンテナ142を備える。無線通信アンテナ142は、ネットワーク10上の装置と通信するためのアンテナであってよい。車両100は、例えば、無線通信アンテナ142によって、移動体通信システムにおける無線基地局及び無線ルータ等を介してネットワーク10上の装置と通信する。なお、無線通信アンテナ142は、車車間通信及び路車間通信等を行うためのアンテナであってもよく、車両100は、車車間通信及び路車間通信等を介して、ネットワーク10上の装置と通信してもよい。 The vehicle 100 includes a wireless communication antenna 142. The wireless communication antenna 142 may be an antenna for communicating with a device on the network 10. The vehicle 100 communicates with a device on the network 10 by means of, for example, a wireless communication antenna 142 via a wireless base station, a wireless router, or the like in a mobile communication system. The wireless communication antenna 142 may be an antenna for performing vehicle-to-vehicle communication, road-to-vehicle communication, and the like, and the vehicle 100 communicates with a device on the network 10 via vehicle-to-vehicle communication, road-to-vehicle communication, and the like. You may.

車両100は、GPS(Global Positioning System)アンテナ144を備える。GPSアンテナ144は、GPS衛星から位置測定用の電波を受信する。車両100は、GPSアンテナ144が受信する位置測定用の電波を用いて、車両100の現在地を測位してよい。車両100は、さらに自立航法による測位を組み合わせることによって、車両100の現在地を測位してもよい。車両100は、公知の任意の測位技術を用いて、車両100の現在地を測位してよい。 The vehicle 100 includes a GPS (Global Positioning System) antenna 144. The GPS antenna 144 receives radio waves for position measurement from GPS satellites. The vehicle 100 may determine the current location of the vehicle 100 by using the radio wave for position measurement received by the GPS antenna 144. The vehicle 100 may further position the current location of the vehicle 100 by combining positioning by self-contained navigation. The vehicle 100 may position the current location of the vehicle 100 using any known positioning technique.

車両100は、車両100の搭乗者の生体情報を検知可能な不図示のセンサを備えてもよい。当該センサは、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置され、搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を検知する。車両100は、搭乗者が身に着けているウェアラブルデバイスと通信接続する近距離無線通信部を備えていてもよく、ウェアラブルデバイスによって検知された搭乗者の生体情報を、当該ウェアラブルデバイスから受信してもよい。近距離無線通信部は、例えば、Bluetooth等によってウェアラブルデバイスと通信接続する。 The vehicle 100 may include a sensor (not shown) capable of detecting the biological information of the passenger of the vehicle 100. The sensor is arranged in, for example, a handle 150, a driver's seat 162, a passenger seat 164, a rear seat 166, and the like, and detects biological information such as a occupant's heartbeat, pulse, sweating, blood pressure, and body temperature. The vehicle 100 may include a short-range wireless communication unit that communicates and connects with a wearable device worn by the occupant, and receives the occupant's biometric information detected by the wearable device from the wearable device. May be good. The short-range wireless communication unit communicates with the wearable device by means of, for example, Bluetooth or the like.

上述の各種構成は、情報処理装置200が備えてもよい。情報処理装置200は、車両100が備えるナビゲーションシステムと一体であってよく、また、別体であってもよい。 The information processing apparatus 200 may be provided with the above-mentioned various configurations. The information processing device 200 may be integrated with the navigation system included in the vehicle 100, or may be a separate body.

図3は、情報処理装置200の機能構成の一例を概略的に示す。情報処理装置200は、画像取得部202、音声取得部204、センサ情報取得部206、感情推定部210、状況取得部220、感情傾向情報格納部230、感情傾向情報生成部232、識別情報取得部234、感情傾向情報送信部236、感情傾向情報取得部238、データ格納部240、及びデータ取得部242を備える。なお、情報処理装置200がこれらのすべての構成を備えることは必須とは限らない。 FIG. 3 schematically shows an example of the functional configuration of the information processing apparatus 200. The information processing device 200 includes an image acquisition unit 202, a voice acquisition unit 204, a sensor information acquisition unit 206, an emotion estimation unit 210, a situation acquisition unit 220, an emotional tendency information storage unit 230, an emotional tendency information generation unit 232, and an identification information acquisition unit. It includes 234, emotional tendency information transmission unit 236, emotional tendency information acquisition unit 238, data storage unit 240, and data acquisition unit 242. It is not always essential that the information processing apparatus 200 has all of these configurations.

画像取得部202は、車両100の搭乗者の画像を取得する。画像取得部202は、車両100の撮像部によって撮像された搭乗者の画像を取得する。画像取得部202は、100の撮像部によって撮像される搭乗者の画像を継続的に取得してよい。 The image acquisition unit 202 acquires an image of the passenger of the vehicle 100. The image acquisition unit 202 acquires an image of the passenger captured by the image pickup unit of the vehicle 100. The image acquisition unit 202 may continuously acquire the image of the passenger captured by the 100 image pickup units.

音声取得部204は、車両100の搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から入力された搭乗者の音声を取得する。音声取得部204は、車両100のマイク122から搭乗者の音声を継続的に取得してよい。 The voice acquisition unit 204 acquires the voice of the passenger of the vehicle 100. The voice acquisition unit 204 acquires the occupant's voice input from the microphone 122 of the vehicle 100. The voice acquisition unit 204 may continuously acquire the voice of the occupant from the microphone 122 of the vehicle 100.

センサ情報取得部206は、センサによって検知された車両100の搭乗者の生体情報を取得する。センサ情報取得部206は、例えば、ハンドル150、運転席162、助手席164、及び後部座席166等に配置されたセンサによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該センサから取得する。また、センサ情報取得部206は、例えば、搭乗者が身に着けているウェアラブルデバイスによって検知された搭乗者の心拍、脈拍、発汗、血圧、及び体温等の生体情報を、当該ウェアラブルデバイスから取得する。 The sensor information acquisition unit 206 acquires the biometric information of the occupant of the vehicle 100 detected by the sensor. The sensor information acquisition unit 206 is a living body such as a passenger's heartbeat, pulse, sweating, blood pressure, and body temperature detected by sensors arranged on, for example, a handle 150, a driver's seat 162, a passenger seat 164, and a rear seat 166. Information is acquired from the sensor. Further, the sensor information acquisition unit 206 acquires biological information such as the occupant's heartbeat, pulse, sweating, blood pressure, and body temperature detected by the wearable device worn by the occupant from the wearable device. ..

感情推定部210は、感情推定処理を実行して搭乗者の感情の種類及び度合を推定する。感情推定部210は、画像取得部202によって取得された搭乗者の顔画像を用いた感情推定処理を実行してよい。 The emotion estimation unit 210 executes an emotion estimation process to estimate the type and degree of emotions of the passenger. The emotion estimation unit 210 may execute an emotion estimation process using the passenger's face image acquired by the image acquisition unit 202.

また、感情推定部210は、音声取得部204によって取得された搭乗者の音声を用いた感情推定処理を実行可能であってよい。感情推定部210は、例えば、音声自体の特徴量に基づく感情推定処理を実行する。音声自体の特徴量としては、音声の大きさ、トーン、スペクトル、及び基本周波数等が例示できる。感情推定部210は、音声を音声認識した結果の文字列に基づく感情推定処理を実行してもよい。また、感情推定部210は、音声自体の特徴量と、音声を音声認識した結果の文字列との両方に基づく感情推定処理を実行してもよい。車両100が複数の搭乗者のそれぞれの音声を拾う複数のマイクを備えている場合、感情推定部210は、マイクの違いによって、話者を識別してよい。一つのマイクによって複数の搭乗者の音声を拾う場合、感情推定部210は、公知の話者識別機能を用いることによって、話者を識別してよい。公知の話者識別機能としては、音声の特徴量を用いる方法、音声の取得方向から判定する方法等が知られている。人物の音声から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、感情推定部210は、当該様々な技術のうちの任意の技術を採用し得る。 Further, the emotion estimation unit 210 may be able to execute the emotion estimation process using the passenger's voice acquired by the voice acquisition unit 204. The emotion estimation unit 210 executes, for example, an emotion estimation process based on the feature amount of the voice itself. Examples of the feature amount of the voice itself include the loudness, tone, spectrum, fundamental frequency, and the like of the voice. The emotion estimation unit 210 may execute an emotion estimation process based on a character string as a result of voice recognition of voice. Further, the emotion estimation unit 210 may execute an emotion estimation process based on both the feature amount of the voice itself and the character string as a result of voice recognition of the voice. When the vehicle 100 is provided with a plurality of microphones that pick up the voices of the plurality of passengers, the emotion estimation unit 210 may identify the speaker by the difference between the microphones. When the voices of a plurality of passengers are picked up by one microphone, the emotion estimation unit 210 may identify the speaker by using a known speaker identification function. As a known speaker identification function, a method using a feature amount of voice, a method of determining from the acquisition direction of voice, and the like are known. Various techniques are known as an emotion estimation technique for estimating the emotion of the person from the voice of the person, and the emotion estimation unit 210 may adopt any technique among the various techniques.

また、感情推定部210は、センサ情報取得部206によって取得された複数種類の生体情報を用いた感情推定処理を実行可能であってよい。感情推定部210は、例えば、搭乗者の心拍、脈拍、発汗、血圧、及び体温等を用いた感情推定処理を実行する。人物の心拍、脈拍、発汗、血圧、及び体温等から当該人物の感情を推定する感情推定技術として様々な技術が知られているが、情報処理装置200は、当該様々な技術のうちの任意の技術を採用し得る。 Further, the emotion estimation unit 210 may be able to execute an emotion estimation process using a plurality of types of biological information acquired by the sensor information acquisition unit 206. The emotion estimation unit 210 executes an emotion estimation process using, for example, the occupant's heartbeat, pulse, sweating, blood pressure, body temperature, and the like. Various techniques are known as an emotion estimation technique for estimating a person's emotions from a person's heartbeat, pulse, sweating, blood pressure, body temperature, etc., and the information processing apparatus 200 is any of the various techniques. Technology can be adopted.

状況取得部220は、車両100の状況を取得する。状況取得部220は、例えば、車両100の走行状況を取得する。状況取得部220は、例えば、車両100のナビゲーションシステムによって管理されている車両100の走行状況を、ナビゲーションシステムから取得する。車両100のナビゲーションシステムは、車両100の位置情報、車両100が走行している周辺の道路データ、車両100の速度、加速度、ステアリングの操作状態、及びブレーキの操作状態等から、車両100の走行状況を判定してよい。 The status acquisition unit 220 acquires the status of the vehicle 100. The status acquisition unit 220 acquires, for example, the traveling status of the vehicle 100. The status acquisition unit 220 acquires, for example, the traveling status of the vehicle 100 managed by the navigation system of the vehicle 100 from the navigation system. The navigation system of the vehicle 100 is based on the position information of the vehicle 100, the road data around the vehicle 100, the speed and acceleration of the vehicle 100, the steering operation state, the brake operation state, and the like. May be determined.

車両100の走行状況は、車両100の状態及び車両100が走行している道路の状況等を含んでよい。車両100の状態は、例えば、車両100の走行速度に関する情報を含む。車両100の走行速度に関する情報は、例えば、車両100が通常速度で走行していること、車両100が加速していること、車両100が急加速したこと、及び車両100が急停止したこと等を含む。 The traveling condition of the vehicle 100 may include the condition of the vehicle 100, the condition of the road on which the vehicle 100 is traveling, and the like. The state of the vehicle 100 includes, for example, information about the traveling speed of the vehicle 100. Information on the traveling speed of the vehicle 100 includes, for example, that the vehicle 100 is traveling at a normal speed, that the vehicle 100 is accelerating, that the vehicle 100 is suddenly accelerated, that the vehicle 100 is suddenly stopped, and the like. include.

車両100が走行している道路の状況は、例えば、車両100が走行している道路の形状を含む。道路の形状としては、直線、カーブ、及び坂道等が例示できる。カーブは、カーブの度合いによって、緩いカーブ、普通のカーブ、急カーブ等に細分化されてもよい。坂道は、上り坂及び下り坂に区別されてよく、また、坂道の度合いによって緩い上り坂、普通の上り坂、急な上り坂、緩い下り坂、普通の下り坂、急な下り坂等に細分化されてもよい。 The condition of the road on which the vehicle 100 is traveling includes, for example, the shape of the road on which the vehicle 100 is traveling. Examples of the shape of the road include straight lines, curves, and slopes. The curve may be subdivided into a loose curve, a normal curve, a sharp curve, and the like depending on the degree of the curve. Slopes may be divided into uphills and downhills, and are subdivided into gentle uphills, normal uphills, steep uphills, gentle downhills, normal downhills, steep downhills, etc. depending on the degree of the slope. It may be converted.

また、状況取得部220は、例えば、車両100の内部状況を取得する。状況取得部220は、例えば、画像取得部202が取得する画像によって、車両100の内部状況を取得する。状況取得部220は、例えば、車両100の搭乗者の数を取得する。また、状況取得部220は、車両100の搭乗者を識別して個人を特定することにより、車両100に搭乗している人物の情報を取得する。 Further, the status acquisition unit 220 acquires, for example, the internal status of the vehicle 100. The situation acquisition unit 220 acquires the internal status of the vehicle 100, for example, by the image acquired by the image acquisition unit 202. The status acquisition unit 220 acquires, for example, the number of passengers in the vehicle 100. Further, the situation acquisition unit 220 acquires information on a person who is on the vehicle 100 by identifying the passenger of the vehicle 100 and identifying an individual.

感情傾向情報格納部230は、搭乗者の感情傾向情報を格納する。感情傾向情報格納部230は、複数の搭乗者のそれぞれに対応する感情傾向情報を格納してよい。感情傾向情報格納部230は、例えば、車両100を常用している人物の感情傾向情報を格納する。例えば、感情傾向情報格納部230は、車両100の所有者と、所有者と同居している者の感情傾向情報を格納する。感情傾向情報格納部230は、車両100を常用している人物以外に、車両100に搭乗する可能性がある人物の感情傾向情報を格納してよい。 The emotional tendency information storage unit 230 stores the emotional tendency information of the passenger. The emotional tendency information storage unit 230 may store emotional tendency information corresponding to each of the plurality of passengers. The emotional tendency information storage unit 230 stores, for example, the emotional tendency information of a person who regularly uses the vehicle 100. For example, the emotional tendency information storage unit 230 stores the emotional tendency information of the owner of the vehicle 100 and the person living with the owner. The emotional tendency information storage unit 230 may store emotional tendency information of a person who may board the vehicle 100 in addition to the person who regularly uses the vehicle 100.

感情傾向情報は、車両100の移動速度に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100の走行速度が予め定められた速度より速い状況と、搭乗者が恐怖を抱きやすいことを示す感情の傾向とを対応付ける。 The emotional tendency information may include the emotional tendency of the occupant corresponding to the situation regarding the moving speed of the vehicle 100. The emotional tendency information associates, for example, a situation in which the traveling speed of the vehicle 100 is faster than a predetermined speed with an emotional tendency indicating that the passenger is likely to have fear.

感情傾向情報は、例えば、車両100の搭乗者の数に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100に複数の搭乗者が搭乗している状況と、搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付ける。また、感情傾向情報は、例えば、車両100に複数の搭乗者が搭乗している状況と、搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付ける。 The emotional tendency information may include, for example, a passenger's emotional tendency corresponding to a situation regarding the number of passengers in the vehicle 100. The emotional tendency information associates, for example, a situation in which a plurality of passengers are on board the vehicle 100 with an emotional tendency indicating that the passengers are likely to have joy. Further, the emotional tendency information associates, for example, a situation in which a plurality of passengers are on board the vehicle 100 with an emotional tendency indicating that the passengers tend to have sadness.

感情傾向情報は、車両100が走行している道路に関する状況に対応する搭乗者の感情の傾向を含んでよい。感情傾向情報は、例えば、車両100が走行している道路が高速道路である状況と、搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付ける。また、感情傾向情報は、例えば、車両100が走行している道路が高速道路である状況と、搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付ける。 The emotional tendency information may include the emotional tendency of the occupant corresponding to the situation regarding the road on which the vehicle 100 is traveling. The emotional tendency information associates, for example, a situation where the road on which the vehicle 100 is traveling is a highway with an emotional tendency indicating that the passenger is likely to have excitement. Further, the emotional tendency information associates, for example, a situation where the road on which the vehicle 100 is traveling is an expressway with an emotional tendency indicating that the passenger is likely to have tension.

感情傾向情報格納部230は、複数の搭乗者のそれぞれについて、下記表1に例示するように、運転する場合と同乗する場合とのそれぞれの感情の傾向を示す感情傾向情報を格納してよい。 The emotional tendency information storage unit 230 may store emotional tendency information indicating the emotional tendency of each of the plurality of passengers, as illustrated in Table 1 below, when driving and when riding together.

Figure 0007068156000001
Figure 0007068156000001

感情推定部210は、状況取得部220によって取得された車両100の状況に応じた感情推定処理を実行する。感情推定部210は、例えば、搭乗者に対応する感情傾向情報を参照し、状況取得部220が取得した状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行する。感情推定部210は、搭乗者が運転者52である場合、当該搭乗者が運転する場合のそれぞれの感情の傾向を示す感情傾向情報を用いた感情推定処理を実行してよい。また、感情推定部210は、搭乗者が同乗者54である場合、当該搭乗者が同乗する場合のそれぞれの感情の傾向を示す感情傾向情報を用いた感情推定処理を実行してよい。 The emotion estimation unit 210 executes the emotion estimation process according to the situation of the vehicle 100 acquired by the situation acquisition unit 220. For example, the emotion estimation unit 210 refers to the emotional tendency information corresponding to the passenger, and executes the emotion estimation process using the emotional tendency of the passenger corresponding to the situation acquired by the situation acquisition unit 220. When the passenger is the driver 52, the emotion estimation unit 210 may execute an emotion estimation process using emotion tendency information indicating each emotional tendency when the passenger drives. Further, when the passenger is a passenger 54, the emotion estimation unit 210 may execute an emotion estimation process using emotion tendency information indicating each emotional tendency when the passenger is on board.

感情推定部210は、例えば、搭乗者が3人いる場合、3人のそれぞれの感情傾向情報を感情傾向情報格納部230から読み出す。下記表2は、読み出した感情傾向情報の一例を示す。 For example, when there are three passengers, the emotion estimation unit 210 reads out the emotional tendency information of each of the three passengers from the emotional tendency information storage unit 230. Table 2 below shows an example of the read emotional tendency information.

Figure 0007068156000002
Figure 0007068156000002

感情推定部210は、例えば、車両100の移動速度が予め定められた速度より速い場合に、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の興奮の感情の度合が強くなるように運転者の感情を推定する。また、感情推定部210は、例えば、車両100の移動速度が予め定められた速度より速い場合に、感情傾向情報を用いずに同乗者Aの感情を推定する場合と比較して、同乗者Aの恐怖の感情の度合が強くなるように同乗者Aの感情を推定する。 The emotion estimation unit 210, for example, when the moving speed of the vehicle 100 is faster than a predetermined speed, as compared with the case of estimating the emotion of the driver without using the emotion tendency information, the emotion of the driver's excitement. Estimate the driver's emotions so that the degree of Further, the emotion estimation unit 210 estimates the emotion of the passenger A without using the emotion tendency information when the moving speed of the vehicle 100 is faster than a predetermined speed, for example, as compared with the case where the passenger A estimates the emotion of the passenger A. Estimate the emotions of passenger A so that the degree of fear of the passenger becomes stronger.

感情推定部210は、車両100に複数の搭乗者が搭乗していることから、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の哀しみの感情の度合が強くなるように運転者の感情を推定してよい。また、感情推定部210は、車両100に複数の搭乗者が搭乗していることから、感情傾向情報を用いずに同乗者Bの感情を推定する場合と比較して、同乗者Bの喜びの感情の度合が強くなるように運転者の感情を推定してよい。 Since the emotion estimation unit 210 has a plurality of passengers on board the vehicle 100, the degree of emotions of the driver's sorrow is higher than that in the case of estimating the emotions of the driver without using the emotion tendency information. The driver's emotions may be estimated to be stronger. Further, since the emotion estimation unit 210 has a plurality of passengers on board the vehicle 100, the joy of the passenger B is compared with the case where the emotion of the passenger B is estimated without using the emotion tendency information. The driver's emotions may be estimated so that the degree of emotions becomes stronger.

感情推定部210は、例えば、車両100が高速道路を走行している場合に、感情傾向情報を用いずに運転者の感情を推定する場合と比較して、運転者の興奮の感情の度合が強くなるように運転者の感情を推定する。また、感情推定部210は、例えば、車両100が高速道路を走行している場合に、感情傾向情報を用いずに同乗者A、同乗者Bの感情を推定する場合と比較して、同乗者A、同乗者Bの興奮の感情の度合が強くなるように運転者の感情を推定する。 For example, when the vehicle 100 is traveling on a highway, the emotion estimation unit 210 determines the degree of emotion of the driver's excitement as compared with the case where the driver's emotion is estimated without using the emotion tendency information. Estimate the driver's emotions to be stronger. Further, the emotion estimation unit 210 estimates the emotions of the passenger A and the passenger B without using the emotion tendency information, for example, when the vehicle 100 is traveling on the highway. The driver's emotions are estimated so that the degree of excitement of A and passenger B becomes stronger.

上述したように、感情推定部210が、搭乗者に対応する感情傾向情報を参照し、車両100の状況に対応する搭乗者の感情の傾向を用いた感情推定処理を実行することにより、各状況において搭乗者が抱きやすい感情の情報を反映した推定結果を導出できるので、推定精度の向上に貢献し得る。 As described above, the emotion estimation unit 210 refers to the emotion tendency information corresponding to the passenger, and executes the emotion estimation process using the emotion tendency of the passenger corresponding to the situation of the vehicle 100 to execute each situation. Since the estimation result that reflects the emotional information that the passenger can easily hold can be derived, it can contribute to the improvement of the estimation accuracy.

感情傾向情報生成部232は、感情傾向情報を生成する。感情傾向情報生成部232は、例えば、状況取得部220が取得した状況と、感情推定部210が感情傾向情報を用いずに推定した搭乗者の感情の推定結果とから、感情傾向情報を生成する。感情傾向情報生成部232は、車両100の状況と、当該状況における搭乗者の感情推定結果とを収集して分析することによって、車両100の複数の状況のそれぞれにおける搭乗者の感情の傾向を特定し、特定結果を用いて感情傾向情報を生成してよい。感情傾向情報生成部232は、生成した感情傾向情報を感情傾向情報格納部230に格納する。 The emotional tendency information generation unit 232 generates emotional tendency information. The emotional tendency information generation unit 232 generates emotional tendency information from, for example, the situation acquired by the situation acquisition unit 220 and the estimation result of the passenger's emotions estimated by the emotion estimation unit 210 without using the emotional tendency information. .. The emotional tendency information generation unit 232 identifies the tendency of the occupant's emotion in each of the plurality of situations of the vehicle 100 by collecting and analyzing the situation of the vehicle 100 and the emotion estimation result of the occupant in the situation. Then, the emotional tendency information may be generated using the specific result. The emotional tendency information generation unit 232 stores the generated emotional tendency information in the emotional tendency information storage unit 230.

識別情報取得部234は、車両100の搭乗者の識別情報を取得する。識別情報取得部234は、例えば、画像取得部202によって取得される搭乗者の顔画像に対して人物認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。また、識別情報取得部234は、例えば、音声取得部204によって取得される搭乗者の音声に対して話者認識技術を適用することによって人物を特定し、特定した人物の識別情報を取得する。識別情報取得部234は、搭乗者が所有する携帯通信端末から、近距離無線通信を介して、搭乗者の識別情報を受信してもよい。感情傾向情報生成部232は、識別情報取得部234が取得する搭乗者の識別情報を対応付けて、当該搭乗者の感情傾向情報を感情傾向情報格納部230に格納してよい。 The identification information acquisition unit 234 acquires the identification information of the passenger of the vehicle 100. The identification information acquisition unit 234 identifies a person by applying the person recognition technique to the face image of the passenger acquired by the image acquisition unit 202, and acquires the identification information of the specified person. Further, the identification information acquisition unit 234 identifies a person by applying the speaker recognition technique to the voice of the passenger acquired by the voice acquisition unit 204, and acquires the identification information of the identified person. The identification information acquisition unit 234 may receive the identification information of the passenger from the mobile communication terminal owned by the passenger via short-range wireless communication. The emotional tendency information generation unit 232 may store the emotional tendency information of the passenger in the emotional tendency information storage unit 230 in association with the passenger identification information acquired by the identification information acquisition unit 234.

感情傾向情報送信部236は、感情傾向情報格納部230に格納されている、識別情報が対応付けられた感情傾向情報を、情報管理サーバ300に送信する。感情傾向情報送信部236は、ネットワーク10を介して、感情傾向情報を情報管理サーバ300に送信してよい。 The emotional tendency information transmission unit 236 transmits the emotional tendency information to which the identification information is associated, which is stored in the emotional tendency information storage unit 230, to the information management server 300. The emotional tendency information transmission unit 236 may transmit the emotional tendency information to the information management server 300 via the network 10.

感情傾向情報取得部238は、情報管理サーバ300から感情傾向情報を取得する。感情傾向情報取得部238は、例えば、識別情報取得部234によって取得された車両100の搭乗者の識別情報を含む要求を情報管理サーバ300に送信し、情報管理サーバ300から、要求に含まれる識別情報に対応する感情傾向情報を受信してよい。感情傾向情報取得部238は、情報管理サーバ300から受信した感情傾向情報を感情傾向情報格納部230に格納してよい。 The emotional tendency information acquisition unit 238 acquires emotional tendency information from the information management server 300. The emotional tendency information acquisition unit 238 transmits, for example, a request including the identification information of the passenger of the vehicle 100 acquired by the identification information acquisition unit 234 to the information management server 300, and the information management server 300 transmits the identification included in the request. Emotional tendency information corresponding to the information may be received. The emotional tendency information acquisition unit 238 may store the emotional tendency information received from the information management server 300 in the emotional tendency information storage unit 230.

データ格納部240は、車両100の搭乗者の感情を推定するための感情推定用データを格納する。データ格納部240は、車両100の状況毎に、感情推定用データを格納してよい。感情推定用データは、車両100がある状況のときに当該車両100の搭乗者が抱きやすい感情の種類が推定結果として導出されやすくなるように生成されたデータであってよい。また、感情推定用データは、車両100がある状況のときに搭乗者が抱きやすい感情の種類の感情の度合が強い度合となるように生成されたデータであってよい。 The data storage unit 240 stores emotion estimation data for estimating emotions of the passengers of the vehicle 100. The data storage unit 240 may store emotion estimation data for each situation of the vehicle 100. The emotion estimation data may be data generated so that when the vehicle 100 is in a certain situation, the types of emotions that the passenger of the vehicle 100 can easily hold can be easily derived as the estimation result. Further, the emotion estimation data may be data generated so that the degree of emotion of the type of emotion that the passenger is likely to hold when the vehicle 100 is present is a strong degree.

データ格納部240は、例えば、車両100の走行速度毎の感情推定用データを格納する。また、データ格納部240は、例えば、車両100の搭乗者の数毎の感情推定用データを格納する。また、データ格納部240は、例えば、自動運転及び手動運転のそれぞれ用の感情推定用データを格納する。データ格納部240は、これらに限らず、さらに多様な状況に応じた感情推定用データを格納してもよい。 The data storage unit 240 stores, for example, emotion estimation data for each traveling speed of the vehicle 100. Further, the data storage unit 240 stores, for example, emotion estimation data for each number of passengers in the vehicle 100. Further, the data storage unit 240 stores, for example, emotion estimation data for each of automatic driving and manual driving. The data storage unit 240 is not limited to these, and may store emotion estimation data according to various situations.

感情推定部210は、状況取得部220によって取得された状況に対応する感情推定用データを用いた感情推定処理を実行してよい。これにより、車両100の状況に応じた搭乗者の感情の傾向を反映した感情推定結果を導出することができる。 The emotion estimation unit 210 may execute an emotion estimation process using the emotion estimation data corresponding to the situation acquired by the situation acquisition unit 220. As a result, it is possible to derive an emotion estimation result that reflects the emotional tendency of the occupant according to the situation of the vehicle 100.

感情推定用データは、例えば、感情推定アルゴリズムである。感情推定部210は、状況取得部220によって取得された状況に対応する感情推定アルゴリズムを用いた感情推定アルゴリズムを実行してよい。データ格納部240は、車両100の状況毎に、感情推定アルゴリズムを格納してよい。データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類が推定結果として導出されやすい感情推定アルゴリズムを、当該状況に対応付けて格納する。また、データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類の感情の度合が強い度合となるように生成された感情推定アルゴリズムを、当該状況に対応付けて格納する。 The emotion estimation data is, for example, an emotion estimation algorithm. The emotion estimation unit 210 may execute an emotion estimation algorithm using an emotion estimation algorithm corresponding to the situation acquired by the situation acquisition unit 220. The data storage unit 240 may store the emotion estimation algorithm for each situation of the vehicle 100. The data storage unit 240 stores, for example, an emotion estimation algorithm in which the type of emotion that the occupant tends to hold when the vehicle 100 is in a certain situation is easily derived as an estimation result, in association with the situation. Further, the data storage unit 240 associates, for example, an emotion estimation algorithm generated so that the degree of emotion of the type of emotion that the passenger is likely to hold is strong when the vehicle 100 is in a certain situation. And store.

データ格納部240は、例えば、車両100の走行速度毎の感情推定アルゴリズムを格納する。具体例として、データ格納部240は、車両100の走行速度がより速い状況に対して、推定結果の恐怖の感情がより強い度合となるように生成された感情推定アルゴリズムを対応付ける。これにより、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、推定結果における恐怖の感情の度合をより強い度合とすることができ、推定結果の感情と、搭乗者の実際の感情との一致度を高め得る。 The data storage unit 240 stores, for example, an emotion estimation algorithm for each traveling speed of the vehicle 100. As a specific example, the data storage unit 240 associates an emotion estimation algorithm generated so that the fear emotion of the estimation result becomes stronger with respect to the situation where the traveling speed of the vehicle 100 is faster. This makes it possible to make the degree of fear in the estimation result stronger when estimating the emotion of the passenger who feels scared when the speed is high, and the emotion of the estimation result and the actual feeling of the passenger. Can increase the degree of matching.

また、感情推定用データは、例えば、搭乗者のニュートラルな表情の顔画像である。感情推定部210は、例えば、画像取得部202によって取得された搭乗者の顔画像と、状況取得部220によって取得された状況に対応する搭乗者のニュートラルな表情の画像とを比較することにより、搭乗者の感情を推定する。データ格納部240は、車両100の状況毎に、搭乗者のニュートラルな表情の顔画像を格納してよい。データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類が推定結果として導出されやすい搭乗者のニュートラルな表情の顔画像を、当該状況に対応付けて格納する。また、データ格納部240は、例えば、車両100がある状況のときに搭乗者が抱きやすい感情の種類の度合が強い度合となるような搭乗者のニュートラルな表情の画像を、当該状況に対応付けて格納する。搭乗者が抱きやすい感情の種類の度合が強い度合となるような搭乗者のニュートラルな表情とは、このような種類の感情を抱いたときに変化する部分の変化量がより大きくなるような表情であってよい。例えば、目が大きく見開いているほど、驚きの感情の度合を強いと判定する場合、驚きの感情の度合が強い度合となるような搭乗者のニュートラルな表情とは、目の見開きが少ない表情である。 Further, the emotion estimation data is, for example, a face image of the passenger's neutral facial expression. The emotion estimation unit 210 compares, for example, the face image of the passenger acquired by the image acquisition unit 202 with the image of the neutral facial expression of the passenger corresponding to the situation acquired by the situation acquisition unit 220. Estimate the passenger's emotions. The data storage unit 240 may store a face image of the passenger's neutral facial expression for each situation of the vehicle 100. The data storage unit 240 stores, for example, a face image of the occupant's neutral facial expression in which the type of emotion that the occupant tends to hold is easily derived as an estimation result when the vehicle 100 is in a certain situation. .. Further, the data storage unit 240 associates, for example, an image of the occupant's neutral facial expression with which the degree of the emotion type that the occupant tends to hold is strong when the vehicle 100 is in a certain situation. And store. A passenger's neutral facial expression, in which the degree of emotions that the passenger is likely to hold is strong, is a facial expression in which the amount of change in the part that changes when these types of emotions are held is greater. May be. For example, if it is determined that the wider the eyes are wide open, the stronger the degree of surprise emotions is, the passenger's neutral facial expression that the degree of surprise emotions is stronger is the facial expression with less spread of eyes. be.

データ格納部240は、例えば、車両100の走行速度毎のニュートラルな表情の画像を格納する。具体例として、データ格納部240は、車両100の走行速度がより速い状況に対して、推定結果の恐怖の感情がより強い度合となるような搭乗者のニュートラルな表情の画像を対応付ける。これにより、スピードが速いと怖く感じる搭乗者の感情を推定する場合に、推定結果における恐怖の感情の度合をより強い度合とすることができ、推定結果の感情と、搭乗者の実際の感情との一致度を高め得る。 The data storage unit 240 stores, for example, an image of a neutral facial expression for each traveling speed of the vehicle 100. As a specific example, the data storage unit 240 associates an image of the passenger's neutral facial expression such that the feeling of fear of the estimation result becomes stronger with respect to the situation where the traveling speed of the vehicle 100 is faster. This makes it possible to make the degree of fear in the estimation result stronger when estimating the emotion of the passenger who feels scared when the speed is high, and the emotion of the estimation result and the actual feeling of the passenger. Can increase the degree of matching.

図4は、情報処理装置200による処理の流れの一例を概略的に示す。ここでは、感情推定部210が感情傾向情報を用いた感情推定処理を実行する場合の処理の流れを説明する。 FIG. 4 schematically shows an example of the processing flow by the information processing apparatus 200. Here, the flow of processing when the emotion estimation unit 210 executes the emotion estimation process using the emotion tendency information will be described.

ステップ(ステップをSと省略して記載する場合がある。)102では、状況取得部220が車両100の状況を取得する。S104では、画像取得部202が搭乗者の画像を取得する。S106では、感情推定部210が感情推定処理を実行するか否かを判定する。感情推定部210は、例えば、周期的に感情推定処理を実行してよく、感情推定部210は、実行周期になったか否かを判定する。当該周期は、例えば、画像取得部202が取得する画像のフレームの周期であってよい。感情推定処理を実行すると判定した場合、S108に進み、実行しないと判定した場合、S102に戻る。 In step 102 (the step may be abbreviated as S) 102, the status acquisition unit 220 acquires the status of the vehicle 100. In S104, the image acquisition unit 202 acquires the image of the passenger. In S106, it is determined whether or not the emotion estimation unit 210 executes the emotion estimation process. The emotion estimation unit 210 may, for example, periodically execute the emotion estimation process, and the emotion estimation unit 210 determines whether or not the execution cycle has been reached. The cycle may be, for example, the cycle of the frame of the image acquired by the image acquisition unit 202. If it is determined that the emotion estimation process is to be executed, the process proceeds to S108, and if it is determined not to be executed, the process returns to S102.

S108では、感情推定部210が、感情傾向情報格納部230に格納されている複数の感情傾向情報のうち、感情推定対象の搭乗者に対応する感情傾向情報を参照する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、複数の搭乗者のそれぞれに対応する感情傾向情報を参照してよい。S110では、感情推定部210が、S102において取得された車両100の状況に対応する感情の傾向を特定し、当該感情の傾向を用いた感情推定処理を実行する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定処理を実行してよい。そして、S102に戻る。 In S108, the emotion estimation unit 210 refers to the emotion tendency information corresponding to the passenger to be emotion estimation among the plurality of emotion tendency information stored in the emotion tendency information storage unit 230. When a plurality of passengers are on board the vehicle 100, the emotion estimation unit 210 may refer to the emotional tendency information corresponding to each of the plurality of passengers. In S110, the emotion estimation unit 210 identifies the emotional tendency corresponding to the situation of the vehicle 100 acquired in S102, and executes the emotion estimation process using the emotional tendency. When a plurality of passengers are on board the vehicle 100, the emotion estimation unit 210 may execute the emotion estimation process for each passenger. Then, it returns to S102.

図4に示す処理は、感情推定処理の実行を停止するまで継続されてよい。情報処理装置200は、例えば、搭乗者によって感情推定処理の実行の停止が指示された場合、車両100のエンジンが停止した場合、車両100の電源がオフにされた場合等に、図4に示す処理を終了する。 The process shown in FIG. 4 may be continued until the execution of the emotion estimation process is stopped. The information processing apparatus 200 is shown in FIG. 4, for example, when the passenger instructs to stop the execution of the emotion estimation process, the engine of the vehicle 100 is stopped, the power of the vehicle 100 is turned off, and the like. End the process.

図5は、情報処理装置200による処理の流れの一例を概略的に示す。ここでは、感情推定部210が、感情推定用データを用いた感情推定処理を実行する場合の処理の流れを説明する。 FIG. 5 schematically shows an example of the processing flow by the information processing apparatus 200. Here, the flow of processing when the emotion estimation unit 210 executes the emotion estimation process using the emotion estimation data will be described.

S202では、状況取得部220が車両100の状況を取得する。S204では、画像取得部202が搭乗者の画像を取得する。S206では、感情推定部210が感情推定処理を実行するか否かを判定する。感情推定処理を実行すると判定した場合、S208に進み、実行しないと判定した場合、S202に戻る。 In S202, the status acquisition unit 220 acquires the status of the vehicle 100. In S204, the image acquisition unit 202 acquires the image of the passenger. In S206, it is determined whether or not the emotion estimation unit 210 executes the emotion estimation process. If it is determined that the emotion estimation process is to be executed, the process proceeds to S208, and if it is determined not to be executed, the process returns to S202.

S208では、感情推定部210が、データ格納部240に格納されている複数の感情推定用データのうち、S202において取得された状況及び感情推定対象の搭乗者に対応する感情推定用データを取得する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定用データを取得してよい。S210では、感情推定部210が、S208において取得した感情推定用データを用いた感情推定処理を実行する。感情推定部210は、車両100に複数の搭乗者が搭乗している場合、搭乗者毎に感情推定処理を実行してよい。そして、S202に戻る。 In S208, the emotion estimation unit 210 acquires emotion estimation data corresponding to the situation acquired in S202 and the passenger to be emotion estimation target among the plurality of emotion estimation data stored in the data storage unit 240. .. When a plurality of passengers are on board the vehicle 100, the emotion estimation unit 210 may acquire emotion estimation data for each passenger. In S210, the emotion estimation unit 210 executes an emotion estimation process using the emotion estimation data acquired in S208. When a plurality of passengers are on board the vehicle 100, the emotion estimation unit 210 may execute the emotion estimation process for each passenger. Then, it returns to S202.

図5に示す処理は、感情推定処理の実行を停止するまで継続されてよい。情報処理装置200は、例えば、搭乗者によって感情推定処理の実行の停止が指示された場合、車両100のエンジンが停止した場合、車両100の電源がオフにされた場合等に、図5に示す処理を終了する。 The process shown in FIG. 5 may be continued until the execution of the emotion estimation process is stopped. The information processing apparatus 200 is shown in FIG. 5, for example, when the passenger instructs to stop the execution of the emotion estimation process, the engine of the vehicle 100 is stopped, the power of the vehicle 100 is turned off, and the like. End the process.

図6は、情報管理サーバ300の機能構成の一例を概略的に示す。情報管理サーバ300は、感情傾向情報受信部302、感情傾向情報格納部304、要求受信部306、及び感情傾向情報送信部308を備える。 FIG. 6 schematically shows an example of the functional configuration of the information management server 300. The information management server 300 includes an emotional tendency information receiving unit 302, an emotional tendency information storage unit 304, a request receiving unit 306, and an emotional tendency information transmitting unit 308.

感情傾向情報受信部302は、複数の情報処理装置200から、ネットワーク10を介して、識別情報が対応付けられた感情傾向情報を受信する。感情傾向情報格納部304は、感情傾向情報受信部302が受信した感情傾向情報を格納する。 The emotional tendency information receiving unit 302 receives emotional tendency information associated with identification information from a plurality of information processing devices 200 via the network 10. The emotional tendency information storage unit 304 stores the emotional tendency information received by the emotional tendency information receiving unit 302.

要求受信部306は、識別情報を含む、感情傾向情報の要求を受信する。感情傾向情報送信部308は、要求受信部306が要求を受信した場合に、要求に含まれる識別情報に対応する感情傾向情報が感情傾向情報格納部230に格納されているか否かを判定し、格納されている場合に、要求の送信元に、感情傾向情報を送信する。 The request receiving unit 306 receives a request for emotional tendency information including identification information. When the request receiving unit 306 receives the request, the emotional tendency information transmitting unit 308 determines whether or not the emotional tendency information corresponding to the identification information included in the request is stored in the emotional tendency information storage unit 230. If stored, send emotional tendency information to the source of the request.

図7は、情報処理装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、上記実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、上記実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、上記実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 FIG. 7 schematically shows an example of a hardware configuration of a computer 1200 that functions as an information processing apparatus 200. A program installed on the computer 1200 causes the computer 1200 to function as one or more "parts" of the device according to the embodiment, or causes the computer 1200 to perform an operation associated with the device according to the embodiment or the one or the like. A plurality of "parts" can be executed and / or a computer 1200 can be made to execute a process according to the above embodiment or a stage of the process. Such a program may be run by the CPU 1212 to cause the computer 1200 to perform certain operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ1226、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブ1226は、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to this embodiment includes a CPU 1212, a RAM 1214, and a graphic controller 1216, which are interconnected by a host controller 1210. The computer 1200 also includes input / output units such as a communication interface 1222, a storage device 1224, a DVD drive 1226, and an IC card drive, which are connected to the host controller 1210 via the input / output controller 1220. The DVD drive 1226 may be a DVD-ROM drive, a DVD-RAM drive, or the like. The storage device 1224 may be a hard disk drive, a solid state drive, or the like. The computer 1200 also includes an input / output unit such as a ROM 1230 and a touch panel, which are connected to the input / output controller 1220 via an input / output chip 1240.

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。コンピュータ1200は、ディスプレイデバイス1218を備えていなくてもよく、その場合、グラフィックコントローラ1216は、イメージデータが外部のディスプレイデバイスに表示されるようにする。 The CPU 1212 operates according to a program stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphic controller 1216 acquires the image data generated by the CPU 1212 in a frame buffer or the like provided in the RAM 1214 or itself so that the image data is displayed on the display device 1218. The computer 1200 may not be equipped with a display device 1218, in which case the graphics controller 1216 causes the image data to be displayed on an external display device.

通信インタフェース1222は、無線通信ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブ1226は、プログラム又はデータをDVD-ROM1227等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 The communication interface 1222 communicates with other electronic devices via a wireless communication network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The DVD drive 1226 reads the program or data from the DVD-ROM 1227 or the like and provides it to the storage device 1224. The IC card drive reads the program and data from the IC card and / or writes the program and data to the IC card.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、USBポート等を介して、様々な入出力ユニットを入出力コントローラ1220に接続してよい。 The ROM 1230 stores in it a boot program or the like executed by the computer 1200 at the time of activation, and / or a program depending on the hardware of the computer 1200. The input / output chip 1240 may also connect various input / output units to the input / output controller 1220 via a USB port or the like.

プログラムは、DVD-ROM1227又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The program is provided by a computer-readable storage medium such as a DVD-ROM 1227 or an IC card. The program is read from a computer-readable storage medium, installed in a storage device 1224, RAM 1214, or ROM 1230, which is also an example of a computer-readable storage medium, and executed by the CPU 1212. The information processing described in these programs is read by the computer 1200 and provides a link between the program and the various types of hardware resources described above. The device or method may be configured to implement the operation or processing of information in accordance with the use of the computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM1227、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is executed between the computer 1200 and an external device, the CPU 1212 executes a communication program loaded in the RAM 1214, and performs communication processing with respect to the communication interface 1222 based on the processing described in the communication program. You may order. Under the control of the CPU 1212, the communication interface 1222 reads and reads transmission data stored in a transmission buffer area provided in a recording medium such as a RAM 1214, a storage device 1224, a DVD-ROM 1227, or an IC card. The data is transmitted to the network, or the received data received from the network is written to the reception buffer area or the like provided on the recording medium.

また、CPU1212は、記憶装置1224、DVDドライブ1226(DVD-ROM1227)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 Further, the CPU 1212 makes the RAM 1214 read all or necessary parts of a file or a database stored in an external recording medium such as a storage device 1224, a DVD drive 1226 (DVD-ROM1227), an IC card, etc., on the RAM 1214. Various types of processing may be performed on the data of. The CPU 1212 may then write back the processed data to an external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information such as various types of programs, data, tables, and databases may be stored in recording media and processed. The CPU 1212 describes various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, and information retrieval described in various parts of the present disclosure with respect to the data read from the RAM 1214. Various types of processing may be performed, including / replacement, etc., and the results are written back to the RAM 1214. Further, the CPU 1212 may search for information in a file, database, or the like in the recording medium. For example, when a plurality of entries each having an attribute value of the first attribute associated with the attribute value of the second attribute are stored in the recording medium, the CPU 1212 is the first of the plurality of entries. The attribute value of the attribute of is searched for the entry that matches the specified condition, the attribute value of the second attribute stored in the entry is read, and the attribute value of the second attribute is changed to the first attribute that satisfies the predetermined condition. You may get the attribute value of the associated second attribute.

上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The program or software module described above may be stored on a computer 1200 or in a computer-readable storage medium near the computer 1200. Further, a recording medium such as a hard disk or RAM provided in a dedicated communication network or a server system connected to the Internet can be used as a computer-readable storage medium, whereby the program can be transferred to the computer 1200 via the network. offer.

上記実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams of the above embodiments may represent the stages of the process in which the operation is performed or the "parts" of the device responsible for performing the operation. Specific steps and "parts" are supplied with dedicated circuits, programmable circuits supplied with computer-readable instructions stored on computer-readable storage media, and / or computer-readable instructions stored on computer-readable storage media. It may be implemented by the processor. Dedicated circuits may include digital and / or analog hardware circuits, and may include integrated circuits (ICs) and / or discrete circuits. Programmable circuits include logical products, logical sums, exclusive logical sums, negative logical sums, negative logical sums, and other logical operations, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like. , Flipflops, registers, and reconfigurable hardware circuits, including memory elements.

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 The computer readable storage medium may include any tangible device capable of storing instructions executed by the appropriate device, so that the computer readable storage medium having the instructions stored therein may be in a flow chart or block diagram. It will be equipped with a product that contains instructions that can be executed to create means for performing the specified operation. Examples of the computer-readable storage medium may include an electronic storage medium, a magnetic storage medium, an optical storage medium, an electromagnetic storage medium, a semiconductor storage medium, and the like. More specific examples of computer-readable storage media include floppy (registered trademark) disks, diskettes, hard disks, random access memory (RAM), read-only memory (ROM), and erasable programmable read-only memory (EPROM or flash memory). , Electrically Erasable Programmable Read Only Memory (EEPROM), Static Random Access Memory (SRAM), Compact Disc Read Only Memory (CD-ROM), Digital Versatile Disc (DVD), Blu-ray® Disc, Memory Stick , Integrated circuit cards and the like may be included.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 Computer-readable instructions are assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcodes, firmware instructions, state-setting data, or object-oriented programming such as Smalltalk, JAVA®, C ++, etc. Includes either source code or object code written in any combination of one or more programming languages, including languages and traditional procedural programming languages such as the "C" programming language or similar programming languages. good.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 Computer-readable instructions are used to generate means for a general-purpose computer, a special-purpose computer, or the processor of another programmable data processing device, or a programmable circuit, to perform an operation specified in a flowchart or block diagram. General purpose computers, special purpose computers, or other programmable data processing locally or via a local area network (LAN), a wide area network (WAN) such as the Internet, etc. to execute such computer-readable instructions. It may be provided to the processor of the device or a programmable circuit. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, and the like.

上記実施形態では、移動体の例として車両100を挙げて説明したが、これに限らない。移動体は、複数の搭乗者を搭乗させて移動可能であれば、どのようなものであってもよい。例えば、車両100の他、電車、飛行機、及び船舶等であってよい。 In the above embodiment, the vehicle 100 has been described as an example of the moving body, but the present invention is not limited to this. The moving body may be any as long as it can move with a plurality of passengers on board. For example, in addition to the vehicle 100, it may be a train, an airplane, a ship, or the like.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.

10 ネットワーク、52 運転者、54 同乗者、100 車両、110 カメラ、112 画角、122 マイク、124 スピーカ、130 ディスプレイ、142 無線通信アンテナ、144 GPSアンテナ、150 ハンドル、162 運転席、164 助手席、166 後部座席、200 情報処理装置、202 画像取得部、204 音声取得部、206 センサ情報取得部、210 感情推定部、220 状況取得部、230 感情傾向情報格納部、232 感情傾向情報生成部、234 識別情報取得部、236 感情傾向情報送信部、238 感情傾向情報取得部、240 データ格納部、242 データ取得部、300 情報管理サーバ、302 感情傾向情報受信部、304 感情傾向情報格納部、306 要求受信部、308 感情傾向情報送信部、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1226 DVDドライブ、1227 DVD-ROM、1230 ROM、1240 入出力チップ 10 network, 52 driver, 54 passenger, 100 vehicle, 110 camera, 112 angle of view, 122 microphone, 124 speaker, 130 display, 142 wireless communication interface, 144 GPS antenna, 150 handle, 162 driver's seat, 164 passenger's seat, 166 rear seat, 200 information processing device, 202 image acquisition unit, 204 voice acquisition unit, 206 sensor information acquisition unit, 210 emotion estimation unit, 220 situation acquisition unit, 230 emotional tendency information storage unit, 232 emotional tendency information generation unit, 234 Identification information acquisition unit, 236 emotional tendency information transmission unit, 238 emotional tendency information acquisition unit, 240 data storage unit, 242 data acquisition unit, 300 information management server, 302 emotional tendency information reception unit, 304 emotional tendency information storage unit, 306 request Receiver, 308 Emotional trend information transmitter, 1200 computer, 1210 host controller, 1212 CPU, 1214 RAM, 1216 graphic controller, 1218 display device, 1220 input / output controller, 1222 communication interface, 1224 storage device, 1226 DVD drive, 1227 DVD -ROM, 1230 ROM, 1240 input / output chip

Claims (9)

一の移動体の状況を取得する状況取得部と、
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と
を備え
前記感情傾向情報は、前記一の移動体の搭乗者の数に関する状況に対応する前記搭乗者の感情の傾向を含み、
前記感情推定部は、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を用いた感情推定処理を実行する、情報処理装置。
The status acquisition unit that acquires the status of one moving object,
Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. It is equipped with an emotion estimation unit that executes emotion estimation processing according to the situation of the moving body .
The emotional tendency information includes the emotional tendency of the passenger corresponding to the situation regarding the number of passengers of the one moving object.
The emotion estimation unit is an information processing device that executes an emotion estimation process using the emotional tendency of the passenger corresponding to the situation of the moving body .
前記感情傾向情報は、前記一の移動体に複数の搭乗者が搭乗している状況と、前記搭乗者が喜びを抱きやすいことを示す感情の傾向とを対応付け、The emotional tendency information associates a situation in which a plurality of passengers are on board the one moving object with an emotional tendency indicating that the passengers are likely to have joy.
前記感情推定部は、前記一の移動体に複数の搭乗者が搭乗している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の喜びの感情の度合が強くなるように前記搭乗者の感情を推定する、請求項1に記載の情報処理装置。The emotion estimation unit estimates the emotions of the passengers when a plurality of passengers are on board the moving object, as compared with the case where the emotions of the passengers are estimated without using the emotional tendency information. The information processing apparatus according to claim 1, wherein the passenger's emotions are estimated so that the degree of joyful emotions becomes stronger.
前記感情傾向情報は、前記一の移動体に複数の搭乗者が搭乗している状況と、前記搭乗者が哀しみを抱きやすいことを示す感情の傾向とを対応付け、
前記感情推定部は、前記一の移動体に複数の搭乗者が搭乗している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の哀しみの感情の度合が強くなるように前記搭乗者の感情を推定する、請求項1に記載の情報処理装置
The emotional tendency information associates a situation in which a plurality of passengers are on board the one moving object with an emotional tendency indicating that the passengers are likely to have sadness.
The emotion estimation unit estimates the emotions of the passengers when a plurality of passengers are on board the moving object, as compared with the case where the emotions of the passengers are estimated without using the emotional tendency information. The information processing apparatus according to claim 1, wherein the passenger's emotions are estimated so that the degree of sorrowful emotions becomes stronger .
一の移動体の状況を取得する状況取得部と、The status acquisition unit that acquires the status of one moving object,
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部とIt is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
を備え、Equipped with
前記感情傾向情報は、前記一の移動体の移動速度が予め定められた速度より速い状況と、前記搭乗者が恐怖又は興奮を抱きやすいことを示す感情の傾向とを対応付け、The emotional tendency information associates a situation in which the moving speed of the one moving object is faster than a predetermined speed with an emotional tendency indicating that the passenger is likely to have fear or excitement.
前記感情推定部は、前記一の移動体の移動速度が予め定められた速度より速い場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の恐怖又は興奮の感情の度合が強くなるように前記搭乗者の感情を推定する、情報処理装置。The emotion estimation unit estimates the emotion of the passenger when the moving speed of the one moving body is faster than a predetermined speed, as compared with the case where the emotion of the passenger is estimated without using the emotion tendency information. An information processing device that estimates the passenger's emotions so that the degree of fear or excitement of the passenger becomes stronger.
一の移動体の状況を取得する状況取得部と、
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と
を備え、
前記一の移動体は自動車であり、
前記感情傾向情報は、前記一の移動体が走行している道路が高速道路である状況と、前記搭乗者が興奮を抱きやすいことを示す感情の傾向とを対応付け、
前記感情推定部は、前記一の移動体が高速道路を走行している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の興奮の感情の度合が強くなるように前記搭乗者の感情を推定する、情報処理装置。
The status acquisition unit that acquires the status of one moving object,
Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
Equipped with
The one moving object is a car,
The emotional tendency information associates the situation where the road on which the one moving object is traveling is a highway with the emotional tendency indicating that the passenger is likely to have excitement.
The emotion estimation unit determines the emotion of the passenger when the moving body is traveling on the highway, as compared with the case where the emotion of the passenger is estimated without using the emotion tendency information. An information processing device that estimates the emotions of the passenger so that the degree of emotions becomes stronger.
一の移動体の状況を取得する状況取得部と、
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と
を備え、
前記一の移動体は自動車であり、
前記感情傾向情報は、前記一の移動体が走行している道路が高速道路である状況と、前記搭乗者が緊張を抱きやすいことを示す感情の傾向とを対応付け、
前記感情推定部は、前記一の移動体が高速道路を走行している場合に、前記感情傾向情報を用いずに前記搭乗者の感情を推定する場合と比較して、前記搭乗者の緊張の感情の度合が強くなるように前記搭乗者の感情を推定する、情報処理装置。
The status acquisition unit that acquires the status of one moving object,
Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
Equipped with
The one moving object is a car,
The emotional tendency information associates the situation where the road on which the one moving object is traveling is a highway with the emotional tendency indicating that the passenger is likely to have tension.
The emotion estimation unit estimates the emotions of the passenger when the moving body is traveling on the highway, as compared with the case where the emotions of the passenger are estimated without using the emotion tendency information. An information processing device that estimates the emotions of the passenger so that the degree of emotions becomes stronger.
一の移動体の状況を取得する状況取得部と、
移動体の状況毎に、前記一の移動体の搭乗者の感情を推定するための前記搭乗者のニュートラルな表情の画像を格納するデータ格納部と、
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部と、
を備え、
前記感情推定部は、前記撮像部によって撮像された前記搭乗者の画像と、前記一の移動体の状況に対応する前記搭乗者のニュートラルな表情の画像とを比較することにより、前記搭乗者の感情を推定する、情報処理装置。
The status acquisition unit that acquires the status of one moving object,
A data storage unit that stores an image of the passenger's neutral facial expression for estimating the emotion of the passenger of the one moving body for each situation of the moving body.
It is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. An emotion estimation unit that executes emotion estimation processing according to the situation of the moving body, and
Equipped with
The emotion estimation unit compares the image of the occupant captured by the imaging unit with the image of the occupant's neutral facial expression corresponding to the situation of the moving object of the occupant. An information processing device that estimates emotions.
一の移動体の状況を取得する状況取得部と、The status acquisition unit that acquires the status of one moving object,
前記一の移動体の搭乗者が前記一の移動体に搭乗しているときの前記一の移動体の状況毎の前記搭乗者の感情の傾向を示す感情傾向情報を格納する感情傾向情報格納部と、Emotional tendency information storage unit that stores emotional tendency information indicating the emotional tendency of the passenger for each situation of the one moving body when the passenger of the one moving body is boarding the one moving body. When,
前記一の移動体に搭載された撮像部によって撮像された前記一の移動体の前記搭乗者の画像に基づく感情推定処理を実行して前記搭乗者の感情を推定する感情推定部であって、前記一の移動体の状況に応じた感情推定処理を実行する感情推定部とIt is an emotion estimation unit that estimates the emotions of the passenger by executing an emotion estimation process based on the image of the passenger of the moving body imaged by the imaging unit mounted on the moving body. With the emotion estimation unit that executes the emotion estimation process according to the situation of the moving body
を備え、Equipped with
前記感情傾向情報格納部は、前記搭乗者が前記一の移動体を運転する場合と、前記一の移動体に同乗する場合とのそれぞれの感情の傾向を示す前記感情傾向情報を格納し、The emotional tendency information storage unit stores the emotional tendency information indicating the tendency of each emotion when the passenger drives the one moving body and when the passenger rides on the one moving body.
前記感情推定部は、前記搭乗者が運転者である場合、前記搭乗者が運転する場合のそれぞれの感情の傾向を示す前記感情傾向情報を用いて、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を用いた感情推定処理を実行し、前記搭乗者が同乗者である場合、前記搭乗者が同乗する場合のそれぞれの感情の傾向を示す前記感情傾向情報を用いて、前記一の移動体の状況に対応する前記搭乗者の感情の傾向を用いた感情推定処理を実行する、情報処理装置。The emotion estimation unit corresponds to the situation of the one moving body by using the emotion tendency information indicating the tendency of each emotion when the passenger is a driver. The emotion estimation process using the emotional tendency of the passenger is executed, and when the passenger is a passenger, the emotional tendency information indicating the tendency of each emotion when the passenger is on board is used to describe the above. An information processing device that executes an emotion estimation process using the emotional tendency of the passenger corresponding to the situation of one moving body.
コンピュータを、請求項1からのいずれか一項に記載の情報処理装置として機能させるためのプログラム。 A program for operating a computer as an information processing device according to any one of claims 1 to 8 .
JP2018246806A 2018-12-28 2018-12-28 Information processing equipment and programs Active JP7068156B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018246806A JP7068156B2 (en) 2018-12-28 2018-12-28 Information processing equipment and programs
CN201911265422.0A CN111382665B (en) 2018-12-28 2019-12-11 Information processing apparatus and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018246806A JP7068156B2 (en) 2018-12-28 2018-12-28 Information processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2020103704A JP2020103704A (en) 2020-07-09
JP7068156B2 true JP7068156B2 (en) 2022-05-16

Family

ID=71216954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018246806A Active JP7068156B2 (en) 2018-12-28 2018-12-28 Information processing equipment and programs

Country Status (2)

Country Link
JP (1) JP7068156B2 (en)
CN (1) CN111382665B (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112168190B (en) * 2020-10-23 2021-09-21 清华大学 Real-time driving pressure monitoring system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101472A (en) 2017-11-28 2019-06-24 トヨタ自動車株式会社 Emotion estimation device
JP2020103462A (en) 2018-12-26 2020-07-09 トヨタ紡織株式会社 Emotion estimation device, environment providing system, vehicle, emotion estimation method, and information processing program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710449A (en) * 2009-12-04 2010-05-19 吉林大学 Traffic flow running rate recognizing method based on bus GPS data
CN105303829A (en) * 2015-09-11 2016-02-03 深圳市乐驰互联技术有限公司 Vehicle driver emotion recognition method and device
JP2017136922A (en) * 2016-02-02 2017-08-10 富士通テン株式会社 Vehicle control device, on-vehicle device controller, map information generation device, vehicle control method, and on-vehicle device control method
DE102016208797A1 (en) * 2016-05-20 2017-11-23 Zf Friedrichshafen Ag Method for computer-aided driving data analysis of motor vehicles
US20180118218A1 (en) * 2016-10-27 2018-05-03 Ford Global Technologies, Llc Method and apparatus for vehicular adaptation to driver state
JP6639444B2 (en) * 2017-06-07 2020-02-05 本田技研工業株式会社 Information providing apparatus and information providing method
CN107316436B (en) * 2017-07-31 2021-06-18 努比亚技术有限公司 Dangerous driving state processing method, electronic device and storage medium
CN108429970B (en) * 2018-05-28 2020-04-14 Oppo广东移动通信有限公司 Audio playing method, device, terminal, earphone and readable storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019101472A (en) 2017-11-28 2019-06-24 トヨタ自動車株式会社 Emotion estimation device
JP2020103462A (en) 2018-12-26 2020-07-09 トヨタ紡織株式会社 Emotion estimation device, environment providing system, vehicle, emotion estimation method, and information processing program

Also Published As

Publication number Publication date
JP2020103704A (en) 2020-07-09
CN111382665B (en) 2024-03-01
CN111382665A (en) 2020-07-07

Similar Documents

Publication Publication Date Title
CN111741884B (en) Traffic distress and road rage detection method
JP2020109578A (en) Information processing device and program
US11776083B2 (en) Passenger-related item loss mitigation
CN107392083A (en) Identification device, recognition methods, recognizer and recording medium
CN109302486B (en) Method and system for pushing music according to environment in vehicle
JP6552548B2 (en) Point proposing device and point proposing method
JP6999540B2 (en) Information processing equipment and programs
JP7068156B2 (en) Information processing equipment and programs
US11580777B2 (en) Control apparatus and computer-readable storage medium
CN111866382A (en) Method for acquiring image, electronic device and computer readable storage medium
JP2020095502A (en) Information processor and program
JP2020095538A (en) Information processor and program
JP7100575B2 (en) Information processing equipment and programs
JP7469467B2 (en) Digital human-based vehicle interior interaction method, device, and vehicle
KR102486161B1 (en) Vehicle, Control Method of the vehicle and Image tracking apparatus
CN110740211B (en) Non-interference type danger early warning method based on traveling state perception and concentration degree perception
CN114074669B (en) Information processing apparatus, information processing method, and computer-readable storage medium
JP7375705B2 (en) Information processing device, information processing method, and program
JP2022030591A (en) Edition device, edition method, and program
JP2024083316A (en) Electronic device and method for providing cloud-based vehicle information
CN115631550A (en) User feedback method and system
CN117475493A (en) Emotion recognition method and device, electronic equipment, chip and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220428

R150 Certificate of patent or registration of utility model

Ref document number: 7068156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150