JP2011117905A - Route selection support device and route selection support method - Google Patents
Route selection support device and route selection support method Download PDFInfo
- Publication number
- JP2011117905A JP2011117905A JP2009277632A JP2009277632A JP2011117905A JP 2011117905 A JP2011117905 A JP 2011117905A JP 2009277632 A JP2009277632 A JP 2009277632A JP 2009277632 A JP2009277632 A JP 2009277632A JP 2011117905 A JP2011117905 A JP 2011117905A
- Authority
- JP
- Japan
- Prior art keywords
- route
- result
- learning
- passenger
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Instructional Devices (AREA)
Abstract
Description
本発明は、ルート選択支援装置、ルート選択支援方法、ルート選択支援プログラム、及び、当該ルート選択支援プログラムが記録された記録媒体に関する。 The present invention relates to a route selection support device, a route selection support method, a route selection support program, and a recording medium on which the route selection support program is recorded.
従来から、車両に搭載されるナビゲーション装置が広く普及している。そして、近年におけるナビゲーション装置に関する技術の発展は著しく、利用者の利便性を向上させるための様々な技術が提案されている。 Conventionally, navigation devices mounted on vehicles have been widely used. In recent years, the technology related to navigation devices has been remarkably developed, and various technologies for improving user convenience have been proposed.
かかる提案技術の一つとして、車両の運転者の身体及び顔を車室内カメラで撮影し、撮影結果に基づいて、運転支援に関する情報を運転者に提供する技術がある(特許文献1参照:以下、「従来例」と呼ぶ)。この従来例の技術では、車室内カメラによる撮影結果から、車両運転時の運転操作に影響を及ぼすような運転者の心理の状態を推定し、注意喚起前後の所定期間の運転操作状況と運転者の心理の状態とを注意喚起条件として蓄積する。そして、車両の運転時において、推定された運転者の心理の状態と取得した運転操作状況とが、蓄積された注意喚起条件と一致した場合に、運転者に対して注意喚起を行うようになっている。 As one of such proposed technologies, there is a technology in which a vehicle driver's body and face are photographed with a vehicle interior camera, and information relating to driving assistance is provided to the driver based on the photographing result (see Patent Document 1 below). , Called “conventional example”). In this conventional technique, the state of the driver's psychology that affects the driving operation during driving of the vehicle is estimated from the image taken by the vehicle interior camera, and the driving operation status and the driver for a predetermined period before and after alerting Are stored as alert conditions. When driving the vehicle, when the estimated driver's psychological state and the acquired driving operation situation coincide with the accumulated alert conditions, the driver is alerted. ing.
上述した従来例の技術では、運転者を撮影して、車両運転時の運転操作に影響を及ぼすような運転者の心理の状態を推定し、当該推定結果を利用して、運転者に対して注意喚起を行っている。このように、この従来例の技術は、運転者に対して注意喚起を行っているのみであり、ナビゲーション装置としての基幹機能の一つである走行ルートの選択支援までは行っていない。 In the technology of the conventional example described above, the driver is photographed, the state of the driver's psychology that affects the driving operation at the time of driving the vehicle is estimated, and the estimation result is used for the driver. We are alerting you. Thus, the technology of this conventional example only alerts the driver, and does not provide support for selecting a travel route, which is one of the basic functions as a navigation device.
ところで、車両運転時における運転者の心理の状態は、車外環境等の違いにより、走行ルートによって大きく異なることがあり、この違いは当該運転者の個性を反映したものである。そして、運転者の心理の状態が良好であれば、楽しい気分でドライブが行え、ひいては安全運転にもつながる。また、車両には運転者以外の者も同乗する場合もあるが、同乗者の心理の状態も、走行ルートによって大きく異なることがある。そして、走行中の車室内は密室であることから、車室内の雰囲気は、同乗者の心理の状態に大きく依存する。すなわち、同乗者の心理の状態が良好であれば車室内の雰囲気も良好となるが、同乗者の心理の状態が不良であれば雰囲気も不良となってしまう。 By the way, the state of the driver's psychology when driving the vehicle may vary greatly depending on the travel route due to differences in the environment outside the vehicle, and this difference reflects the individuality of the driver. And if a driver | operator's psychological state is favorable, he can drive with a pleasant mood and leads also to safe driving | operation. In addition, a person other than the driver may ride on the vehicle, but the psychological state of the passenger may vary greatly depending on the travel route. And since the vehicle interior during driving | running | working is a closed room, the atmosphere in a vehicle interior largely depends on the passenger's psychological state. That is, if the passenger's psychological state is good, the atmosphere in the passenger compartment is also good, but if the passenger's psychological state is poor, the atmosphere is also poor.
このため、運転者や同乗者(以下、「搭乗者」とも記す)の個性を反映しつつ、心理面から搭乗者にとって好ましい走行ルートの選択を支援することのできる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。 For this reason, there is a need for a technology that can support the selection of a preferable travel route for the passenger from a psychological aspect while reflecting the individuality of the driver and passengers (hereinafter also referred to as “passenger”). Meeting this requirement is one of the problems to be solved by the present invention.
本発明は、上記の事情を鑑みてなされたものであり、車両の搭乗者の表情の良好度の変化の傾向を利用して、車室内の雰囲気を良好に保つような走行ルートの選択を支援することができる新たなルート選択支援装置及びルート選択支援方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and supports the selection of a travel route that maintains a good atmosphere in the passenger compartment by utilizing the tendency of changes in the degree of goodness of facial expressions of passengers in the vehicle. It is an object of the present invention to provide a new route selection support device and route selection support method that can be used.
請求項1に記載の発明は、車両の走行ルートの選択を支援するルート選択支援装置であって、前記車両の現在位置を計測する測位手段と;前記車両の搭乗者の顔を撮影する撮影手段と;前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出手段と;前記検出手段による検出結果を、前記測位手段による測位結果と関連付けて記憶する第1記憶手段と;前記第1記憶手段に記憶された情報に基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習手段と;前記学習手段による学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供手段と;を備えることを特徴とするルート選択支援装置である。 The invention according to claim 1 is a route selection support device that supports selection of a travel route of a vehicle, and includes a positioning unit that measures a current position of the vehicle; and an imaging unit that captures a face of a passenger of the vehicle. Detecting means for detecting a goodness of facial expression for each occupant based on a result of photographing by the photographing means; and a first memory for storing the detection result by the detecting means in association with the positioning result by the positioning means. Learning means for learning a change in the degree of goodness of the facial expression for each passenger on the route traveled based on the information stored in the first storage means; and based on the learning result by the learning means in the future Providing means for providing support information for supporting selection of the travel route of the route.
請求項7に記載の発明は、前記車両の現在位置を計測する測位手段と;前記車両の搭乗者の顔を撮影する撮影手段と;を備え、前記車両の走行ルートの選択を支援するルート選択支援装置において使用されるルート選択支援方法であって、前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出工程と;前記測位手段による測位結果と、前記検出工程における検出結果とに基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習工程と;前記学習工程における学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供工程と;を備えることを特徴とするルート選択支援方法である。 According to a seventh aspect of the present invention, there is provided route selection, comprising: positioning means for measuring a current position of the vehicle; and photographing means for photographing a face of a passenger of the vehicle. A route selection support method used in a support device, wherein a detection step of detecting a goodness of facial expression for each occupant based on a photographing result by the photographing means; a positioning result by the positioning means; and the detection A learning step for learning a change in the degree of goodness of facial expression for each passenger on the route traveled based on the detection result in the step; and a support for selecting a future travel route based on the learning result in the learning step A route selection support method, comprising: a providing step of providing support information for the purpose.
請求項8に記載の発明は、請求項7に記載のルート選択支援方法を演算手段に実行させる、ことを特徴とするルート選択支援プログラムである。 According to an eighth aspect of the present invention, there is provided a route selection support program that causes a calculation means to execute the route selection support method according to the seventh aspect.
請求項9に記載の発明は、請求項8に記載のルート選択支援プログラムが、演算手段により読み取り可能に記録されている、ことを特徴とする記録媒体である。 The invention described in claim 9 is a recording medium in which the route selection support program according to claim 8 is recorded so as to be readable by a calculation means.
以下、本発明の一実施形態を、図1を参照して説明する。なお、以下の説明においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, an embodiment of the present invention will be described with reference to FIG. In the following description, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.
[構成]
図1には、一実施形態に係るルート選択支援装置700の概略的な構成が示されている。
[Constitution]
FIG. 1 shows a schematic configuration of a route
この図1に示されるように、ルート選択支援装置700は、車両CRに搭載されており、車両CRとともに移動するようになっている。このルート選択支援装置700は、測位手段710と、撮影手段720と、識別手段730と、検出手段740と、第1記憶手段750とを備えている。また、ルート選択支援装置700は、学習手段760と、第2記憶手段770と、提供手段780とを備えている。
As shown in FIG. 1, the route
上記の測位手段710は、車両CRの現在位置を計測する。測位手段710による測位結果は、検出手段740及び提供手段780へ送られる。
The positioning means 710 measures the current position of the vehicle CR. The positioning result by the positioning means 710 is sent to the
上記の撮影手段720は、カメラデバイスを備えて構成され、検出手段740による制御のもとで、車両CRの搭乗者の顔を撮影する。撮影手段720による撮影結果は、識別手段730及び検出手段740へ送られる。
The photographing
ここで、撮影手段の個数は、本実施形態のように1個であってもよいし、車両CRの定員数と同じ個数であってもよい。そして、撮影手段の個数を1個とする場合には、当該1個の撮影手段の撮影視野は、所定の座席(例えば、運転席、助手席等)に着座する搭乗者の顔周辺であってもよいし、搭乗者全員の顔を撮影することのできる車室内全体であってもよい。また、撮影手段の個数を車両CRの定員数と同じ個数とする場合には、それぞれの撮影手段の撮影視野は、異なる座席に着座するそれぞれの搭乗者の顔周辺とすることができる。 Here, the number of photographing means may be one as in the present embodiment, or may be the same as the number of vehicles CR. When the number of photographing means is one, the photographing field of view of the one photographing means is around the face of a passenger sitting in a predetermined seat (for example, a driver seat, a passenger seat, etc.). Alternatively, it may be the entire passenger compartment where the faces of all the passengers can be photographed. When the number of photographing means is the same as the number of vehicles CR, the photographing field of view of each photographing means can be around the face of each passenger seated in a different seat.
上記の識別手段730は、撮影手段720による撮影結果を受ける。そして、識別手段730は、当該撮影結果に基づいて、搭乗者の個々人を識別する。この識別手段730による識別結果は、検出手段740及び提供手段780へ送られる。
The
上記の検出手段740は、撮影手段720による撮影結果を受ける。そして、検出手段740は、当該撮影結果に基づいて、搭乗者ごとの表情の良好度を検出する。ここで、「表情の良好度」としては、例えば、「良好」、「やや良好」、「普通」、「やや不良」、「不良」等のように段階的に分類するようにすることができる。 The detection means 740 receives the result of photographing by the photographing means 720. And the detection means 740 detects the favorable degree of the expression for every passenger based on the said imaging | photography result. Here, for example, “goodness of facial expression” can be classified in stages such as “good”, “slightly good”, “normal”, “slightly bad”, “bad”, etc. .
また、検出手段740は、測位手段710による測位結果である車両CRの現在位置を受けるとともに、識別手段730による搭乗者の個々人の識別結果を受ける。そして、検出手段740は、識別された搭乗者ごとに、検出した搭乗者の表情の良好度を、車両CRの現在位置と関連付ける。 The detection means 740 receives the current position of the vehicle CR as a positioning result by the positioning means 710 and also receives the identification result of the individual passenger by the identification means 730. Then, the detecting means 740 associates the detected degree of goodness of the passenger's facial expression with the current position of the vehicle CR for each identified passenger.
上記の第1記憶手段750は、不揮発性の記憶領域を有している。この第1記憶手段750には、検出手段740及び学習手段760がアクセス可能となっている。第1記憶手段750の当該記憶領域には、識別された搭乗者ごとに、検出した搭乗者の表情の良好度が、車両CRの走行位置と関連付けて記憶されている。
The
上記の学習手段760は、車両CRの走行位置と関連付けられた搭乗者の表情の良好度を、第1記憶手段750から読み取る。そして、学習手段760は、第1記憶手段750に記憶された情報に基づいて、走行したルートにおける識別された搭乗者ごとの「表情の良好度の変化」を学習する。
The
こうした「走行したルートにおける表情の良好度の変化の学習」の結果としては、例えば、搭乗者P1は、車両CRが同じ出発地Aから同じ目的地Bに至る異なるルート1,2を走行した際に、ルート1の走行中には全体として表情が「良好」状態になるが、ルート2の走行中には全体として表情が「不良」状態になるという特徴が挙げられる。また、搭乗者P2は、逆に、ルート1の走行中には全体として表情が「不良」状態になるが、ルート2の走行中には全体として表情が「良好」状態になるという特徴がある等が挙げられる。 As a result of such “learning of the change in the degree of goodness of facial expression on the route traveled”, for example, when the passenger P1 travels on different routes 1 and 2 from the same starting point A to the same destination B, In addition, while the route 1 travels as a whole, the expression is in a “good” state, while the route 2 travels as a whole, the facial expression becomes a “bad” state. On the contrary, the passenger P2 has a characteristic that the expression is “bad” as a whole while traveling on the route 1, but the expression is “good” as a whole while traveling on the route 2. Etc.
また、「走行したルートにおける表情の良好度の変化の学習」の結果として、例えば、搭乗者P3は、ルート1の走行中には全体として表情が「良好」状態になるが、ルート2の走行中には、当初の表情が「良好」状態のときには、後に表情が「不良」状態に変化し、当初の表情が「やや不良」状態のときには、後に表情が「普通」状態に変化するという特徴がある等が挙げられる。 Further, as a result of “learning the change in the degree of goodness of the facial expression in the traveled route”, for example, the passenger P3 is generally in the “good” state while traveling on the route 1, but the traveling on the route 2 In some cases, when the initial facial expression is “good”, the facial expression changes to “bad” later, and when the initial facial expression is “slightly poor”, the facial expression changes to “normal” later. There are examples.
また、学習手段760は、走行中の車外環境を取得し、走行したルートにおける車外環境の変化を考慮して、車外環境の変化に対する識別された搭乗者ごとの「表情の良好度の変化」を更に学習するようにすることができる。
In addition, the
ここで、「車外環境」としては、例えば、「オフィス街」、「歓楽街」、「特徴的建造物(ランドマーク)」、「工場地帯」、「住宅街」、「山沿い」、「海岸沿い」等が挙げられる。学習手段760がこうした「車外環境」を取得するに際して、学習手段760が読み取り可能な地図上の各位置における車外環境の情報が記憶された第2記憶手段770から、「車外環境」を取得するようにすることができる。
Here, as the “environment outside the vehicle”, for example, “office district”, “amusement district”, “characteristic building (landmark)”, “factory zone”, “residential area”, “along the mountain”, “along the coast” Or the like. When the
こうした「車外環境の変化に対する表情の良好度の変化の学習」の結果としては、例えば、搭乗者P1は、車両CRが「山沿い」を走行しているときには表情が「良好」状態になる傾向があるが、「オフィス街」を走行しているときには表情が「不良」状態になる傾向があるという特徴が挙げられる。また、搭乗者P2は、逆に、車両CRが「オフィス街」を走行しているときに表情が「良好」状態になる傾向があるが、「山沿い」を走行しているときには表情が「不良」状態になる傾向があるという特徴がある等が挙げられる。 As a result of such “learning of the change in the degree of goodness of the expression with respect to the change in the environment outside the vehicle”, for example, the passenger P1 has a tendency that the expression becomes “good” when the vehicle CR is traveling along the “mountain” However, there is a feature that the facial expression tends to be “bad” when traveling in the “office district”. On the contrary, the passenger P2 tends to have a “good” facial expression when the vehicle CR is traveling in the “office town”, but the facial expression is “when traveling along the mountain”. For example, there is a tendency to be in a “bad” state.
上記の第2記憶手段770は、上述した第1記憶手段750と同様に、不揮発性の記憶領域を有している。この第2記憶手段770には、学習手段760がアクセス可能となっている。第2記憶手段770の当該記憶領域には、上述した地図上の各位置における車外環境の情報が記憶されている。
The
上記の提供手段780は、識別手段730による搭乗者の個々人の識別結果を受けるとともに、測位手段710による測位結果である車両CRの現在位置を受ける。そして、提供手段780は、搭乗者の識別結果と、学習手段760による学習結果とに基づいて、走行中の搭乗者構成に対応して、今後の走行ルートの選択を支援するための支援情報を提供する。この「支援情報」の提供方法は、不図示の音声出力手段による音声出力であってもよいし、不図示の画像表示手段による画像表示であってもよい。
The providing means 780 receives the identification result of each individual passenger by the identification means 730 and also receives the current position of the vehicle CR that is the positioning result by the positioning means 710. Then, the providing
本実施形態では、提供手段780は、探索手段781を備えている。この提供手段780における探索手段781は、学習手段760による学習結果を考慮して、目的地までの走行ルートを探索する。例えば、搭乗者がP1である場合に、上述した出発地Aから目的地Bに至る走行ルートを探索する際には、「走行したルートにおける表情の良好度の変化の学習」の結果を考慮して、ルート1を走行ルートとして支援提供する。また、探索手段781は、搭乗者がP2である場合に、出発地Aから目的地Bに至る走行ルートを探索する際には、同様に、「走行したルートにおける表情の良好度の変化の学習」の結果を考慮して、ルート2を走行ルートとして支援提供する。
In the present embodiment, the providing
また、探索手段781は、現在位置から目的地Zに至る走行ルートを探索する際に、抽出した走行ルートが、これまでに車両CRが走行していないルートであるときには、「車外環境の変化に対する表情の良好度の変化の学習」の結果を考慮する。そして、探索手段781は、搭乗者がP1である場合には、探索したルートから「山沿い」を長く走行するルートを走行ルートとして支援提供する。また、探索手段781は、搭乗者がP2である場合には、探索したルートから「オフィス街」を長く走行するルートを走行ルートとして支援提供する。
Further, when searching for a travel route from the current position to the destination Z, the search means 781 determines that the extracted travel route is a route on which the vehicle CR has not traveled so far. Consider the results of “Learning changes in facial expression”. Then, when the occupant is P1, the
こうして支援提供された走行ルートは、画像表示手段により画像表示されるとともに、音声出力手段により音声出力される。 The travel route thus provided and supported is displayed as an image by the image display means and also as a sound output by the sound output means.
また、上述した提供手段780は、走行ルートの探索を行わない場合であっても、測位手段710による測位結果に基づいて、今後の走行ルート候補を抽出する。そして、提供手段780は、抽出された走行ルート候補ごとへの学習手段760による学習結果の適用結果に基づいて、支援情報を提供する。
Further, the providing
例えば、車両CRが、搭乗者P3を乗せてルート2を走行しているときには、提供手段780は、当初の表情が「良好」状態のときには、そのままルート2を走行すると、後に表情が「不良」状態に変化する傾向があるため、今後の走行ルート候補としてルート1を抽出する。そして、提供手段780は、ルート1を走行ルートに変更するように支援提供する。
For example, when the vehicle CR is traveling on the route 2 with the passenger P3 on it, the providing
また、搭乗者がP1である場合は、提供手段780は、「車外環境の変化に対する表情の良好度の変化の学習」の結果を考慮して、抽出された走行ルート候補の中から、「山沿い」を長く走行するルートを走行ルートとして支援提供するようにしてもよい。また、搭乗者がP2である場合には、抽出された走行ルート候補の中から、「オフィス街」を長く走行するルートを走行ルートとして支援提供するようにしてもよい。
When the passenger is P1, the providing
[動作]
上記のように構成されたルート選択支援装置700において実行されるルート選択支援方法について、説明する。
[Operation]
A route selection support method executed in the route
<表情の良好度の変化の学習処理>
まず、ルート選択支援装置700による搭乗者ごとの「表情の良好度の変化」の学習処理について説明する。
<Learning process for changes in facial expression>
First, the learning process of “change in the degree of goodness of facial expression” for each passenger by the route
この学習処理に際して、撮影手段720が、検出手段740による制御のもとで、車両CRの搭乗者の顔の撮影を行う。撮影手段720による撮影結果は、識別手段730及び検出手段740へ送られる。また、撮影手段720による撮影処理と並行して、測位手段710が、車両CRの現在位置の計測処理を行う。測位手段710による測位結果は、検出手段740へ送られる。
In this learning process, the photographing
撮影手段720による撮影結果を受けた識別手段730では、当該撮影結果に基づいて、搭乗者の個々人を識別する。識別手段730による識別結果は、検出手段740へ送られる。
The
検出手段740では、まず、撮影手段720による撮影結果に基づいて、搭乗者の表情の良好度を検出する。そして、検出手段740は、測位手段710による測位結果及び識別手段730による識別結果を取得して、識別された搭乗者ごとに、検出した搭乗者の表情の良好度を、車両CRの現在位置と関連付ける。こうして車両CRの走行位置と関連付けられた搭乗者ごとの表情の良好度に関する情報は、第1記憶手段750に記憶される。
First, the detection means 740 detects the degree of goodness of the passenger's facial expression based on the result of photographing by the photographing
こうして第1記憶手段750に搭乗者の表情の良好度に関する情報が記憶されると、学習手段760が、当該情報に基づいて、走行したルートにおける識別された搭乗者ごとの表情の良好度の変化を学習する。また、学習手段760は、第2記憶手段770から走行中の車外環境を取得し、車外環境の変化に対する識別された搭乗者ごとの表情の良好度の変化を更に学習する。こうして学習された搭乗者ごとの「表情の良好度の変化」は、走行ルートを選択するための支援情報の提供処理の際に利用される。
When the information related to the goodness of the passenger's facial expression is thus stored in the first storage means 750, the learning means 760 changes the goodness of the facial expression for each identified passenger on the route traveled based on the information. To learn. In addition, the
<支援情報の提供処理>
次に、ルート選択支援装置700による走行ルートを選択するための支援情報の提供処理について説明する。なお、この支援情報の提供処理は、上述した学習処理と並行して行われるようになっている。
<Providing support information>
Next, support information providing processing for selecting a travel route by the route
この支援情報の提供処理に際して、提供手段780が、まず、識別手段730による識別結果を受けて、車両CRの搭乗者構成を特定する。そして、提供手段780は、測位手段710による測位結果である車両CRの現在位置を受ける。引き続き、提供手段780は、車両CRの現在位置と、学習手段760による「表情の良好度の変化」の学習結果とに基づいて、学習手段760による学習結果を考慮して行われた探索手段781による目的地までの走行ルートを探索結果や、走行ルートの探索を行わない場合における上述した内容の今後の走行ルートの選択を支援するための支援情報を提供する。この結果、当該支援情報が、画像、音声等の態様で、車両CRの搭乗者に提供される。
In the support information providing process, the providing
以上説明したように、本実施形態では、車両CRの搭乗者の顔が撮影手段720により撮影され、撮影結果が、識別手段730及び検出手段740へ送られる。識別手段730では、当該撮影結果に基づいて、搭乗者の個々人を識別し、識別結果を検出手段740へ送る。検出手段740では、まず、撮影手段720による撮影結果に基づいて、搭乗者の表情の良好度を検出する。そして、検出手段740は、測位手段710による測位結果及び識別手段730による識別結果を取得して、識別された搭乗者ごとに、検出した搭乗者の表情の良好度を、車両CRの現在位置と関連付けて、第1記憶手段750に記憶させる。こうして第1記憶手段750に、搭乗者の表情の良好度に関する情報が記憶されると、学習手段760が、当該情報に基づいて、走行したルートにおける識別された搭乗者ごとの「表情の良好度の変化」を学習する。
As described above, in the present embodiment, the face of the passenger in the vehicle CR is photographed by the photographing
この学習処理と並行して、提供手段780が、まず、識別手段730による識別結果を受けて、車両CRの搭乗者構成を特定する。そして、提供手段780は、測位手段710からの車両CRの現在位置を受けて、車両CRの現在位置と、学習手段760による「表情の良好度の変化」の学習結果とに基づいて、今後の走行ルートの選択を支援するための支援情報を提供する。
In parallel with this learning process, the providing
したがって、本発明の実施形態によれば、車両の搭乗者の表情の良好度の変化の傾向を利用して、車室内の雰囲気を良好に保つような走行ルートの選択を支援することができる。 Therefore, according to the embodiment of the present invention, it is possible to support selection of a travel route that maintains a good atmosphere in the passenger compartment by using the tendency of the change in the degree of goodness of the facial expression of the passenger of the vehicle.
なお、上記の実施形態のルート選択支援装置700を、演算手段としてのコンピュータを備えて構成し、測位手段710、撮影手段720、第1記憶手段750及び第2記憶手段770を除く上述した各手段の機能を、プログラムを実行することにより実現するようにすることができる。これらのプログラムは、CD−ROM,DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにすることができる。
Note that the route
以下、本発明のナビゲーション装置の一実施例を、図2〜図9を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素については同一の符号を付し、重複する説明を省略する。 Hereinafter, an embodiment of the navigation device of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.
図2には、一実施例に係るルート選択支援装置としての機能を有する車両搭載用のナビゲーション装置100の概略的な構成が示されている。なお、ナビゲーション装置100は、上述した一実施形態のルート選択支援装置700(図1参照)の一態様となっている。このナビゲーション装置100は、車両CRに搭載されており、車両CRに装着された車速センサ290と接続されている。
FIG. 2 shows a schematic configuration of a vehicle-mounted
[構成]
この図2に示されるように、ナビゲーション装置100は、制御ユニット110と、第1記憶手段750及び第2記憶手段770としての記憶ユニット120とを備えている。また、ナビゲーション装置100は、音出力ユニット130と、表示ユニット140と、操作入力ユニット150とを備えている。さらに、ナビゲーション装置100は、走行情報取得ユニット160と、測位手段710としてのGPS(Global Positioning System)受信ユニット170と、撮影手段720としての2個のカメラユニット1801,1802とを備えている。
[Constitution]
As shown in FIG. 2, the
上記の制御ユニット110は、ナビゲーション装置100の全体を統括制御する。この制御ユニット110については、後述する。
The
上記の記憶ユニット120は、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶ユニット120は、ナビゲーション用情報(NVI)、表情履歴情報(FHI)、表情変化特徴情報(FAI)等の様々なデータを記憶する。この記憶ユニット120には、制御ユニット110がアクセスできるようになっている。
The
上記のナビゲーション用情報(NVI)には、地図データ、POI(Point Of Interests)データ、背景データ等のナビゲーションのために利用される様々なデータが記憶されている。これらのデータは、制御ユニット110によって読み取られるようになっている。なお、POIデータには、各地点の環境情報として、「オフィス街」、「歓楽街」、「特徴的建造物(ランドマーク)」、「工場地帯」、「住宅街」、「山沿い」、「海岸沿い」等の情報も含まれている。
The navigation information (NVI) stores various data used for navigation such as map data, POI (Point Of Interests) data, and background data. These data are read by the
上記の表情履歴情報(FHI)には、搭乗者ごとの「表情の良好度」に関する情報が、車両CRの走行位置と関連付けて記憶されている。この表情履歴情報(FHI)の具体例については、後述する。 In the facial expression history information (FHI), information related to the “goodness of facial expression” for each passenger is stored in association with the travel position of the vehicle CR. A specific example of the facial expression history information (FHI) will be described later.
上記の表情変化特徴情報(FAI)には、上述した表情履歴情報(FHI)から学習した搭乗者ごとの表情変化の特徴が記憶されている。この表情変化特徴情報(FAI)の具体例についても、後述する。 The facial expression change feature information (FAI) stores the facial expression change feature for each passenger learned from the facial expression history information (FHI). A specific example of this facial expression change feature information (FAI) will also be described later.
上記の音出力ユニット130は、スピーカを備えて構成され、制御ユニット110から受信した音声データに対応する音声を出力する。この音出力ユニット130は、制御ユニット110による制御のもとで、ナビゲーション処理に際して、今後の走行ルートの選択支援情報、車両CRの進行方向、走行状況、交通状況等の案内音声を出力する。
The
上記の表示ユニット140は、液晶パネル等の表示デバイスを備えて構成され、制御ユニット110から受信した表示データに対応する画像を表示する。この表示ユニット140は、制御ユニット110による制御のもとで、ナビゲーション処理に際して、今後の走行ルートの選択支援情報、地図情報、ルート情報、ガイダンス情報等を表示する。
The
上記の操作入力ユニット150は、ナビゲーション装置100の本体部に設けられたキー部、及び/又はキー部を備えるリモート入力装置等により構成される。ここで、本体部に設けられたキー部としては、表示ユニット140の表示デバイスに設けられたタッチパネルを用いることができる。なお、キー部を有する構成に代えて、又は併用して音声認識技術を利用して音声にて入力する構成を採用することもできる。
The
この操作入力ユニット150を利用者が操作することにより、ナビゲーション装置100の動作内容の設定や動作指令が行われる。例えば、表情履歴を考慮した支援情報の提供処理の開始/停止指令、ナビゲーション処理におけるルート探索に関する目的地等の設定を、利用者が操作入力ユニット150を利用して行う。こうした入力内容は、操作入力データとして、操作入力ユニット150から制御ユニット110へ向けて送られる。
When the user operates the
上記の走行情報取得ユニット160は、加速度センサ、角速度センサ等を備えて構成されており、車両CRに作用している加速度、角速度を検出する。また、走行情報取得ユニット160は、ナビゲーション装置100と、車両CRに搭載されている車速センサ290との間におけるデータ授受に関して利用され、車速センサ290による検出結果である速度データを取得する。こうして得られた各データは、走行データとして制御ユニット110へ送られる。
The travel
上記のGPS受信ユニット170は、複数のGPS衛星からの電波の受信結果に基づいて、車両CRの現在位置を算出する。また、GPS受信ユニット170は、GPS衛星から送出された日時情報に基づいて、現在時刻を計時する。これらの現在位置および現在時刻に関する情報は、GPSデータとして制御ユニット110へ送られる。
The
上記のカメラユニット1801,1802のそれぞれは、カメラデバイスを備えて構成されている。本実施例では、カメラユニット1801,1802は、車室内の前方上部位置に配置されている。そして、カメラユニット1801は、「運転者」の顔を撮影し、カメラユニット1802は、助手席に着座する「同乗者」の顔を撮影するようになっている。こうしたカメラユニット1801,1802による撮影結果は、画像情報として、制御ユニット110へ送られる。
Each of the camera units 180 1 and 180 2 includes a camera device. In this embodiment, the camera units 180 1 and 180 2 are arranged at the upper front position in the vehicle interior. The camera unit 180 1 captures the face of the “driver”, and the camera unit 180 2 captures the face of the “passenger” sitting on the passenger seat. The imaging results obtained by the camera units 180 1 and 180 2 are sent to the
次に、上記の制御ユニット110について説明する。この制御ユニット110は、中央処理装置(CPU)及びその周辺回路を備えて構成されている。制御ユニット110が様々なプログラムを実行することにより、上記の各種機能が実現されるようになっている。こうした機能の中には、上述した一実施形態における識別手段730、検出手段740、学習手段760及び提供手段780としての機能も含まれている。
Next, the
この制御ユニット110は、走行情報取得ユニット160からの走行データ、及び、GPS受信ユニット170からのGPSデータに基づいて、記憶ユニット120中のナビゲーション用情報(NVI)、表情履歴情報(FHI)及び表情変化特徴情報(FAI)を適宜参照し、搭乗者へのナビゲーション情報の提供処理を行う。こうしたナビゲーション情報の提供処理には、(a)搭乗者が指定する地域の地図を表示ユニット140の表示デバイスに表示するための地図表示、(b)車両CRが地図上のどこに位置するのか、また、どの方角に向かっているのかを算出し、表示ユニット140の表示デバイスに表示して搭乗者に提示するマップマッチング、(c)表示ユニット140の表示デバイスや音出力ユニット130のスピーカを利用した「今後の走行ルートの選択支援を行うための支援情報の提供」等の処理が含まれる。
The
上述した提供処理(c)における走行ルートの選択支援を行うために、制御ユニット110は、カメラユニット1801,1802を制御して、カメラユニット1801による撮影結果である「運転者」の顔の画像情報、及び、カメラユニット1802による撮影結果である「同乗者」の顔の画像情報を取得する。そして、制御ユニット110は、「運転者」の顔の画像情報及び「同乗者」の顔の画像情報から、搭乗者の個々人を識別する。また、制御ユニット110は、運転者及び同乗者(以下、「搭乗者」とも記す)の顔の画像情報から、表情の良好度を判定する。本実施例では、「表情の良好度」としては、「良好」、「やや良好」、「普通」、「やや不良」、「不良」等のように段階的に分類するようになっている。
In order to perform the selection support of the travel route in the providing process (c) described above, the
本実施例では、表情の良好度の判定処理に際して、制御ユニット110は、まず、搭乗者の顔の画像情報から、左右の眼の位置及び口の位置を検出する。そして、制御ユニット110は、左右の眼の検出位置及び口の検出位置から、両眼間距離及び傾きを算出して、顔の大きさと顔の向きを導出する。また、制御ユニット110は、特徴点として、各眼の上下左右の点、各眉の左右の点、及び、口の上下左右の点を抽出する。制御ユニット110は、こうして抽出した特徴点の変動を総合的に解析して、表情の良好度を判定する。例えば、これらの特徴点から、頬が持ち上がり、唇の端が引っ張りあげられたと解析した場合には、制御ユニット110は、搭乗者は笑顔である、すなわち、「表情の良好度」は「良好」であると判定する。
In the present embodiment, when determining the degree of goodness of facial expression, the
引き続き、制御ユニット110は、車両CRの現在位置を取得して、識別された搭乗者ごとに、表情の良好度を車両CRの現在位置と関連付ける。こうして車両CRの走行位置と関連付けられた搭乗者ごとの表情の良好度に関する情報は、表情履歴情報(FHI)として記憶ユニット120中に記憶される。
Subsequently, the
ここで、車両CRが、図3に示される各地点を走行したときの、搭乗者ごとの「表情の良好度」の履歴の例を示す。なお、地点A→C→D→E→Bを通過するルートを「ルート1」とし、「山沿い」を長く走行するルートであるものとする。また、地点A→F→G→H→Bを通過するルートを「ルート2」とし、「オフィス街」を長く走行するルートとする。 Here, an example of the history of “goodness of facial expression” for each passenger when the vehicle CR travels through each point shown in FIG. 3 is shown. It is assumed that the route passing through points A → C → D → E → B is “route 1” and the route travels along the “mountainside” for a long time. Further, a route passing through points A → F → G → H → B is set as “Route 2”, and “Office Town” is set as a route that travels long.
図4(A)には、ルート1を走行したときの、運転者DR及び同乗者P1,P2の表情の良好度の履歴が示され、図4(B)には、ルート2を走行したときの運転者DR及び同乗者P1,P2の表情の良好度の履歴が示されている。また、図5(A),(B)には、それぞれルート1、ルート2を走行したときの運転者DR及び同乗者P3の表情の良好度の履歴が示されている。なお、運転者DRの表情の良好度の履歴については、これまでの収集結果を平均したものとなっている。また、本実施例では、「表情の良好度」の範囲を−5〜5までとし、5を「良好」、3を「やや良好」、0を「普通」、−3を「やや不良」、そして、−5を「不良」とし、段階的に分類するようになっている。 FIG. 4A shows a history of the goodness of facial expressions of the driver DR and the passengers P1 and P2 when traveling on the route 1, and FIG. 4B shows a history when traveling on the route 2. The history of the goodness of the facial expressions of the driver DR and the passengers P1 and P2 is shown. FIGS. 5A and 5B show the history of the goodness of facial expressions of the driver DR and the passenger P3 when traveling on the route 1 and the route 2, respectively. The history of the degree of goodness of the facial expression of the driver DR is an average of the collected results so far. In this embodiment, the range of “goodness of facial expression” is −5 to 5, 5 is “good”, 3 is “slightly good”, 0 is “normal”, -3 is “slightly bad”, Then, −5 is classified as “defective” and is classified in stages.
こうして表情履歴情報(FHI)が記憶ユニット120中に記憶されると、制御ユニット110は、当該表情履歴情報(FHI)に基づいて、走行したルートにおける搭乗者ごとの「表情の良好度の変化」を学習する。この学習に際して、制御ユニット110は、ナビゲーション用情報(NVI)のPOIデータを取得して、走行したルートにおける車外環境の変化に対する搭乗者ごとの「表情の良好度の変化」を更に学習する。
When the facial expression history information (FHI) is stored in the
例えば、図4(A),(B)に示される例では、同乗者P1は、ルート1の走行中には表情が「良好」状態になるが、ルート2の走行中には表情が「不良」状態になるという特徴が学習されるとともに、同乗者P2は、ルート1の走行中には表情が「不良」状態になるが、ルート2の走行中には表情が「良好」状態になるという特徴が学習される。また、運転者DRは、ルート1,2の走行中に、共に表情が「普通」状態であるという特徴が学習される。ここで、かかる学習を、「走行ルート学習」と称することとする。 For example, in the example shown in FIGS. 4A and 4B, the passenger P1 has a “good” facial expression while traveling on route 1, but has a “bad” facial expression while traveling on route 2. And the passenger P2 is said to have a “bad” facial expression while traveling on the route 1 but a “good” facial expression while traveling on the route 2. Features are learned. In addition, the driver DR learns that the facial expressions are both “normal” during traveling on the routes 1 and 2. Here, this learning is referred to as “travel route learning”.
また、図4(A),(B)に示される例からは、同乗者P1は、「山沿い」を走行しているときには表情が「良好」状態になるが、「オフィス街」を走行しているときには表情が「不良」状態になるという特徴が学習されるとともに、同乗者P2は、「オフィス街」を走行しているときに表情が「良好」状態になるが、「山沿い」を走行しているときには表情が「不良」状態になるという特徴が学習される。ここで、かかる学習を、「車外環境学習」と称することとする。 In addition, from the example shown in FIGS. 4A and 4B, the passenger P1 looks “good” when traveling along the “mountain”, but travels in the “office district”. While the passenger P2 learns that the facial expression is in a “bad” state, the passenger P2 is in the “good” state when driving in the “office district”. The characteristic that the facial expression becomes “bad” when the vehicle is running is learned. Here, this learning is referred to as “exterior environment learning”.
また、図5(A),(B)に示される例では、同乗者P3は、ルート1の走行中には表情が「良好」状態になるが、ルート2の走行中には、当初の表情が「良好」状態のときには、後に表情が「不良」状態に変化し、当初の表情が「やや不良」状態のときには、後に表情が「普通」状態に変化するという特徴が学習される。こうした学習結果は、表情変化特徴情報(FAI)として記憶ユニット120中に記憶される。
Further, in the example shown in FIGS. 5A and 5B, the passenger P3 is in the “good” state while traveling on the route 1, but the initial facial expression while traveling on the route 2. When “Good” state, the facial expression changes to “Bad” state later, and when the initial facial expression is “Slightly bad” state, the facial expression changes to “Normal” state later. Such learning results are stored in the
また、制御ユニット110は、上述した提供処理(c)における走行ルートの選択支援を行うために、「表情の良好度の変化」の学習結果に基づいて、今後の走行ルートの選択支援を行うための支援情報の提供を行う。当該支援情報の提供に関する処理については、後述する。
In addition, the
[動作]
以上のようにして構成されたナビゲーション装置100の動作について、今後の走行ルートの選択支援を行うための支援情報提供処理に主に着目して説明する。
[Operation]
The operation of the
なお、以下においては、支援情報の提供処理の実行中には、制御ユニット110は、所定の時間間隔で、カメラユニット1801,1802から搭乗者の顔の画像情報を取得するとともに、車両CRの現在位置を取得しているものとする。
In the following, during the execution of the support information providing process, the
<「表情の良好度の変化」の学習処理>
まず、支援情報の提供処理に利用される「表情の良好度の変化」の学習処理について説明する。
<Learning process for “change in facial expression”>
First, the learning process of “change in the degree of goodness of facial expression” used for the support information providing process will be described.
この学習処理は、利用者が、操作入力ユニット150を利用して、表情履歴を考慮した情報提供処理の開始指令を入力することにより開始する。当該開始指令が入力されると、図6に示されるように、ステップS11において、制御ユニット110が、カメラユニット1801,1802から取得した運転者及び同乗者の顔の画像情報から、搭乗者の個々人を識別する。この後、処理はステップS12へ進む。
This learning process is started when the user uses the
ステップS12では、制御ユニット110が、運転者及び同乗者の顔の画像情報から、表情の良好度を判定する。引き続き、制御ユニット110は、ステップS13において、識別された搭乗者ごとに、判定した表情の良好度を車両CRの現在位置と関連付けて、表情履歴情報(FHI)として記憶ユニット120中に記憶する。この後、処理はステップS14へ進む。
In step S12, the
ステップS14では、制御ユニット110が、表情履歴情報(FHI)が有意な学習結果を得られる程度に蓄積されたか否かを判定する。この判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS12へ戻る。
In step S14, the
一方、ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)には、処理はステップS15へ進む。このステップS15では、制御ユニット110が、当該表情履歴情報(FHI)及びナビゲーション用情報(NVI)に基づいて、搭乗者ごとの「走行したルートにおける表情の良好度の変化」の学習(走行ルート学習)、及び、搭乗者ごとの「車外環境の変化に対する表情の良好度の変化」の学習(車外環境学習)を行う。この後、処理はステップS12へ戻る。
On the other hand, when the result of the determination in step S14 is affirmative (step S14: Y), the process proceeds to step S15. In this step S15, the
以後、上記のステップS12〜S15の処理が繰り返されて、「表情の良好度の変化」の学習処理が行われる。 Thereafter, the processes of steps S12 to S15 are repeated, and the learning process of “change in the degree of goodness of facial expression” is performed.
<支援情報の提供処理>
次に、「表情の良好度の変化」の学習結果を適用した今後の走行ルートの選択支援を行う支援情報の提供処理について説明する。この支援情報の提供処理は、上述した学習処理と並行して行われるようになっている。
<Providing support information>
Next, a description will be given of support information provision processing for supporting selection of a future travel route to which the learning result of “change in the degree of goodness of facial expression” is applied. This support information providing process is performed in parallel with the learning process described above.
なお、以下においては、具体例として、図4及び図5に示した表情の良好度の履歴を参照しつつ説明する。ここで、図4,5から、運転者DRの表情履歴に特徴がないため、具体例としては、同乗者P1〜P3の表情履歴に基づいた支援情報の提供処理を説明する。また、支援情報の提供処理が終了するまでは、助手席に着座している同乗者の変更はないものとする。 In the following, a specific example will be described with reference to the history of the degree of goodness of facial expressions shown in FIGS. Here, from FIG. 4 and FIG. 5, since there is no feature in the facial expression history of the driver DR, as a specific example, a process for providing support information based on the facial expression history of the passengers P1 to P3 will be described. Further, it is assumed that passengers seated in the passenger seat are not changed until the support information providing process is completed.
ナビゲーション装置100における支援情報の提供処理は、上述した学習処理と同様に、利用者が、操作入力ユニット150を利用して、表情履歴を考慮した情報提供処理の開始指令を入力することにより開始する。こうして開始指令が入力されると、図7に示されるように、ステップS21において、制御ユニット110が、カメラユニット1802から取得した「同乗者」の顔の画像情報から、搭乗者の個々人を識別する。
The support information providing process in the
引き続き、ステップS22において、制御ユニット110が、当該識別された搭乗者の「表情の良好度の変化」の学習結果が得られているか否かを判定する。この判定の結果が否定的であった場合(ステップS22:N)には、ステップS22の処理が繰り返される。なお、この判定の結果が否定的であっても、上述した「表情の良好度の変化」の学習処理が行われ、当該識別された搭乗者の「表情の良好度の変化」の学習結果が生成されれば、当該判定の結果は肯定的となる。
Subsequently, in step S22, the
一方、ステップS22における判定の結果が肯定的であった場合(ステップS22:Y)には、処理はステップS23へ進む。 On the other hand, if the result of the determination in step S22 is affirmative (step S22: Y), the process proceeds to step S23.
ステップS23では、制御ユニット110が、ルート探索を行うかを判定する。この判定の結果が肯定的であった場合(ステップS23:Y)には、処理はステップS24へ進む。このステップS24では、「ルート探索を伴う走行ルートの選択支援処理」が行われる。一方、ステップS23における判定の結果が否定的であった場合(ステップS23:N)には、処理はステップS25へ進む。このステップS25では、「ルート探索を伴わない走行ルートの選択支援処理」が行われる。
In step S23, the
上記のステップS24における「ルート探索を伴う走行ルートの選択支援」処理について説明する。この走行ルートの選択支援処理に際しては、図8に示されるように、まず、ステップS31において、制御ユニット110が、現在位置から利用者により指定された目的地に至るルートを探索する。
The “travel route selection support with route search” processing in step S24 will be described. In this travel route selection support process, as shown in FIG. 8, first, in step S31, the
引き続き、ステップS32において、制御ユニット110が、探索されたルートそれぞれについての評価を、学習結果に基づいて行う。かかる評価を行うに際して、制御ユニット110は、まず、探索されたルートそれぞれについて、識別された搭乗者の表情履歴情報(FHI)があるか否かを判定する。そして、制御ユニット110は、表情履歴情報(FHI)があると判定されたルートについては、上述した「走行ルート学習」の結果を利用した走行ルートの評価を行う。
Subsequently, in step S32, the
また、制御ユニット110は、表情履歴情報(FHI)がないと判定されたルートについては、かかる評価を行うに際して上述した「車外環境学習」の結果を利用することができるか否かを判定する。そして、制御ユニット110は、当該学習結果を利用することができると判定されたルートについては、「車外環境学習」の結果を利用した走行ルートの評価を行う。
Further, the
そして、制御ユニット110は、「走行ルート学習」の結果を利用した走行ルートの評価結果、及び、「車外環境学習」の結果を利用した走行ルートの評価結果を総合的に勘案して、探索されたルートそれぞれについての総合評価を行う。
Then, the
この総合評価は、例えば、「走行ルート学習」及び「車外環境学習」の結果を利用した走行ルートの評価結果において、ともに高評価のルートが存在する場合には、「走行ルート学習」の結果を利用した走行ルートをより高評価の走行ルートにする等、「走行ルート学習」の結果を利用した走行ルートの評価に、重みを置くようになっている。 For example, if there is a highly evaluated route in the evaluation result of the travel route using the results of “travel route learning” and “exterior environment learning”, the comprehensive evaluation is performed using the result of “travel route learning”. A weight is placed on the evaluation of the travel route using the result of “travel route learning”, such as making the travel route used more highly evaluated.
ここで、かかる評価結果の具体例について説明する。例えば、探索されたルートが上述したルート1,2であり(図3、図4(A),(B)参照)、識別された搭乗者が同乗者P1である場合には、制御ユニット110は、「走行ルート学習」の結果を利用して、ルート1を高評価の走行ルートとするとともに、ルート2を低評価の走行ルートとする。また、識別された搭乗者が同乗者P2である場合には、制御ユニット110は、「走行ルート学習」の結果を利用して、ルート2を高評価の走行ルートとするとともに、ルート1を低評価の走行ルートとする。
Here, a specific example of the evaluation result will be described. For example, when the searched routes are the above-described routes 1 and 2 (see FIGS. 3, 4A and 4B), and the identified passenger is the passenger P1, the
また、例えば、助手席の搭乗者が同乗者P1である場合に、探索されたルートについての表情履歴情報(FHI)がないときには、制御ユニット110は、「車外環境学習」の結果を利用して、探索したルートの中に、「山沿い」を長く走行するルートがあれば、当該ルートを高評価の走行ルートとするとともに、「オフィス街」を走行するルートがあれば、当該ルートを低評価の走行ルートとする。また、助手席の搭乗者が同乗者P2である場合に、探索されたルートについての表情履歴情報(FHI)がないときには、制御ユニット110は、「車外環境学習」の結果を利用して、探索したルートの中に、「オフィス街」を長く走行するルートがあれば、当該ルートを高評価の走行ルートとするとともに、「山沿い」を走行するルートがあれば、当該ルートを低評価の走行ルートとする。
Further, for example, when the passenger in the passenger seat is the passenger P1, and there is no facial expression history information (FHI) for the searched route, the
なお、本実施例では、探索されたルートのすべてが「車外環境学習」の結果を利用することができないと判定された場合や、学習結果に基づくルートの評価結果から低評価のルートしか存在しない場合には、従来から存在するナビゲーション装置の機能通りに、搭乗者が設定した優先度(例えば時間優先、距離優先、有料道路優先等)に基づいたルートを情報提供するようになっている。 In this embodiment, when it is determined that all of the searched routes cannot use the result of “external environment learning”, or there is only a low evaluation route based on the evaluation result of the route based on the learning result. In this case, the route based on the priority (for example, time priority, distance priority, toll road priority, etc.) set by the passenger is provided according to the function of a conventional navigation device.
探索されたルートそれぞれについての評価結果が得られると、処理はステップS33へ進む。ステップS33では、制御ユニット110が、学習結果の適用結果に基づく走行ルート候補の情報提供を行う。この情報提供は、高評価の順に、走行ルート候補を利用者に提示する態様で、表示ユニット140の表示デバイスに画像表示されるとともに、音出力ユニット130のスピーカにより音声案内される。
When the evaluation result for each searched route is obtained, the process proceeds to step S33. In step S33, the
引き続き、ステップS34において、走行ルート候補の中から走行すべきルートが利用者により決定されると、制御ユニット110が、当該ルートの案内を行う。この後、処理はステップS35へ進む。
Subsequently, in step S34, when a route to be traveled is determined from the travel route candidates by the user, the
ステップS35では、制御ユニット110が、車両CRが目的地に到達、又は、走行ルートから離脱したか否かを判定する。この判定の結果が否定的であった場合(ステップS35:N)には、ステップS35の処理が繰り返される。一方、ステップS35における判定の結果が肯定的になると(ステップS35:Y)、ステップS24の処理が終了し、処理は、上述した図7におけるステップS23へ戻る。
In step S35, the
次いで、上記のステップS25における「ルート探索を行わない走行ルートの選択支援」処理について説明する。この走行ルートの選択支援処理に際しては、図9に示されるように、まず、ステップS41において、制御ユニット110が、車両CRの走行位置に基づいて、今後の走行ルート候補としてのルートを抽出する。
Next, the “support for selecting a travel route without performing a route search” process in step S25 will be described. In this travel route selection support process, as shown in FIG. 9, first, in step S41, the
引き続き、ステップS42において、制御ユニット110が、上述したステップS32と同様に、抽出されたルートそれぞれについての評価を、「走行ルート学習」の結果又は「車外環境学習」の結果又は表情変化特徴情報(FAI)に基づいて行う。
Subsequently, in step S42, as in step S32 described above, the
ここで、評価結果の具体例について説明する。例えば、車両CRが、地点A→F間を走行しているときに、地点F→G→H→Bを通過するルートであるルート2と、地点F→C→D→E→Bを通過するルート(ここでは、「ルート1c」とする)とを抽出したとする(図3参照)。このとき制御ユニット110は、「走行ルート学習」の結果を利用して、搭乗者が同乗者P3であり、表情が「良好」状態であるときには、ルート2をそのまま走行すると、後に表情が「不良」状態に変化する可能性があるため(図5(A),(B)参照)、地点F→Cを走行して地点Bに至るルート1cを高評価の走行ルートとする。
Here, a specific example of the evaluation result will be described. For example, when the vehicle CR travels between points A → F, it passes through route 2, which is a route passing through points F → G → H → B, and points F → C → D → E → B. It is assumed that a route (here, “route 1c”) is extracted (see FIG. 3). At this time, the
抽出されたルートそれぞれについての評価結果が得られると、処理はステップS43へ進む。ステップS43では、上述したステップS33と同様に、制御ユニット110が、学習結果の適用結果に基づく走行ルート候補の情報提供を行う。この情報提供は、高評価の順に、走行ルート候補を利用者に提示する態様で、表示ユニット140の表示デバイスに画像表示されるとともに、音出力ユニット130のスピーカにより音声案内される。
When the evaluation result for each extracted route is obtained, the process proceeds to step S43. In step S43, as in step S33 described above, the
引き続き、ステップS44において、車両CRの現在位置の変化により、上記の走行ルート候補の中から今後走行すると推測される走行ルートが絞りこまれると、制御ユニット110が、当該絞り込まれた走行ルートの案内を行う。この後、処理はステップS45へ進む。
Subsequently, in step S44, when a travel route estimated to travel in the future is narrowed down from the above-mentioned travel route candidates due to a change in the current position of the vehicle CR, the
ステップS45では、制御ユニット110が、車両CRが当該絞り込まれた走行ルートから離脱したか否かを判定する。この判定の結果が否定的であった場合(ステップS45:N)には、ステップS44,S45の処理が繰り返される。一方、ステップS45における判定の結果が肯定的になると(ステップS45:Y)、ステップS25の処理が終了し、処理は、上述した図7におけるステップS23へ戻る。
In step S45, the
上記の処理が実行されることにより、今後の走行ルートの選択を支援するための支援情報の提供処理が行われる。 By executing the above processing, support information providing processing for supporting selection of a future travel route is performed.
以上説明したように、本実施例では、制御ユニット110が、カメラユニット1801,1802から搭乗者の顔の画像情報を取得する。そして、制御ユニット110は、当該顔の画像情報から、搭乗者の個々人を識別するとともに、搭乗者の表情の良好度を判定する。引き続き、制御ユニット110は、識別された搭乗者ごとに、表情の良好度を車両CRの現在位置と関連付けて、表情履歴情報(FHI)として記憶ユニット120に記憶する。そして、制御ユニット110は、当該表情履歴情報(FHI)に基づいて、走行したルートにおける搭乗者ごとの「表情の良好度の変化」を学習する。
As described above, in this embodiment, the
こうして「表情の良好度の変化」の学習が進むと、制御ユニット110は、車両CRの現在位置と、当該「表情の良好度の変化」の学習結果とに基づいて、走行中の搭乗者構成に対応して、今後の走行ルートの選択を支援するための支援情報を、画像や音声等により提供する。
When the learning of “change in the degree of goodness of facial expression” proceeds in this way, the
したがって、本実施例によれば、車両の搭乗者の表情の良好度の変化の傾向を利用して、車室内の雰囲気を良好に保つような走行ルートの選択を支援することができる。 Therefore, according to the present embodiment, it is possible to support selection of a travel route that maintains a good atmosphere in the passenger compartment by using the tendency of the change in the degree of goodness of the facial expression of the passenger of the vehicle.
[実施例の変形]
本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。
[Modification of Example]
The present invention is not limited to the above-described embodiments, and various modifications are possible.
例えば、上記の実施例では、助手席に着座している同乗者の表情の良好度の変化を考慮した走行ルートの選択支援を行うものとしたが、運転者の表情の良好度の変化を考慮した走行ルートの選択支援を行うようにしてもよい。 For example, in the above embodiment, the driving route selection support considering the change in the goodness of the facial expression of the passenger sitting in the passenger seat is performed, but the change in the goodness of the driver's facial expression is taken into account. You may be made to perform selection support of the run route.
また、上記の実施例では、2個のカメラユニットを備えることとしたが、カメラユニットの数は1個、又は、3個以上車両定員数以下であってもよい。ここで、カメラユニットの数を1個とする場合には、当該1個のカメラユニットの撮影視野は、助手席に着座する搭乗者の顔周辺であってもよいし、搭乗者全員の顔を撮影することのできる車室内全体であってもよい。カメラユニットの個数を車両定員数と同じ個数とする場合には、それぞれのカメラユニットの撮影視野は、異なる座席に着座するそれぞれの搭乗者の顔周辺とするようにすればよい。 In the above embodiment, two camera units are provided. However, the number of camera units may be one or three or more and less than or equal to the vehicle capacity. Here, when the number of camera units is one, the field of view of the one camera unit may be around the face of the passenger sitting on the passenger seat, or the faces of all the passengers It may be the entire vehicle interior that can be photographed. When the number of camera units is the same as the number of vehicles, the shooting field of view of each camera unit may be around the face of each occupant seated in a different seat.
また、上記の実施例では、カメラユニットから取得した画像情報から搭乗者を識別することとしたが、搭乗者の識別を行わないようにしてもよい。この場合には、平均的な搭乗者の「表情の良好度の変化」を学習し、当該学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供することになる。 In the above embodiment, the passenger is identified from the image information acquired from the camera unit. However, the passenger may not be identified. In this case, “change in the degree of goodness of facial expression” of the average passenger is learned, and based on the learning result, support information for supporting selection of a future travel route is provided.
また、上記の実施例では、「表情の良好度の変化」の学習結果が利用できるときには、他の要因を考慮せず、当該学習結果に基づいて、今後の走行ルートの選択を支援するようにした。これに対して、交通渋滞を考慮し、車室内の雰囲気を良好に保つ観点から最適とされた走行ルートが渋滞している場合には、渋滞が発生していない走行ルートを提供するようにしてもよい。 Further, in the above-described embodiment, when the learning result of “change in the degree of goodness of facial expression” is available, the selection of a future driving route is supported based on the learning result without considering other factors. did. On the other hand, in consideration of traffic jams, if there is a traffic route that is optimal from the viewpoint of maintaining a good atmosphere in the passenger compartment, a route that does not cause traffic jams should be provided. Also good.
また、表情の良好度の判定処理については、上記の実施例の手法に限定されるものではなく、表情の良好度を制度良く判定することができるものであれば、他の手法を採用するようにしてもよい。 In addition, the determination process of the facial expression goodness is not limited to the method of the above embodiment, and other methods may be adopted as long as the goodness of the facial expression can be determined systematically. It may be.
また、上記の実施例では、コンピュータによるプログラムの実行により、測位手段、撮影手段及び第1及び第2記憶手段を除く各手段の機能を実現するようにしたが、これらの各手段の全部又は一部を、専用のLSI(Large Scale Integrated circuit)等を用いたハードウェアにより構成するようにしてもよい。 In the above-described embodiment, the functions of the units other than the positioning unit, the photographing unit, and the first and second storage units are realized by executing the program by the computer. However, all or one of these units is realized. The unit may be configured by hardware using a dedicated LSI (Large Scale Integrated circuit) or the like.
100 … ナビゲーション装置(ルート選択支援装置)
110 … 制御ユニット(識別手段、検出手段、学習手段、提供手段)
120 … 記憶ユニット(第1記憶手段、第2記憶手段)
170 … GPS受信ユニット(測位手段)
1801 … カメラユニット(撮影手段)
1802 … カメラユニット(撮影手段)
700 … ルート選択支援装置
710 … 測位手段
720 … 撮影手段
730 … 識別手段
740 … 検出手段
750 … 第1記憶手段
760 … 学習手段
770 … 第2記憶手段
780 … 提供手段
781 … 探索手段
100 ... Navigation device (route selection support device)
110 ... Control unit (identification means, detection means, learning means, providing means)
120: Storage unit (first storage means, second storage means)
170 ... GPS receiving unit (positioning means)
180 1 ... Camera unit (photographing means)
180 2 ... Camera unit (photographing means)
700 ... Route
Claims (9)
前記車両の現在位置を計測する測位手段と;
前記車両の搭乗者の顔を撮影する撮影手段と;
前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出手段と;
前記検出手段による検出結果を、前記測位手段による測位結果と関連付けて記憶する第1記憶手段と;
前記第1記憶手段に記憶された情報に基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習手段と;
前記学習手段による学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供手段と;
を備えることを特徴とするルート選択支援装置。 A route selection support device for supporting selection of a travel route of a vehicle,
Positioning means for measuring the current position of the vehicle;
Photographing means for photographing a face of a passenger of the vehicle;
Detecting means for detecting a goodness of facial expression for each passenger based on a result of photographing by the photographing means;
First storage means for storing the detection result by the detection means in association with the positioning result by the positioning means;
Learning means for learning a change in the degree of goodness of the facial expression for each passenger on the route traveled based on the information stored in the first storage means;
Providing means for providing support information for supporting selection of a future travel route based on a learning result by the learning means;
A route selection support apparatus comprising:
前記第1記憶手段には、前記識別手段により識別された搭乗者ごとに、前記検出手段による検出結果が前記測位手段による測位結果と関連付けて記憶され、
前記学習手段は、前記第1記憶手段に記憶された情報に基づいて、前記走行したルートにおける前記識別された搭乗者ごとの表情の良好度の変化を学習し、
前記提供手段は、前記識別手段による識別結果から得られる走行中の搭乗者構成に対応して、前記支援情報を提供する、
ことを特徴とする請求項1に記載のルート選択支援装置。 An identification means for identifying an individual person of the passenger based on a result of photographing by the photographing means;
In the first storage means, for each passenger identified by the identification means, the detection result by the detection means is stored in association with the positioning result by the positioning means,
The learning means learns a change in the degree of goodness of the facial expression for each identified passenger on the traveled route based on the information stored in the first storage means,
The providing means provides the support information corresponding to a traveling passenger configuration obtained from the identification result by the identifying means.
The route selection support apparatus according to claim 1.
ことを特徴とする請求項1又は2に記載のルート選択支援装置。 The learning means acquires an environment outside the vehicle during traveling, and further learns a change in the degree of goodness of the facial expression for each passenger with respect to a change in the environment outside the vehicle in consideration of a change in the environment outside the vehicle on the route traveled.
The route selection support apparatus according to claim 1 or 2, characterized in that
前記測位手段による測位結果に基づいて、今後の走行ルート候補を抽出し、
前記抽出された走行ルート候補ごとへの前記学習手段による学習結果の適用結果に基づいて、前記支援情報を提供する、
ことを特徴とする請求項1〜5のいずれか一項に記載のルート選択支援装置。 The providing means includes
Based on the positioning results by the positioning means, extract future driving route candidates,
Providing the support information based on the application result of the learning result by the learning means for each extracted travel route candidate;
The route selection support device according to any one of claims 1 to 5, wherein
前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出工程と;
前記測位手段による測位結果と、前記検出工程における検出結果とに基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習工程と;
前記学習工程における学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供工程と;
を備えることを特徴とするルート選択支援方法。 Route selection support used in a route selection support device for supporting selection of a travel route of the vehicle, comprising: positioning means for measuring a current position of the vehicle; and photographing means for photographing a face of a passenger of the vehicle. A method,
A detection step of detecting a goodness of facial expression for each passenger based on a result of photographing by the photographing means;
A learning step of learning a change in the degree of goodness of the facial expression for each occupant on the route traveled based on the positioning result by the positioning means and the detection result in the detection step;
A providing step of providing support information for supporting selection of a future travel route based on a learning result in the learning step;
A route selection support method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009277632A JP2011117905A (en) | 2009-12-07 | 2009-12-07 | Route selection support device and route selection support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009277632A JP2011117905A (en) | 2009-12-07 | 2009-12-07 | Route selection support device and route selection support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011117905A true JP2011117905A (en) | 2011-06-16 |
Family
ID=44283403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009277632A Pending JP2011117905A (en) | 2009-12-07 | 2009-12-07 | Route selection support device and route selection support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011117905A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013145081A1 (en) * | 2012-03-26 | 2013-10-03 | パイオニア株式会社 | Route search device, route search management device, terminal device, and route search method |
JP2013216241A (en) * | 2012-04-10 | 2013-10-24 | Denso Corp | Affect-monitoring system |
WO2016121174A1 (en) * | 2015-01-30 | 2016-08-04 | ソニー株式会社 | Information processing system and control method |
JP2019159930A (en) * | 2018-03-14 | 2019-09-19 | オムロン株式会社 | Drive support device, drive support method, drive support program, operation control device, operation control method, and operation control program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002034936A (en) * | 2000-07-24 | 2002-02-05 | Sharp Corp | Communication device and communication method |
JP2004281488A (en) * | 2003-03-13 | 2004-10-07 | Renesas Technology Corp | Semiconductor device and method of manufacturing the same |
JP2006320621A (en) * | 2005-05-20 | 2006-11-30 | Sharp Corp | Stress care apparatus, and air-conditioner and robot apparatus equipped with stress care apparatus |
JP2007057510A (en) * | 2005-08-26 | 2007-03-08 | Equos Research Co Ltd | Navigation system |
WO2007032278A1 (en) * | 2005-09-13 | 2007-03-22 | Pioneer Corporation | Path search apparatus, path search method, path search program, and computer readable recording medium |
JP2007205764A (en) * | 2006-01-31 | 2007-08-16 | Equos Research Co Ltd | Route searching apparatus |
JP2008281488A (en) * | 2007-05-11 | 2008-11-20 | Toyota Motor Corp | Navigation device |
-
2009
- 2009-12-07 JP JP2009277632A patent/JP2011117905A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002034936A (en) * | 2000-07-24 | 2002-02-05 | Sharp Corp | Communication device and communication method |
JP2004281488A (en) * | 2003-03-13 | 2004-10-07 | Renesas Technology Corp | Semiconductor device and method of manufacturing the same |
JP2006320621A (en) * | 2005-05-20 | 2006-11-30 | Sharp Corp | Stress care apparatus, and air-conditioner and robot apparatus equipped with stress care apparatus |
JP2007057510A (en) * | 2005-08-26 | 2007-03-08 | Equos Research Co Ltd | Navigation system |
WO2007032278A1 (en) * | 2005-09-13 | 2007-03-22 | Pioneer Corporation | Path search apparatus, path search method, path search program, and computer readable recording medium |
JP2007205764A (en) * | 2006-01-31 | 2007-08-16 | Equos Research Co Ltd | Route searching apparatus |
JP2008281488A (en) * | 2007-05-11 | 2008-11-20 | Toyota Motor Corp | Navigation device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013145081A1 (en) * | 2012-03-26 | 2013-10-03 | パイオニア株式会社 | Route search device, route search management device, terminal device, and route search method |
JP2013216241A (en) * | 2012-04-10 | 2013-10-24 | Denso Corp | Affect-monitoring system |
US9465978B2 (en) | 2012-04-10 | 2016-10-11 | Denso Corporation | Feeling monitoring system |
WO2016121174A1 (en) * | 2015-01-30 | 2016-08-04 | ソニー株式会社 | Information processing system and control method |
CN107209019A (en) * | 2015-01-30 | 2017-09-26 | 索尼公司 | Information processing system and control method |
JPWO2016121174A1 (en) * | 2015-01-30 | 2017-11-09 | ソニー株式会社 | Information processing system and control method |
US10302444B2 (en) | 2015-01-30 | 2019-05-28 | Sony Corporation | Information processing system and control method |
JP2019159930A (en) * | 2018-03-14 | 2019-09-19 | オムロン株式会社 | Drive support device, drive support method, drive support program, operation control device, operation control method, and operation control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4753999B2 (en) | Navigation device | |
US10866107B2 (en) | Navigation system | |
JP2005083758A (en) | Route search device | |
WO2011077495A1 (en) | Navigation device | |
JP2011117905A (en) | Route selection support device and route selection support method | |
JP2010127837A (en) | Navigation device | |
WO2007135855A1 (en) | Information presentation device, information presentation method, information presentation program, and computer readable recording medium | |
JP2007072567A (en) | Vehicle traveling information recording device | |
JP2010256554A (en) | Information processor and image display control method | |
JP6619316B2 (en) | Parking position search method, parking position search device, parking position search program, and moving object | |
JP2008014902A (en) | Drive plan presenting device, and drive plan presenting method | |
JP4039968B2 (en) | Navigation system | |
JP2010085203A (en) | Navigation device and guidance method | |
JP2020060517A (en) | Agent device, method for controlling agent device, and program | |
JP6099845B1 (en) | Information device, navigation device, work procedure guidance device, and load status determination method | |
JP4111444B2 (en) | Navigation device | |
JP4293893B2 (en) | Navigation device and landmark display method | |
JP2005321268A (en) | Navigation system | |
JP4480363B2 (en) | Navigation device | |
JP2007322305A (en) | Navigation apparatus | |
JP2007064821A (en) | Navigation apparatus | |
JP2007139443A (en) | Display device and navigation device | |
JP2002116041A (en) | Navigation device and voice guide document creating method | |
JP4665838B2 (en) | Vehicle navigation device, image data processing device, and computer program | |
JP4198746B2 (en) | Route search device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130925 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140205 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140604 |