JP2011117905A - Route selection support device and route selection support method - Google Patents

Route selection support device and route selection support method Download PDF

Info

Publication number
JP2011117905A
JP2011117905A JP2009277632A JP2009277632A JP2011117905A JP 2011117905 A JP2011117905 A JP 2011117905A JP 2009277632 A JP2009277632 A JP 2009277632A JP 2009277632 A JP2009277632 A JP 2009277632A JP 2011117905 A JP2011117905 A JP 2011117905A
Authority
JP
Japan
Prior art keywords
route
result
learning
passenger
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009277632A
Other languages
Japanese (ja)
Inventor
Yuichi Tamura
雄一 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2009277632A priority Critical patent/JP2011117905A/en
Publication of JP2011117905A publication Critical patent/JP2011117905A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To support the selection of a traveling route to keep an atmosphere in a cabin appropriate by using the tendency of a change in the goodness of the expression of an occupant in a vehicle. <P>SOLUTION: A detection means 740 receives the result of photographing by a photographing means 720, and detects the goodness of the expression of the occupant. The detection means 740 acquires a positioning result by a positioning means 710 and an identification result by an identification means 730, and the goodness of the expression of the occupant is related with the present position of a vehicle CR for the identified occupant, and then, the result is stored in a first storage means 750. A learning means 760 learns "the change in the goodness of expression" on the basis of information related to the goodness of expression. On the other hand, when supporting the selection of traveling route, a providing means 780 specifies the composition of the occupant according to the identification result by identification mean 730. The providing means 780 provides the selection support information on the traveling route on the basis of the learning result concerning the present position of the vehicle CR and the learning result of "the change in the goodness of expression". <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ルート選択支援装置、ルート選択支援方法、ルート選択支援プログラム、及び、当該ルート選択支援プログラムが記録された記録媒体に関する。   The present invention relates to a route selection support device, a route selection support method, a route selection support program, and a recording medium on which the route selection support program is recorded.

従来から、車両に搭載されるナビゲーション装置が広く普及している。そして、近年におけるナビゲーション装置に関する技術の発展は著しく、利用者の利便性を向上させるための様々な技術が提案されている。   Conventionally, navigation devices mounted on vehicles have been widely used. In recent years, the technology related to navigation devices has been remarkably developed, and various technologies for improving user convenience have been proposed.

かかる提案技術の一つとして、車両の運転者の身体及び顔を車室内カメラで撮影し、撮影結果に基づいて、運転支援に関する情報を運転者に提供する技術がある(特許文献1参照:以下、「従来例」と呼ぶ)。この従来例の技術では、車室内カメラによる撮影結果から、車両運転時の運転操作に影響を及ぼすような運転者の心理の状態を推定し、注意喚起前後の所定期間の運転操作状況と運転者の心理の状態とを注意喚起条件として蓄積する。そして、車両の運転時において、推定された運転者の心理の状態と取得した運転操作状況とが、蓄積された注意喚起条件と一致した場合に、運転者に対して注意喚起を行うようになっている。   As one of such proposed technologies, there is a technology in which a vehicle driver's body and face are photographed with a vehicle interior camera, and information relating to driving assistance is provided to the driver based on the photographing result (see Patent Document 1 below). , Called “conventional example”). In this conventional technique, the state of the driver's psychology that affects the driving operation during driving of the vehicle is estimated from the image taken by the vehicle interior camera, and the driving operation status and the driver for a predetermined period before and after alerting Are stored as alert conditions. When driving the vehicle, when the estimated driver's psychological state and the acquired driving operation situation coincide with the accumulated alert conditions, the driver is alerted. ing.

特開2008−176510号公報JP 2008-176510 A

上述した従来例の技術では、運転者を撮影して、車両運転時の運転操作に影響を及ぼすような運転者の心理の状態を推定し、当該推定結果を利用して、運転者に対して注意喚起を行っている。このように、この従来例の技術は、運転者に対して注意喚起を行っているのみであり、ナビゲーション装置としての基幹機能の一つである走行ルートの選択支援までは行っていない。   In the technology of the conventional example described above, the driver is photographed, the state of the driver's psychology that affects the driving operation at the time of driving the vehicle is estimated, and the estimation result is used for the driver. We are alerting you. Thus, the technology of this conventional example only alerts the driver, and does not provide support for selecting a travel route, which is one of the basic functions as a navigation device.

ところで、車両運転時における運転者の心理の状態は、車外環境等の違いにより、走行ルートによって大きく異なることがあり、この違いは当該運転者の個性を反映したものである。そして、運転者の心理の状態が良好であれば、楽しい気分でドライブが行え、ひいては安全運転にもつながる。また、車両には運転者以外の者も同乗する場合もあるが、同乗者の心理の状態も、走行ルートによって大きく異なることがある。そして、走行中の車室内は密室であることから、車室内の雰囲気は、同乗者の心理の状態に大きく依存する。すなわち、同乗者の心理の状態が良好であれば車室内の雰囲気も良好となるが、同乗者の心理の状態が不良であれば雰囲気も不良となってしまう。   By the way, the state of the driver's psychology when driving the vehicle may vary greatly depending on the travel route due to differences in the environment outside the vehicle, and this difference reflects the individuality of the driver. And if a driver | operator's psychological state is favorable, he can drive with a pleasant mood and leads also to safe driving | operation. In addition, a person other than the driver may ride on the vehicle, but the psychological state of the passenger may vary greatly depending on the travel route. And since the vehicle interior during driving | running | working is a closed room, the atmosphere in a vehicle interior largely depends on the passenger's psychological state. That is, if the passenger's psychological state is good, the atmosphere in the passenger compartment is also good, but if the passenger's psychological state is poor, the atmosphere is also poor.

このため、運転者や同乗者(以下、「搭乗者」とも記す)の個性を反映しつつ、心理面から搭乗者にとって好ましい走行ルートの選択を支援することのできる技術が待望されている。かかる要請に応えることが、本発明が解決すべき課題の一つとして挙げられる。   For this reason, there is a need for a technology that can support the selection of a preferable travel route for the passenger from a psychological aspect while reflecting the individuality of the driver and passengers (hereinafter also referred to as “passenger”). Meeting this requirement is one of the problems to be solved by the present invention.

本発明は、上記の事情を鑑みてなされたものであり、車両の搭乗者の表情の良好度の変化の傾向を利用して、車室内の雰囲気を良好に保つような走行ルートの選択を支援することができる新たなルート選択支援装置及びルート選択支援方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and supports the selection of a travel route that maintains a good atmosphere in the passenger compartment by utilizing the tendency of changes in the degree of goodness of facial expressions of passengers in the vehicle. It is an object of the present invention to provide a new route selection support device and route selection support method that can be used.

請求項1に記載の発明は、車両の走行ルートの選択を支援するルート選択支援装置であって、前記車両の現在位置を計測する測位手段と;前記車両の搭乗者の顔を撮影する撮影手段と;前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出手段と;前記検出手段による検出結果を、前記測位手段による測位結果と関連付けて記憶する第1記憶手段と;前記第1記憶手段に記憶された情報に基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習手段と;前記学習手段による学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供手段と;を備えることを特徴とするルート選択支援装置である。   The invention according to claim 1 is a route selection support device that supports selection of a travel route of a vehicle, and includes a positioning unit that measures a current position of the vehicle; and an imaging unit that captures a face of a passenger of the vehicle. Detecting means for detecting a goodness of facial expression for each occupant based on a result of photographing by the photographing means; and a first memory for storing the detection result by the detecting means in association with the positioning result by the positioning means. Learning means for learning a change in the degree of goodness of the facial expression for each passenger on the route traveled based on the information stored in the first storage means; and based on the learning result by the learning means in the future Providing means for providing support information for supporting selection of the travel route of the route.

請求項7に記載の発明は、前記車両の現在位置を計測する測位手段と;前記車両の搭乗者の顔を撮影する撮影手段と;を備え、前記車両の走行ルートの選択を支援するルート選択支援装置において使用されるルート選択支援方法であって、前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出工程と;前記測位手段による測位結果と、前記検出工程における検出結果とに基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習工程と;前記学習工程における学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供工程と;を備えることを特徴とするルート選択支援方法である。   According to a seventh aspect of the present invention, there is provided route selection, comprising: positioning means for measuring a current position of the vehicle; and photographing means for photographing a face of a passenger of the vehicle. A route selection support method used in a support device, wherein a detection step of detecting a goodness of facial expression for each occupant based on a photographing result by the photographing means; a positioning result by the positioning means; and the detection A learning step for learning a change in the degree of goodness of facial expression for each passenger on the route traveled based on the detection result in the step; and a support for selecting a future travel route based on the learning result in the learning step A route selection support method, comprising: a providing step of providing support information for the purpose.

請求項8に記載の発明は、請求項7に記載のルート選択支援方法を演算手段に実行させる、ことを特徴とするルート選択支援プログラムである。   According to an eighth aspect of the present invention, there is provided a route selection support program that causes a calculation means to execute the route selection support method according to the seventh aspect.

請求項9に記載の発明は、請求項8に記載のルート選択支援プログラムが、演算手段により読み取り可能に記録されている、ことを特徴とする記録媒体である。   The invention described in claim 9 is a recording medium in which the route selection support program according to claim 8 is recorded so as to be readable by a calculation means.

本発明の一実施形態に係るルート選択支援装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the route selection assistance apparatus which concerns on one Embodiment of this invention. 本発明の一実施例に係るナビゲーション装置の構成を概略的に説明するためのブロック図である。It is a block diagram for demonstrating schematically the structure of the navigation apparatus which concerns on one Example of this invention. 搭乗者ごとの表情の良好度の履歴の例を説明するためのルートの例を示す図である。It is a figure which shows the example of the route for demonstrating the example of the log | history of the favorable degree of the expression for every passenger. 図3に示されるルート1,2を走行したときの表情の良好度の履歴の例を説明するための図(その1)である。FIG. 6 is a diagram (part 1) for explaining an example of a history of goodness of facial expressions when traveling on routes 1 and 2 shown in FIG. 3; 図3に示されるルート1,2を走行したときの表情の良好度の履歴の例を説明するための図(その2)である。FIG. 4 is a diagram (No. 2) for explaining an example of a history of the degree of goodness of facial expressions when traveling on routes 1 and 2 shown in FIG. 3. 図2のナビゲーション装置による「表情の良好度の変化」の学習処理を説明するためのフローチャートである。3 is a flowchart for explaining a learning process of “change in goodness of facial expression” by the navigation device of FIG. 2. 図2のナビゲーション装置による走行ルートの選択支援処理を説明するためのフローチャートである。3 is a flowchart for explaining a travel route selection support process by the navigation device of FIG. 2. 図7におけるルート探索を伴う走行ルートの選択支援処理を説明するためのフローチャートである。It is a flowchart for demonstrating the selection assistance process of the driving | running route accompanying the route search in FIG. 図7におけるルート探索を伴わない走行ルートの選択支援処理を説明するためのフローチャートである。It is a flowchart for demonstrating the selection assistance process of the driving | running route which does not accompany a route search in FIG.

以下、本発明の一実施形態を、図1を参照して説明する。なお、以下の説明においては、同一又は同等の要素には同一の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of the present invention will be described with reference to FIG. In the following description, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

[構成]
図1には、一実施形態に係るルート選択支援装置700の概略的な構成が示されている。
[Constitution]
FIG. 1 shows a schematic configuration of a route selection support apparatus 700 according to an embodiment.

この図1に示されるように、ルート選択支援装置700は、車両CRに搭載されており、車両CRとともに移動するようになっている。このルート選択支援装置700は、測位手段710と、撮影手段720と、識別手段730と、検出手段740と、第1記憶手段750とを備えている。また、ルート選択支援装置700は、学習手段760と、第2記憶手段770と、提供手段780とを備えている。   As shown in FIG. 1, the route selection support device 700 is mounted on a vehicle CR and moves with the vehicle CR. The route selection support device 700 includes positioning means 710, imaging means 720, identification means 730, detection means 740, and first storage means 750. The route selection support apparatus 700 includes a learning unit 760, a second storage unit 770, and a providing unit 780.

上記の測位手段710は、車両CRの現在位置を計測する。測位手段710による測位結果は、検出手段740及び提供手段780へ送られる。   The positioning means 710 measures the current position of the vehicle CR. The positioning result by the positioning means 710 is sent to the detecting means 740 and the providing means 780.

上記の撮影手段720は、カメラデバイスを備えて構成され、検出手段740による制御のもとで、車両CRの搭乗者の顔を撮影する。撮影手段720による撮影結果は、識別手段730及び検出手段740へ送られる。   The photographing unit 720 includes a camera device, and photographs the face of the passenger of the vehicle CR under the control of the detecting unit 740. The result of photographing by the photographing means 720 is sent to the identifying means 730 and the detecting means 740.

ここで、撮影手段の個数は、本実施形態のように1個であってもよいし、車両CRの定員数と同じ個数であってもよい。そして、撮影手段の個数を1個とする場合には、当該1個の撮影手段の撮影視野は、所定の座席(例えば、運転席、助手席等)に着座する搭乗者の顔周辺であってもよいし、搭乗者全員の顔を撮影することのできる車室内全体であってもよい。また、撮影手段の個数を車両CRの定員数と同じ個数とする場合には、それぞれの撮影手段の撮影視野は、異なる座席に着座するそれぞれの搭乗者の顔周辺とすることができる。   Here, the number of photographing means may be one as in the present embodiment, or may be the same as the number of vehicles CR. When the number of photographing means is one, the photographing field of view of the one photographing means is around the face of a passenger sitting in a predetermined seat (for example, a driver seat, a passenger seat, etc.). Alternatively, it may be the entire passenger compartment where the faces of all the passengers can be photographed. When the number of photographing means is the same as the number of vehicles CR, the photographing field of view of each photographing means can be around the face of each passenger seated in a different seat.

上記の識別手段730は、撮影手段720による撮影結果を受ける。そして、識別手段730は、当該撮影結果に基づいて、搭乗者の個々人を識別する。この識別手段730による識別結果は、検出手段740及び提供手段780へ送られる。   The identification unit 730 receives a result of photographing by the photographing unit 720. And the identification means 730 identifies a passenger's individual based on the said imaging | photography result. The identification result by the identification unit 730 is sent to the detection unit 740 and the providing unit 780.

上記の検出手段740は、撮影手段720による撮影結果を受ける。そして、検出手段740は、当該撮影結果に基づいて、搭乗者ごとの表情の良好度を検出する。ここで、「表情の良好度」としては、例えば、「良好」、「やや良好」、「普通」、「やや不良」、「不良」等のように段階的に分類するようにすることができる。   The detection means 740 receives the result of photographing by the photographing means 720. And the detection means 740 detects the favorable degree of the expression for every passenger based on the said imaging | photography result. Here, for example, “goodness of facial expression” can be classified in stages such as “good”, “slightly good”, “normal”, “slightly bad”, “bad”, etc. .

また、検出手段740は、測位手段710による測位結果である車両CRの現在位置を受けるとともに、識別手段730による搭乗者の個々人の識別結果を受ける。そして、検出手段740は、識別された搭乗者ごとに、検出した搭乗者の表情の良好度を、車両CRの現在位置と関連付ける。   The detection means 740 receives the current position of the vehicle CR as a positioning result by the positioning means 710 and also receives the identification result of the individual passenger by the identification means 730. Then, the detecting means 740 associates the detected degree of goodness of the passenger's facial expression with the current position of the vehicle CR for each identified passenger.

上記の第1記憶手段750は、不揮発性の記憶領域を有している。この第1記憶手段750には、検出手段740及び学習手段760がアクセス可能となっている。第1記憶手段750の当該記憶領域には、識別された搭乗者ごとに、検出した搭乗者の表情の良好度が、車両CRの走行位置と関連付けて記憶されている。   The first storage unit 750 has a nonvolatile storage area. The first storage unit 750 can be accessed by the detection unit 740 and the learning unit 760. In the storage area of the first storage unit 750, the detected degree of goodness of the detected passenger's facial expression is stored in association with the traveling position of the vehicle CR for each identified passenger.

上記の学習手段760は、車両CRの走行位置と関連付けられた搭乗者の表情の良好度を、第1記憶手段750から読み取る。そして、学習手段760は、第1記憶手段750に記憶された情報に基づいて、走行したルートにおける識別された搭乗者ごとの「表情の良好度の変化」を学習する。   The learning unit 760 reads from the first storage unit 750 the degree of goodness of the passenger's facial expression associated with the travel position of the vehicle CR. Then, the learning unit 760 learns “change in the degree of goodness of facial expression” for each identified passenger on the traveled route based on the information stored in the first storage unit 750.

こうした「走行したルートにおける表情の良好度の変化の学習」の結果としては、例えば、搭乗者P1は、車両CRが同じ出発地Aから同じ目的地Bに至る異なるルート1,2を走行した際に、ルート1の走行中には全体として表情が「良好」状態になるが、ルート2の走行中には全体として表情が「不良」状態になるという特徴が挙げられる。また、搭乗者P2は、逆に、ルート1の走行中には全体として表情が「不良」状態になるが、ルート2の走行中には全体として表情が「良好」状態になるという特徴がある等が挙げられる。   As a result of such “learning of the change in the degree of goodness of facial expression on the route traveled”, for example, when the passenger P1 travels on different routes 1 and 2 from the same starting point A to the same destination B, In addition, while the route 1 travels as a whole, the expression is in a “good” state, while the route 2 travels as a whole, the facial expression becomes a “bad” state. On the contrary, the passenger P2 has a characteristic that the expression is “bad” as a whole while traveling on the route 1, but the expression is “good” as a whole while traveling on the route 2. Etc.

また、「走行したルートにおける表情の良好度の変化の学習」の結果として、例えば、搭乗者P3は、ルート1の走行中には全体として表情が「良好」状態になるが、ルート2の走行中には、当初の表情が「良好」状態のときには、後に表情が「不良」状態に変化し、当初の表情が「やや不良」状態のときには、後に表情が「普通」状態に変化するという特徴がある等が挙げられる。   Further, as a result of “learning the change in the degree of goodness of the facial expression in the traveled route”, for example, the passenger P3 is generally in the “good” state while traveling on the route 1, but the traveling on the route 2 In some cases, when the initial facial expression is “good”, the facial expression changes to “bad” later, and when the initial facial expression is “slightly poor”, the facial expression changes to “normal” later. There are examples.

また、学習手段760は、走行中の車外環境を取得し、走行したルートにおける車外環境の変化を考慮して、車外環境の変化に対する識別された搭乗者ごとの「表情の良好度の変化」を更に学習するようにすることができる。   In addition, the learning unit 760 obtains the environment outside the vehicle during traveling, and considers the change in the environment outside the vehicle on the route traveled, and calculates the “change in the goodness of facial expression” for each identified passenger with respect to the change in the environment outside the vehicle. Further learning can be performed.

ここで、「車外環境」としては、例えば、「オフィス街」、「歓楽街」、「特徴的建造物(ランドマーク)」、「工場地帯」、「住宅街」、「山沿い」、「海岸沿い」等が挙げられる。学習手段760がこうした「車外環境」を取得するに際して、学習手段760が読み取り可能な地図上の各位置における車外環境の情報が記憶された第2記憶手段770から、「車外環境」を取得するようにすることができる。   Here, as the “environment outside the vehicle”, for example, “office district”, “amusement district”, “characteristic building (landmark)”, “factory zone”, “residential area”, “along the mountain”, “along the coast” Or the like. When the learning unit 760 acquires such “external environment”, the “external environment” is acquired from the second storage unit 770 in which information on the external environment at each position on the map that can be read by the learning unit 760 is stored. Can be.

こうした「車外環境の変化に対する表情の良好度の変化の学習」の結果としては、例えば、搭乗者P1は、車両CRが「山沿い」を走行しているときには表情が「良好」状態になる傾向があるが、「オフィス街」を走行しているときには表情が「不良」状態になる傾向があるという特徴が挙げられる。また、搭乗者P2は、逆に、車両CRが「オフィス街」を走行しているときに表情が「良好」状態になる傾向があるが、「山沿い」を走行しているときには表情が「不良」状態になる傾向があるという特徴がある等が挙げられる。   As a result of such “learning of the change in the degree of goodness of the expression with respect to the change in the environment outside the vehicle”, for example, the passenger P1 has a tendency that the expression becomes “good” when the vehicle CR is traveling along the “mountain” However, there is a feature that the facial expression tends to be “bad” when traveling in the “office district”. On the contrary, the passenger P2 tends to have a “good” facial expression when the vehicle CR is traveling in the “office town”, but the facial expression is “when traveling along the mountain”. For example, there is a tendency to be in a “bad” state.

上記の第2記憶手段770は、上述した第1記憶手段750と同様に、不揮発性の記憶領域を有している。この第2記憶手段770には、学習手段760がアクセス可能となっている。第2記憶手段770の当該記憶領域には、上述した地図上の各位置における車外環境の情報が記憶されている。   The second storage unit 770 has a nonvolatile storage area, similar to the first storage unit 750 described above. The learning unit 760 can access the second storage unit 770. The storage area of the second storage unit 770 stores information on the environment outside the vehicle at each position on the map described above.

上記の提供手段780は、識別手段730による搭乗者の個々人の識別結果を受けるとともに、測位手段710による測位結果である車両CRの現在位置を受ける。そして、提供手段780は、搭乗者の識別結果と、学習手段760による学習結果とに基づいて、走行中の搭乗者構成に対応して、今後の走行ルートの選択を支援するための支援情報を提供する。この「支援情報」の提供方法は、不図示の音声出力手段による音声出力であってもよいし、不図示の画像表示手段による画像表示であってもよい。   The providing means 780 receives the identification result of each individual passenger by the identification means 730 and also receives the current position of the vehicle CR that is the positioning result by the positioning means 710. Then, the providing unit 780 provides support information for supporting the selection of a future travel route corresponding to the traveling passenger configuration based on the identification result of the passenger and the learning result by the learning unit 760. provide. The method of providing the “support information” may be an audio output by an audio output unit (not shown) or an image display by an image display unit (not shown).

本実施形態では、提供手段780は、探索手段781を備えている。この提供手段780における探索手段781は、学習手段760による学習結果を考慮して、目的地までの走行ルートを探索する。例えば、搭乗者がP1である場合に、上述した出発地Aから目的地Bに至る走行ルートを探索する際には、「走行したルートにおける表情の良好度の変化の学習」の結果を考慮して、ルート1を走行ルートとして支援提供する。また、探索手段781は、搭乗者がP2である場合に、出発地Aから目的地Bに至る走行ルートを探索する際には、同様に、「走行したルートにおける表情の良好度の変化の学習」の結果を考慮して、ルート2を走行ルートとして支援提供する。   In the present embodiment, the providing unit 780 includes a search unit 781. The search unit 781 in the providing unit 780 searches for a travel route to the destination in consideration of the learning result by the learning unit 760. For example, when the passenger is P1, when searching for the travel route from the departure point A to the destination B described above, the result of “learning the change in the degree of goodness of the facial expression in the traveled route” is considered. Thus, route 1 is provided as a travel route. Similarly, when searching for a travel route from the departure point A to the destination B when the passenger is P2, the search means 781 “learns the change in the degree of goodness of the facial expression in the traveled route”. In consideration of the result of “,” route 2 is provided as a travel route.

また、探索手段781は、現在位置から目的地Zに至る走行ルートを探索する際に、抽出した走行ルートが、これまでに車両CRが走行していないルートであるときには、「車外環境の変化に対する表情の良好度の変化の学習」の結果を考慮する。そして、探索手段781は、搭乗者がP1である場合には、探索したルートから「山沿い」を長く走行するルートを走行ルートとして支援提供する。また、探索手段781は、搭乗者がP2である場合には、探索したルートから「オフィス街」を長く走行するルートを走行ルートとして支援提供する。   Further, when searching for a travel route from the current position to the destination Z, the search means 781 determines that the extracted travel route is a route on which the vehicle CR has not traveled so far. Consider the results of “Learning changes in facial expression”. Then, when the occupant is P1, the search unit 781 provides support as a travel route that travels along the “mountainside” for a long time from the searched route. Further, when the occupant is P2, the search means 781 provides a support route that travels the “office town” for a long time from the searched route.

こうして支援提供された走行ルートは、画像表示手段により画像表示されるとともに、音声出力手段により音声出力される。   The travel route thus provided and supported is displayed as an image by the image display means and also as a sound output by the sound output means.

また、上述した提供手段780は、走行ルートの探索を行わない場合であっても、測位手段710による測位結果に基づいて、今後の走行ルート候補を抽出する。そして、提供手段780は、抽出された走行ルート候補ごとへの学習手段760による学習結果の適用結果に基づいて、支援情報を提供する。   Further, the providing unit 780 described above extracts future travel route candidates based on the positioning result by the positioning unit 710 even when the travel route is not searched. The providing unit 780 provides support information based on the application result of the learning result by the learning unit 760 for each extracted travel route candidate.

例えば、車両CRが、搭乗者P3を乗せてルート2を走行しているときには、提供手段780は、当初の表情が「良好」状態のときには、そのままルート2を走行すると、後に表情が「不良」状態に変化する傾向があるため、今後の走行ルート候補としてルート1を抽出する。そして、提供手段780は、ルート1を走行ルートに変更するように支援提供する。   For example, when the vehicle CR is traveling on the route 2 with the passenger P3 on it, the providing unit 780 travels on the route 2 as it is when the initial facial expression is “good”, and the facial expression is “bad” later. Since there is a tendency to change to the state, route 1 is extracted as a future travel route candidate. The providing unit 780 provides support so as to change the route 1 to the travel route.

また、搭乗者がP1である場合は、提供手段780は、「車外環境の変化に対する表情の良好度の変化の学習」の結果を考慮して、抽出された走行ルート候補の中から、「山沿い」を長く走行するルートを走行ルートとして支援提供するようにしてもよい。また、搭乗者がP2である場合には、抽出された走行ルート候補の中から、「オフィス街」を長く走行するルートを走行ルートとして支援提供するようにしてもよい。   When the passenger is P1, the providing means 780 considers the result of “learning the change in the goodness of the facial expression with respect to the change in the outside environment” from the extracted driving route candidates from the extracted driving route candidates. A route that travels along the “long road” may be provided as a travel route. Further, when the passenger is P2, a route that travels long in the “office town” from among the extracted travel route candidates may be supported and provided as a travel route.

[動作]
上記のように構成されたルート選択支援装置700において実行されるルート選択支援方法について、説明する。
[Operation]
A route selection support method executed in the route selection support device 700 configured as described above will be described.

<表情の良好度の変化の学習処理>
まず、ルート選択支援装置700による搭乗者ごとの「表情の良好度の変化」の学習処理について説明する。
<Learning process for changes in facial expression>
First, the learning process of “change in the degree of goodness of facial expression” for each passenger by the route selection support device 700 will be described.

この学習処理に際して、撮影手段720が、検出手段740による制御のもとで、車両CRの搭乗者の顔の撮影を行う。撮影手段720による撮影結果は、識別手段730及び検出手段740へ送られる。また、撮影手段720による撮影処理と並行して、測位手段710が、車両CRの現在位置の計測処理を行う。測位手段710による測位結果は、検出手段740へ送られる。   In this learning process, the photographing unit 720 photographs the face of the passenger of the vehicle CR under the control of the detecting unit 740. The result of photographing by the photographing means 720 is sent to the identifying means 730 and the detecting means 740. In parallel with the photographing process by the photographing unit 720, the positioning unit 710 performs a measurement process of the current position of the vehicle CR. The positioning result by the positioning means 710 is sent to the detecting means 740.

撮影手段720による撮影結果を受けた識別手段730では、当該撮影結果に基づいて、搭乗者の個々人を識別する。識別手段730による識別結果は、検出手段740へ送られる。   The identification unit 730 that has received the photographing result by the photographing unit 720 identifies each individual passenger based on the photographing result. The identification result by the identification unit 730 is sent to the detection unit 740.

検出手段740では、まず、撮影手段720による撮影結果に基づいて、搭乗者の表情の良好度を検出する。そして、検出手段740は、測位手段710による測位結果及び識別手段730による識別結果を取得して、識別された搭乗者ごとに、検出した搭乗者の表情の良好度を、車両CRの現在位置と関連付ける。こうして車両CRの走行位置と関連付けられた搭乗者ごとの表情の良好度に関する情報は、第1記憶手段750に記憶される。   First, the detection means 740 detects the degree of goodness of the passenger's facial expression based on the result of photographing by the photographing means 720. And the detection means 740 acquires the positioning result by the positioning means 710 and the identification result by the identification means 730, and for each identified passenger, the detected goodness of the facial expression of the passenger is determined as the current position of the vehicle CR. Associate. Information relating to the degree of facial expression for each passenger associated with the travel position of the vehicle CR is stored in the first storage unit 750.

こうして第1記憶手段750に搭乗者の表情の良好度に関する情報が記憶されると、学習手段760が、当該情報に基づいて、走行したルートにおける識別された搭乗者ごとの表情の良好度の変化を学習する。また、学習手段760は、第2記憶手段770から走行中の車外環境を取得し、車外環境の変化に対する識別された搭乗者ごとの表情の良好度の変化を更に学習する。こうして学習された搭乗者ごとの「表情の良好度の変化」は、走行ルートを選択するための支援情報の提供処理の際に利用される。   When the information related to the goodness of the passenger's facial expression is thus stored in the first storage means 750, the learning means 760 changes the goodness of the facial expression for each identified passenger on the route traveled based on the information. To learn. In addition, the learning unit 760 acquires the running environment outside the vehicle from the second storage unit 770, and further learns the change in the degree of goodness of the facial expression for each identified passenger with respect to the change in the outside environment. The “change in the goodness of facial expression” for each passenger learned in this way is used in the process of providing support information for selecting a travel route.

<支援情報の提供処理>
次に、ルート選択支援装置700による走行ルートを選択するための支援情報の提供処理について説明する。なお、この支援情報の提供処理は、上述した学習処理と並行して行われるようになっている。
<Providing support information>
Next, support information providing processing for selecting a travel route by the route selection support device 700 will be described. This support information provision process is performed in parallel with the learning process described above.

この支援情報の提供処理に際して、提供手段780が、まず、識別手段730による識別結果を受けて、車両CRの搭乗者構成を特定する。そして、提供手段780は、測位手段710による測位結果である車両CRの現在位置を受ける。引き続き、提供手段780は、車両CRの現在位置と、学習手段760による「表情の良好度の変化」の学習結果とに基づいて、学習手段760による学習結果を考慮して行われた探索手段781による目的地までの走行ルートを探索結果や、走行ルートの探索を行わない場合における上述した内容の今後の走行ルートの選択を支援するための支援情報を提供する。この結果、当該支援情報が、画像、音声等の態様で、車両CRの搭乗者に提供される。   In the support information providing process, the providing unit 780 first receives the identification result from the identifying unit 730 and specifies the passenger configuration of the vehicle CR. Then, the providing unit 780 receives the current position of the vehicle CR that is the positioning result by the positioning unit 710. Subsequently, the providing unit 780 searches based on the learning result of the learning unit 760 based on the current position of the vehicle CR and the learning result of “change in goodness of facial expression” by the learning unit 760. As a result, a search result for the travel route to the destination and support information for assisting selection of a future travel route having the above-described contents when the travel route is not searched are provided. As a result, the support information is provided to the passenger of the vehicle CR in the form of an image, sound, or the like.

以上説明したように、本実施形態では、車両CRの搭乗者の顔が撮影手段720により撮影され、撮影結果が、識別手段730及び検出手段740へ送られる。識別手段730では、当該撮影結果に基づいて、搭乗者の個々人を識別し、識別結果を検出手段740へ送る。検出手段740では、まず、撮影手段720による撮影結果に基づいて、搭乗者の表情の良好度を検出する。そして、検出手段740は、測位手段710による測位結果及び識別手段730による識別結果を取得して、識別された搭乗者ごとに、検出した搭乗者の表情の良好度を、車両CRの現在位置と関連付けて、第1記憶手段750に記憶させる。こうして第1記憶手段750に、搭乗者の表情の良好度に関する情報が記憶されると、学習手段760が、当該情報に基づいて、走行したルートにおける識別された搭乗者ごとの「表情の良好度の変化」を学習する。   As described above, in the present embodiment, the face of the passenger in the vehicle CR is photographed by the photographing unit 720 and the photographing result is sent to the identifying unit 730 and the detecting unit 740. The identification unit 730 identifies each individual passenger based on the photographing result, and sends the identification result to the detection unit 740. First, the detection means 740 detects the degree of goodness of the passenger's facial expression based on the result of photographing by the photographing means 720. And the detection means 740 acquires the positioning result by the positioning means 710 and the identification result by the identification means 730, and for each identified passenger, the detected goodness of the facial expression of the passenger is determined as the current position of the vehicle CR. The first storage unit 750 stores the information in association with each other. When the information related to the goodness of the facial expression of the passenger is stored in the first storage means 750 in this way, the learning means 760 determines, based on the information, the “goodness of facial expression” for each identified passenger on the route that has traveled. To learn "changes".

この学習処理と並行して、提供手段780が、まず、識別手段730による識別結果を受けて、車両CRの搭乗者構成を特定する。そして、提供手段780は、測位手段710からの車両CRの現在位置を受けて、車両CRの現在位置と、学習手段760による「表情の良好度の変化」の学習結果とに基づいて、今後の走行ルートの選択を支援するための支援情報を提供する。   In parallel with this learning process, the providing unit 780 first receives the identification result by the identifying unit 730 and specifies the passenger configuration of the vehicle CR. Then, the providing means 780 receives the current position of the vehicle CR from the positioning means 710, and based on the current position of the vehicle CR and the learning result of “change in goodness of facial expression” by the learning means 760, Provide support information to support the selection of travel routes.

したがって、本発明の実施形態によれば、車両の搭乗者の表情の良好度の変化の傾向を利用して、車室内の雰囲気を良好に保つような走行ルートの選択を支援することができる。   Therefore, according to the embodiment of the present invention, it is possible to support selection of a travel route that maintains a good atmosphere in the passenger compartment by using the tendency of the change in the degree of goodness of the facial expression of the passenger of the vehicle.

なお、上記の実施形態のルート選択支援装置700を、演算手段としてのコンピュータを備えて構成し、測位手段710、撮影手段720、第1記憶手段750及び第2記憶手段770を除く上述した各手段の機能を、プログラムを実行することにより実現するようにすることができる。これらのプログラムは、CD−ROM,DVD等の可搬型記録媒体に記録された形態で取得されるようにしてもよいし、インターネットなどのネットワークを介した配信の形態で取得されるようにすることができる。   Note that the route selection support apparatus 700 of the above-described embodiment includes a computer as a calculation unit, and each of the above-described units excluding the positioning unit 710, the imaging unit 720, the first storage unit 750, and the second storage unit 770. This function can be realized by executing a program. These programs may be acquired in a form recorded on a portable recording medium such as a CD-ROM or DVD, or may be acquired in a form distributed via a network such as the Internet. Can do.

以下、本発明のナビゲーション装置の一実施例を、図2〜図9を参照して説明する。なお、以下の説明及び図面においては、同一又は同等の要素については同一の符号を付し、重複する説明を省略する。   Hereinafter, an embodiment of the navigation device of the present invention will be described with reference to FIGS. In the following description and drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.

図2には、一実施例に係るルート選択支援装置としての機能を有する車両搭載用のナビゲーション装置100の概略的な構成が示されている。なお、ナビゲーション装置100は、上述した一実施形態のルート選択支援装置700(図1参照)の一態様となっている。このナビゲーション装置100は、車両CRに搭載されており、車両CRに装着された車速センサ290と接続されている。   FIG. 2 shows a schematic configuration of a vehicle-mounted navigation device 100 having a function as a route selection support device according to an embodiment. The navigation device 100 is an aspect of the route selection support device 700 (see FIG. 1) of the above-described embodiment. This navigation device 100 is mounted on a vehicle CR and is connected to a vehicle speed sensor 290 mounted on the vehicle CR.

[構成]
この図2に示されるように、ナビゲーション装置100は、制御ユニット110と、第1記憶手段750及び第2記憶手段770としての記憶ユニット120とを備えている。また、ナビゲーション装置100は、音出力ユニット130と、表示ユニット140と、操作入力ユニット150とを備えている。さらに、ナビゲーション装置100は、走行情報取得ユニット160と、測位手段710としてのGPS(Global Positioning System)受信ユニット170と、撮影手段720としての2個のカメラユニット1801,1802とを備えている。
[Constitution]
As shown in FIG. 2, the navigation device 100 includes a control unit 110 and a storage unit 120 as a first storage unit 750 and a second storage unit 770. In addition, the navigation device 100 includes a sound output unit 130, a display unit 140, and an operation input unit 150. Furthermore, the navigation apparatus 100 includes a travel information acquisition unit 160, a GPS (Global Positioning System) receiving unit 170 as a positioning unit 710, and two camera units 180 1 and 180 2 as an imaging unit 720. .

上記の制御ユニット110は、ナビゲーション装置100の全体を統括制御する。この制御ユニット110については、後述する。   The control unit 110 performs overall control of the entire navigation device 100. The control unit 110 will be described later.

上記の記憶ユニット120は、不揮発性の記憶装置であるハードディスク装置等から構成される。記憶ユニット120は、ナビゲーション用情報(NVI)、表情履歴情報(FHI)、表情変化特徴情報(FAI)等の様々なデータを記憶する。この記憶ユニット120には、制御ユニット110がアクセスできるようになっている。   The storage unit 120 includes a hard disk device that is a nonvolatile storage device. The storage unit 120 stores various data such as navigation information (NVI), facial expression history information (FHI), facial expression change feature information (FAI), and the like. The storage unit 120 can be accessed by the control unit 110.

上記のナビゲーション用情報(NVI)には、地図データ、POI(Point Of Interests)データ、背景データ等のナビゲーションのために利用される様々なデータが記憶されている。これらのデータは、制御ユニット110によって読み取られるようになっている。なお、POIデータには、各地点の環境情報として、「オフィス街」、「歓楽街」、「特徴的建造物(ランドマーク)」、「工場地帯」、「住宅街」、「山沿い」、「海岸沿い」等の情報も含まれている。   The navigation information (NVI) stores various data used for navigation such as map data, POI (Point Of Interests) data, and background data. These data are read by the control unit 110. In addition, POI data includes “office district”, “amusement district”, “characteristic building (landmark)”, “factory zone”, “residential district”, “mountainside”, “ Information such as “along the coast” is also included.

上記の表情履歴情報(FHI)には、搭乗者ごとの「表情の良好度」に関する情報が、車両CRの走行位置と関連付けて記憶されている。この表情履歴情報(FHI)の具体例については、後述する。   In the facial expression history information (FHI), information related to the “goodness of facial expression” for each passenger is stored in association with the travel position of the vehicle CR. A specific example of the facial expression history information (FHI) will be described later.

上記の表情変化特徴情報(FAI)には、上述した表情履歴情報(FHI)から学習した搭乗者ごとの表情変化の特徴が記憶されている。この表情変化特徴情報(FAI)の具体例についても、後述する。   The facial expression change feature information (FAI) stores the facial expression change feature for each passenger learned from the facial expression history information (FHI). A specific example of this facial expression change feature information (FAI) will also be described later.

上記の音出力ユニット130は、スピーカを備えて構成され、制御ユニット110から受信した音声データに対応する音声を出力する。この音出力ユニット130は、制御ユニット110による制御のもとで、ナビゲーション処理に際して、今後の走行ルートの選択支援情報、車両CRの進行方向、走行状況、交通状況等の案内音声を出力する。   The sound output unit 130 includes a speaker, and outputs sound corresponding to the sound data received from the control unit 110. Under the control of the control unit 110, the sound output unit 130 outputs guidance voice information such as future driving route selection support information, the traveling direction of the vehicle CR, the driving situation, and the traffic situation during the navigation process.

上記の表示ユニット140は、液晶パネル等の表示デバイスを備えて構成され、制御ユニット110から受信した表示データに対応する画像を表示する。この表示ユニット140は、制御ユニット110による制御のもとで、ナビゲーション処理に際して、今後の走行ルートの選択支援情報、地図情報、ルート情報、ガイダンス情報等を表示する。   The display unit 140 includes a display device such as a liquid crystal panel, and displays an image corresponding to display data received from the control unit 110. The display unit 140 displays future driving route selection support information, map information, route information, guidance information, and the like during navigation processing under the control of the control unit 110.

上記の操作入力ユニット150は、ナビゲーション装置100の本体部に設けられたキー部、及び/又はキー部を備えるリモート入力装置等により構成される。ここで、本体部に設けられたキー部としては、表示ユニット140の表示デバイスに設けられたタッチパネルを用いることができる。なお、キー部を有する構成に代えて、又は併用して音声認識技術を利用して音声にて入力する構成を採用することもできる。   The operation input unit 150 includes a key unit provided in the main body of the navigation device 100 and / or a remote input device including the key unit. Here, as a key part provided in the main body part, a touch panel provided in a display device of the display unit 140 can be used. In addition, it can replace with the structure which has a key part, or can also employ | adopt the structure input with a sound using a voice recognition technique in combination.

この操作入力ユニット150を利用者が操作することにより、ナビゲーション装置100の動作内容の設定や動作指令が行われる。例えば、表情履歴を考慮した支援情報の提供処理の開始/停止指令、ナビゲーション処理におけるルート探索に関する目的地等の設定を、利用者が操作入力ユニット150を利用して行う。こうした入力内容は、操作入力データとして、操作入力ユニット150から制御ユニット110へ向けて送られる。   When the user operates the operation input unit 150, setting of operation contents and operation commands of the navigation device 100 are performed. For example, the user uses the operation input unit 150 to set support information providing processing start / stop commands in consideration of facial expression history, destinations related to route search in navigation processing, and the like. Such input contents are sent from the operation input unit 150 to the control unit 110 as operation input data.

上記の走行情報取得ユニット160は、加速度センサ、角速度センサ等を備えて構成されており、車両CRに作用している加速度、角速度を検出する。また、走行情報取得ユニット160は、ナビゲーション装置100と、車両CRに搭載されている車速センサ290との間におけるデータ授受に関して利用され、車速センサ290による検出結果である速度データを取得する。こうして得られた各データは、走行データとして制御ユニット110へ送られる。   The travel information acquisition unit 160 includes an acceleration sensor, an angular velocity sensor, and the like, and detects acceleration and angular velocity acting on the vehicle CR. The travel information acquisition unit 160 is used for data exchange between the navigation device 100 and the vehicle speed sensor 290 mounted on the vehicle CR, and acquires speed data that is a detection result of the vehicle speed sensor 290. Each data thus obtained is sent to the control unit 110 as travel data.

上記のGPS受信ユニット170は、複数のGPS衛星からの電波の受信結果に基づいて、車両CRの現在位置を算出する。また、GPS受信ユニット170は、GPS衛星から送出された日時情報に基づいて、現在時刻を計時する。これらの現在位置および現在時刻に関する情報は、GPSデータとして制御ユニット110へ送られる。   The GPS receiving unit 170 described above calculates the current position of the vehicle CR based on reception results of radio waves from a plurality of GPS satellites. Further, the GPS receiving unit 170 measures the current time based on the date / time information transmitted from the GPS satellite. Information regarding these current position and current time is sent to the control unit 110 as GPS data.

上記のカメラユニット1801,1802のそれぞれは、カメラデバイスを備えて構成されている。本実施例では、カメラユニット1801,1802は、車室内の前方上部位置に配置されている。そして、カメラユニット1801は、「運転者」の顔を撮影し、カメラユニット1802は、助手席に着座する「同乗者」の顔を撮影するようになっている。こうしたカメラユニット1801,1802による撮影結果は、画像情報として、制御ユニット110へ送られる。 Each of the camera units 180 1 and 180 2 includes a camera device. In this embodiment, the camera units 180 1 and 180 2 are arranged at the upper front position in the vehicle interior. The camera unit 180 1 captures the face of the “driver”, and the camera unit 180 2 captures the face of the “passenger” sitting on the passenger seat. The imaging results obtained by the camera units 180 1 and 180 2 are sent to the control unit 110 as image information.

次に、上記の制御ユニット110について説明する。この制御ユニット110は、中央処理装置(CPU)及びその周辺回路を備えて構成されている。制御ユニット110が様々なプログラムを実行することにより、上記の各種機能が実現されるようになっている。こうした機能の中には、上述した一実施形態における識別手段730、検出手段740、学習手段760及び提供手段780としての機能も含まれている。   Next, the control unit 110 will be described. The control unit 110 includes a central processing unit (CPU) and its peripheral circuits. The various functions described above are realized by the control unit 110 executing various programs. These functions include functions as the identification unit 730, the detection unit 740, the learning unit 760, and the providing unit 780 in the above-described embodiment.

この制御ユニット110は、走行情報取得ユニット160からの走行データ、及び、GPS受信ユニット170からのGPSデータに基づいて、記憶ユニット120中のナビゲーション用情報(NVI)、表情履歴情報(FHI)及び表情変化特徴情報(FAI)を適宜参照し、搭乗者へのナビゲーション情報の提供処理を行う。こうしたナビゲーション情報の提供処理には、(a)搭乗者が指定する地域の地図を表示ユニット140の表示デバイスに表示するための地図表示、(b)車両CRが地図上のどこに位置するのか、また、どの方角に向かっているのかを算出し、表示ユニット140の表示デバイスに表示して搭乗者に提示するマップマッチング、(c)表示ユニット140の表示デバイスや音出力ユニット130のスピーカを利用した「今後の走行ルートの選択支援を行うための支援情報の提供」等の処理が含まれる。   The control unit 110 is configured to use navigation data (NVI), facial expression history information (FHI), and facial expression in the storage unit 120 based on the traveling data from the traveling information acquisition unit 160 and the GPS data from the GPS receiving unit 170. By referring to the change feature information (FAI) as appropriate, the navigation information is provided to the passenger. The navigation information providing process includes (a) a map display for displaying a map of a region designated by the passenger on the display device of the display unit 140, (b) where the vehicle CR is located on the map, , Which direction is calculated, and is displayed on the display device of the display unit 140 and displayed to the occupant, and (c) the display device of the display unit 140 and the speaker of the sound output unit 130 are used. Processing such as “providing support information for supporting selection of future travel routes” is included.

上述した提供処理(c)における走行ルートの選択支援を行うために、制御ユニット110は、カメラユニット1801,1802を制御して、カメラユニット1801による撮影結果である「運転者」の顔の画像情報、及び、カメラユニット1802による撮影結果である「同乗者」の顔の画像情報を取得する。そして、制御ユニット110は、「運転者」の顔の画像情報及び「同乗者」の顔の画像情報から、搭乗者の個々人を識別する。また、制御ユニット110は、運転者及び同乗者(以下、「搭乗者」とも記す)の顔の画像情報から、表情の良好度を判定する。本実施例では、「表情の良好度」としては、「良好」、「やや良好」、「普通」、「やや不良」、「不良」等のように段階的に分類するようになっている。 In order to perform the selection support of the travel route in the providing process (c) described above, the control unit 110 controls the camera units 180 1 and 180 2, and the face of the “driver” that is a result of photographing by the camera unit 180 1 image information, and acquires the image information of the face of a photographing result obtained by the camera unit 180 2 "passenger". Then, the control unit 110 identifies each individual passenger from the image information of the face of the “driver” and the image information of the face of the “passenger”. Further, the control unit 110 determines the degree of goodness of the facial expression from the image information of the faces of the driver and passengers (hereinafter also referred to as “passengers”). In the present embodiment, “goodness of facial expression” is classified in stages such as “good”, “slightly good”, “normal”, “slightly bad”, “bad”, and the like.

本実施例では、表情の良好度の判定処理に際して、制御ユニット110は、まず、搭乗者の顔の画像情報から、左右の眼の位置及び口の位置を検出する。そして、制御ユニット110は、左右の眼の検出位置及び口の検出位置から、両眼間距離及び傾きを算出して、顔の大きさと顔の向きを導出する。また、制御ユニット110は、特徴点として、各眼の上下左右の点、各眉の左右の点、及び、口の上下左右の点を抽出する。制御ユニット110は、こうして抽出した特徴点の変動を総合的に解析して、表情の良好度を判定する。例えば、これらの特徴点から、頬が持ち上がり、唇の端が引っ張りあげられたと解析した場合には、制御ユニット110は、搭乗者は笑顔である、すなわち、「表情の良好度」は「良好」であると判定する。   In the present embodiment, when determining the degree of goodness of facial expression, the control unit 110 first detects the position of the left and right eyes and the position of the mouth from the image information of the passenger's face. Then, the control unit 110 calculates the interocular distance and the inclination from the detection positions of the left and right eyes and the detection position of the mouth, and derives the face size and the face orientation. In addition, the control unit 110 extracts, as feature points, points on the top, bottom, left, and right of each eye, points on the left and right of each eyebrow, and points on the top, bottom, left, and right of the mouth. The control unit 110 comprehensively analyzes the variation of the feature points extracted in this way, and determines the goodness of the facial expression. For example, if it is analyzed from these feature points that the cheek is lifted and the edge of the lips is pulled up, the control unit 110 is that the passenger is smiling, that is, the “goodness of facial expression” is “good”. It is determined that

引き続き、制御ユニット110は、車両CRの現在位置を取得して、識別された搭乗者ごとに、表情の良好度を車両CRの現在位置と関連付ける。こうして車両CRの走行位置と関連付けられた搭乗者ごとの表情の良好度に関する情報は、表情履歴情報(FHI)として記憶ユニット120中に記憶される。   Subsequently, the control unit 110 obtains the current position of the vehicle CR and associates the goodness of the facial expression with the current position of the vehicle CR for each identified passenger. Information relating to the degree of facial expression for each passenger thus associated with the travel position of the vehicle CR is stored in the storage unit 120 as facial expression history information (FHI).

ここで、車両CRが、図3に示される各地点を走行したときの、搭乗者ごとの「表情の良好度」の履歴の例を示す。なお、地点A→C→D→E→Bを通過するルートを「ルート1」とし、「山沿い」を長く走行するルートであるものとする。また、地点A→F→G→H→Bを通過するルートを「ルート2」とし、「オフィス街」を長く走行するルートとする。   Here, an example of the history of “goodness of facial expression” for each passenger when the vehicle CR travels through each point shown in FIG. 3 is shown. It is assumed that the route passing through points A → C → D → E → B is “route 1” and the route travels along the “mountainside” for a long time. Further, a route passing through points A → F → G → H → B is set as “Route 2”, and “Office Town” is set as a route that travels long.

図4(A)には、ルート1を走行したときの、運転者DR及び同乗者P1,P2の表情の良好度の履歴が示され、図4(B)には、ルート2を走行したときの運転者DR及び同乗者P1,P2の表情の良好度の履歴が示されている。また、図5(A),(B)には、それぞれルート1、ルート2を走行したときの運転者DR及び同乗者P3の表情の良好度の履歴が示されている。なお、運転者DRの表情の良好度の履歴については、これまでの収集結果を平均したものとなっている。また、本実施例では、「表情の良好度」の範囲を−5〜5までとし、5を「良好」、3を「やや良好」、0を「普通」、−3を「やや不良」、そして、−5を「不良」とし、段階的に分類するようになっている。   FIG. 4A shows a history of the goodness of facial expressions of the driver DR and the passengers P1 and P2 when traveling on the route 1, and FIG. 4B shows a history when traveling on the route 2. The history of the goodness of the facial expressions of the driver DR and the passengers P1 and P2 is shown. FIGS. 5A and 5B show the history of the goodness of facial expressions of the driver DR and the passenger P3 when traveling on the route 1 and the route 2, respectively. The history of the degree of goodness of the facial expression of the driver DR is an average of the collected results so far. In this embodiment, the range of “goodness of facial expression” is −5 to 5, 5 is “good”, 3 is “slightly good”, 0 is “normal”, -3 is “slightly bad”, Then, −5 is classified as “defective” and is classified in stages.

こうして表情履歴情報(FHI)が記憶ユニット120中に記憶されると、制御ユニット110は、当該表情履歴情報(FHI)に基づいて、走行したルートにおける搭乗者ごとの「表情の良好度の変化」を学習する。この学習に際して、制御ユニット110は、ナビゲーション用情報(NVI)のPOIデータを取得して、走行したルートにおける車外環境の変化に対する搭乗者ごとの「表情の良好度の変化」を更に学習する。   When the facial expression history information (FHI) is stored in the storage unit 120 in this way, the control unit 110 performs “change in the degree of goodness of facial expression” for each passenger on the route traveled based on the facial expression history information (FHI). To learn. In this learning, the control unit 110 acquires POI data of navigation information (NVI), and further learns “changes in the degree of goodness of facial expression” for each passenger with respect to changes in the environment outside the vehicle on the traveled route.

例えば、図4(A),(B)に示される例では、同乗者P1は、ルート1の走行中には表情が「良好」状態になるが、ルート2の走行中には表情が「不良」状態になるという特徴が学習されるとともに、同乗者P2は、ルート1の走行中には表情が「不良」状態になるが、ルート2の走行中には表情が「良好」状態になるという特徴が学習される。また、運転者DRは、ルート1,2の走行中に、共に表情が「普通」状態であるという特徴が学習される。ここで、かかる学習を、「走行ルート学習」と称することとする。   For example, in the example shown in FIGS. 4A and 4B, the passenger P1 has a “good” facial expression while traveling on route 1, but has a “bad” facial expression while traveling on route 2. And the passenger P2 is said to have a “bad” facial expression while traveling on the route 1 but a “good” facial expression while traveling on the route 2. Features are learned. In addition, the driver DR learns that the facial expressions are both “normal” during traveling on the routes 1 and 2. Here, this learning is referred to as “travel route learning”.

また、図4(A),(B)に示される例からは、同乗者P1は、「山沿い」を走行しているときには表情が「良好」状態になるが、「オフィス街」を走行しているときには表情が「不良」状態になるという特徴が学習されるとともに、同乗者P2は、「オフィス街」を走行しているときに表情が「良好」状態になるが、「山沿い」を走行しているときには表情が「不良」状態になるという特徴が学習される。ここで、かかる学習を、「車外環境学習」と称することとする。   In addition, from the example shown in FIGS. 4A and 4B, the passenger P1 looks “good” when traveling along the “mountain”, but travels in the “office district”. While the passenger P2 learns that the facial expression is in a “bad” state, the passenger P2 is in the “good” state when driving in the “office district”. The characteristic that the facial expression becomes “bad” when the vehicle is running is learned. Here, this learning is referred to as “exterior environment learning”.

また、図5(A),(B)に示される例では、同乗者P3は、ルート1の走行中には表情が「良好」状態になるが、ルート2の走行中には、当初の表情が「良好」状態のときには、後に表情が「不良」状態に変化し、当初の表情が「やや不良」状態のときには、後に表情が「普通」状態に変化するという特徴が学習される。こうした学習結果は、表情変化特徴情報(FAI)として記憶ユニット120中に記憶される。   Further, in the example shown in FIGS. 5A and 5B, the passenger P3 is in the “good” state while traveling on the route 1, but the initial facial expression while traveling on the route 2. When “Good” state, the facial expression changes to “Bad” state later, and when the initial facial expression is “Slightly bad” state, the facial expression changes to “Normal” state later. Such learning results are stored in the storage unit 120 as facial expression change feature information (FAI).

また、制御ユニット110は、上述した提供処理(c)における走行ルートの選択支援を行うために、「表情の良好度の変化」の学習結果に基づいて、今後の走行ルートの選択支援を行うための支援情報の提供を行う。当該支援情報の提供に関する処理については、後述する。   In addition, the control unit 110 performs future travel route selection support based on the learning result of “change in the degree of goodness of facial expression” in order to perform travel route selection support in the providing process (c) described above. Provide support information. Processing related to the provision of the support information will be described later.

[動作]
以上のようにして構成されたナビゲーション装置100の動作について、今後の走行ルートの選択支援を行うための支援情報提供処理に主に着目して説明する。
[Operation]
The operation of the navigation device 100 configured as described above will be described mainly focusing on support information providing processing for performing support for selecting a future travel route.

なお、以下においては、支援情報の提供処理の実行中には、制御ユニット110は、所定の時間間隔で、カメラユニット1801,1802から搭乗者の顔の画像情報を取得するとともに、車両CRの現在位置を取得しているものとする。 In the following, during the execution of the support information providing process, the control unit 110 acquires the image information of the passenger's face from the camera units 180 1 and 180 2 at a predetermined time interval, and the vehicle CR. It is assumed that the current position of is acquired.

<「表情の良好度の変化」の学習処理>
まず、支援情報の提供処理に利用される「表情の良好度の変化」の学習処理について説明する。
<Learning process for “change in facial expression”>
First, the learning process of “change in the degree of goodness of facial expression” used for the support information providing process will be described.

この学習処理は、利用者が、操作入力ユニット150を利用して、表情履歴を考慮した情報提供処理の開始指令を入力することにより開始する。当該開始指令が入力されると、図6に示されるように、ステップS11において、制御ユニット110が、カメラユニット1801,1802から取得した運転者及び同乗者の顔の画像情報から、搭乗者の個々人を識別する。この後、処理はステップS12へ進む。 This learning process is started when the user uses the operation input unit 150 to input an information providing process start command in consideration of the facial expression history. When the start command is input, as shown in FIG. 6, in step S < b > 11, the control unit 110 detects the driver and passenger's face image information acquired from the camera units 180 1 and 180 2. Identify individuals. Thereafter, the process proceeds to step S12.

ステップS12では、制御ユニット110が、運転者及び同乗者の顔の画像情報から、表情の良好度を判定する。引き続き、制御ユニット110は、ステップS13において、識別された搭乗者ごとに、判定した表情の良好度を車両CRの現在位置と関連付けて、表情履歴情報(FHI)として記憶ユニット120中に記憶する。この後、処理はステップS14へ進む。   In step S12, the control unit 110 determines the degree of goodness of the facial expression from the image information of the driver's and passenger's faces. Subsequently, in step S13, the control unit 110 associates the determined degree of facial expression with the current position of the vehicle CR and stores it in the storage unit 120 as facial expression history information (FHI) for each identified passenger. Thereafter, the process proceeds to step S14.

ステップS14では、制御ユニット110が、表情履歴情報(FHI)が有意な学習結果を得られる程度に蓄積されたか否かを判定する。この判定の結果が否定的であった場合(ステップS14:N)には、処理はステップS12へ戻る。   In step S14, the control unit 110 determines whether facial expression history information (FHI) has been accumulated to such an extent that a significant learning result can be obtained. If the result of this determination is negative (step S14: N), the process returns to step S12.

一方、ステップS14における判定の結果が肯定的であった場合(ステップS14:Y)には、処理はステップS15へ進む。このステップS15では、制御ユニット110が、当該表情履歴情報(FHI)及びナビゲーション用情報(NVI)に基づいて、搭乗者ごとの「走行したルートにおける表情の良好度の変化」の学習(走行ルート学習)、及び、搭乗者ごとの「車外環境の変化に対する表情の良好度の変化」の学習(車外環境学習)を行う。この後、処理はステップS12へ戻る。   On the other hand, when the result of the determination in step S14 is affirmative (step S14: Y), the process proceeds to step S15. In this step S15, the control unit 110 learns “change in the degree of goodness of the facial expression in the traveled route” for each passenger based on the facial expression history information (FHI) and the navigation information (NVI) (travel route learning). ) And learning of “change in the degree of goodness of facial expression with respect to changes in the environment outside the vehicle” (exterior environment learning) for each passenger. Thereafter, the process returns to step S12.

以後、上記のステップS12〜S15の処理が繰り返されて、「表情の良好度の変化」の学習処理が行われる。   Thereafter, the processes of steps S12 to S15 are repeated, and the learning process of “change in the degree of goodness of facial expression” is performed.

<支援情報の提供処理>
次に、「表情の良好度の変化」の学習結果を適用した今後の走行ルートの選択支援を行う支援情報の提供処理について説明する。この支援情報の提供処理は、上述した学習処理と並行して行われるようになっている。
<Providing support information>
Next, a description will be given of support information provision processing for supporting selection of a future travel route to which the learning result of “change in the degree of goodness of facial expression” is applied. This support information providing process is performed in parallel with the learning process described above.

なお、以下においては、具体例として、図4及び図5に示した表情の良好度の履歴を参照しつつ説明する。ここで、図4,5から、運転者DRの表情履歴に特徴がないため、具体例としては、同乗者P1〜P3の表情履歴に基づいた支援情報の提供処理を説明する。また、支援情報の提供処理が終了するまでは、助手席に着座している同乗者の変更はないものとする。   In the following, a specific example will be described with reference to the history of the degree of goodness of facial expressions shown in FIGS. Here, from FIG. 4 and FIG. 5, since there is no feature in the facial expression history of the driver DR, as a specific example, a process for providing support information based on the facial expression history of the passengers P1 to P3 will be described. Further, it is assumed that passengers seated in the passenger seat are not changed until the support information providing process is completed.

ナビゲーション装置100における支援情報の提供処理は、上述した学習処理と同様に、利用者が、操作入力ユニット150を利用して、表情履歴を考慮した情報提供処理の開始指令を入力することにより開始する。こうして開始指令が入力されると、図7に示されるように、ステップS21において、制御ユニット110が、カメラユニット1802から取得した「同乗者」の顔の画像情報から、搭乗者の個々人を識別する。 The support information providing process in the navigation device 100 is started when the user uses the operation input unit 150 to input a start command for the information providing process considering the facial expression history, as in the learning process described above. . Thus the start command is input, as shown in FIG. 7, in step S21, the control unit 110, from the image information of the face of the obtained from the camera unit 180 2 "passenger", identify the individual occupant To do.

引き続き、ステップS22において、制御ユニット110が、当該識別された搭乗者の「表情の良好度の変化」の学習結果が得られているか否かを判定する。この判定の結果が否定的であった場合(ステップS22:N)には、ステップS22の処理が繰り返される。なお、この判定の結果が否定的であっても、上述した「表情の良好度の変化」の学習処理が行われ、当該識別された搭乗者の「表情の良好度の変化」の学習結果が生成されれば、当該判定の結果は肯定的となる。   Subsequently, in step S22, the control unit 110 determines whether or not a learning result of “change in goodness of facial expression” of the identified passenger is obtained. If the result of this determination is negative (step S22: N), the process of step S22 is repeated. Even if the result of this determination is negative, the learning process of “change in goodness of facial expression” described above is performed, and the learning result of “change in goodness of facial expression” of the identified passenger is obtained. If generated, the result of the determination is affirmative.

一方、ステップS22における判定の結果が肯定的であった場合(ステップS22:Y)には、処理はステップS23へ進む。   On the other hand, if the result of the determination in step S22 is affirmative (step S22: Y), the process proceeds to step S23.

ステップS23では、制御ユニット110が、ルート探索を行うかを判定する。この判定の結果が肯定的であった場合(ステップS23:Y)には、処理はステップS24へ進む。このステップS24では、「ルート探索を伴う走行ルートの選択支援処理」が行われる。一方、ステップS23における判定の結果が否定的であった場合(ステップS23:N)には、処理はステップS25へ進む。このステップS25では、「ルート探索を伴わない走行ルートの選択支援処理」が行われる。   In step S23, the control unit 110 determines whether to perform route search. If the result of this determination is affirmative (step S23: Y), the process proceeds to step S24. In step S24, "travel route selection support process with route search" is performed. On the other hand, when the result of the determination in step S23 is negative (step S23: N), the process proceeds to step S25. In this step S25, "travel route selection support process without route search" is performed.

上記のステップS24における「ルート探索を伴う走行ルートの選択支援」処理について説明する。この走行ルートの選択支援処理に際しては、図8に示されるように、まず、ステップS31において、制御ユニット110が、現在位置から利用者により指定された目的地に至るルートを探索する。   The “travel route selection support with route search” processing in step S24 will be described. In this travel route selection support process, as shown in FIG. 8, first, in step S31, the control unit 110 searches for a route from the current position to the destination designated by the user.

引き続き、ステップS32において、制御ユニット110が、探索されたルートそれぞれについての評価を、学習結果に基づいて行う。かかる評価を行うに際して、制御ユニット110は、まず、探索されたルートそれぞれについて、識別された搭乗者の表情履歴情報(FHI)があるか否かを判定する。そして、制御ユニット110は、表情履歴情報(FHI)があると判定されたルートについては、上述した「走行ルート学習」の結果を利用した走行ルートの評価を行う。   Subsequently, in step S32, the control unit 110 evaluates each searched route based on the learning result. In performing such evaluation, the control unit 110 first determines whether or not there is an identified passenger facial expression history information (FHI) for each searched route. Then, the control unit 110 evaluates the travel route using the result of the “travel route learning” described above for the route determined to have facial expression history information (FHI).

また、制御ユニット110は、表情履歴情報(FHI)がないと判定されたルートについては、かかる評価を行うに際して上述した「車外環境学習」の結果を利用することができるか否かを判定する。そして、制御ユニット110は、当該学習結果を利用することができると判定されたルートについては、「車外環境学習」の結果を利用した走行ルートの評価を行う。   Further, the control unit 110 determines whether or not the above-described “out-of-vehicle environment learning” result can be used for performing the evaluation for a route determined to have no facial expression history information (FHI). Then, the control unit 110 evaluates the travel route using the result of “learning outside the vehicle” for the route determined to be able to use the learning result.

そして、制御ユニット110は、「走行ルート学習」の結果を利用した走行ルートの評価結果、及び、「車外環境学習」の結果を利用した走行ルートの評価結果を総合的に勘案して、探索されたルートそれぞれについての総合評価を行う。   Then, the control unit 110 is searched by comprehensively considering the evaluation result of the driving route using the result of “learning driving route” and the evaluation result of the driving route using the result of “learning outside the vehicle”. Comprehensive evaluation for each route.

この総合評価は、例えば、「走行ルート学習」及び「車外環境学習」の結果を利用した走行ルートの評価結果において、ともに高評価のルートが存在する場合には、「走行ルート学習」の結果を利用した走行ルートをより高評価の走行ルートにする等、「走行ルート学習」の結果を利用した走行ルートの評価に、重みを置くようになっている。   For example, if there is a highly evaluated route in the evaluation result of the travel route using the results of “travel route learning” and “exterior environment learning”, the comprehensive evaluation is performed using the result of “travel route learning”. A weight is placed on the evaluation of the travel route using the result of “travel route learning”, such as making the travel route used more highly evaluated.

ここで、かかる評価結果の具体例について説明する。例えば、探索されたルートが上述したルート1,2であり(図3、図4(A),(B)参照)、識別された搭乗者が同乗者P1である場合には、制御ユニット110は、「走行ルート学習」の結果を利用して、ルート1を高評価の走行ルートとするとともに、ルート2を低評価の走行ルートとする。また、識別された搭乗者が同乗者P2である場合には、制御ユニット110は、「走行ルート学習」の結果を利用して、ルート2を高評価の走行ルートとするとともに、ルート1を低評価の走行ルートとする。   Here, a specific example of the evaluation result will be described. For example, when the searched routes are the above-described routes 1 and 2 (see FIGS. 3, 4A and 4B), and the identified passenger is the passenger P1, the control unit 110 Using the result of “travel route learning”, route 1 is set as a highly evaluated travel route and route 2 is set as a low evaluated travel route. When the identified passenger is the passenger P2, the control unit 110 uses the result of “travel route learning” to set the route 2 as a highly evaluated travel route and reduce the route 1 to a low value. This is the evaluation route.

また、例えば、助手席の搭乗者が同乗者P1である場合に、探索されたルートについての表情履歴情報(FHI)がないときには、制御ユニット110は、「車外環境学習」の結果を利用して、探索したルートの中に、「山沿い」を長く走行するルートがあれば、当該ルートを高評価の走行ルートとするとともに、「オフィス街」を走行するルートがあれば、当該ルートを低評価の走行ルートとする。また、助手席の搭乗者が同乗者P2である場合に、探索されたルートについての表情履歴情報(FHI)がないときには、制御ユニット110は、「車外環境学習」の結果を利用して、探索したルートの中に、「オフィス街」を長く走行するルートがあれば、当該ルートを高評価の走行ルートとするとともに、「山沿い」を走行するルートがあれば、当該ルートを低評価の走行ルートとする。   Further, for example, when the passenger in the passenger seat is the passenger P1, and there is no facial expression history information (FHI) for the searched route, the control unit 110 uses the result of “learning outside the vehicle”. If a route that travels along the “mountain” for a long time is found in the searched route, the route is regarded as a highly rated travel route, and if a route travels in the “office district”, the route is rated low. As the driving route. When the passenger in the passenger seat is the passenger P2, and there is no facial expression history information (FHI) for the searched route, the control unit 110 uses the result of “learning outside the vehicle” to search. If there is a route that travels in the “office district” for a long time, the route is regarded as a highly rated travel route, and if a route travels along the mountain, the route is regarded as a low rated travel route. Root.

なお、本実施例では、探索されたルートのすべてが「車外環境学習」の結果を利用することができないと判定された場合や、学習結果に基づくルートの評価結果から低評価のルートしか存在しない場合には、従来から存在するナビゲーション装置の機能通りに、搭乗者が設定した優先度(例えば時間優先、距離優先、有料道路優先等)に基づいたルートを情報提供するようになっている。   In this embodiment, when it is determined that all of the searched routes cannot use the result of “external environment learning”, or there is only a low evaluation route based on the evaluation result of the route based on the learning result. In this case, the route based on the priority (for example, time priority, distance priority, toll road priority, etc.) set by the passenger is provided according to the function of a conventional navigation device.

探索されたルートそれぞれについての評価結果が得られると、処理はステップS33へ進む。ステップS33では、制御ユニット110が、学習結果の適用結果に基づく走行ルート候補の情報提供を行う。この情報提供は、高評価の順に、走行ルート候補を利用者に提示する態様で、表示ユニット140の表示デバイスに画像表示されるとともに、音出力ユニット130のスピーカにより音声案内される。   When the evaluation result for each searched route is obtained, the process proceeds to step S33. In step S33, the control unit 110 provides travel route candidate information based on the application result of the learning result. This information provision is such that the driving route candidates are presented to the user in the order of high evaluation, and an image is displayed on the display device of the display unit 140 and voice guidance is provided by the speaker of the sound output unit 130.

引き続き、ステップS34において、走行ルート候補の中から走行すべきルートが利用者により決定されると、制御ユニット110が、当該ルートの案内を行う。この後、処理はステップS35へ進む。   Subsequently, in step S34, when a route to be traveled is determined from the travel route candidates by the user, the control unit 110 guides the route. Thereafter, the process proceeds to step S35.

ステップS35では、制御ユニット110が、車両CRが目的地に到達、又は、走行ルートから離脱したか否かを判定する。この判定の結果が否定的であった場合(ステップS35:N)には、ステップS35の処理が繰り返される。一方、ステップS35における判定の結果が肯定的になると(ステップS35:Y)、ステップS24の処理が終了し、処理は、上述した図7におけるステップS23へ戻る。   In step S35, the control unit 110 determines whether the vehicle CR has reached the destination or has left the travel route. If the result of this determination is negative (step S35: N), the process of step S35 is repeated. On the other hand, when the result of the determination in step S35 becomes affirmative (step S35: Y), the process of step S24 ends, and the process returns to step S23 in FIG. 7 described above.

次いで、上記のステップS25における「ルート探索を行わない走行ルートの選択支援」処理について説明する。この走行ルートの選択支援処理に際しては、図9に示されるように、まず、ステップS41において、制御ユニット110が、車両CRの走行位置に基づいて、今後の走行ルート候補としてのルートを抽出する。   Next, the “support for selecting a travel route without performing a route search” process in step S25 will be described. In this travel route selection support process, as shown in FIG. 9, first, in step S41, the control unit 110 extracts a route as a future travel route candidate based on the travel position of the vehicle CR.

引き続き、ステップS42において、制御ユニット110が、上述したステップS32と同様に、抽出されたルートそれぞれについての評価を、「走行ルート学習」の結果又は「車外環境学習」の結果又は表情変化特徴情報(FAI)に基づいて行う。   Subsequently, in step S42, as in step S32 described above, the control unit 110 evaluates each of the extracted routes as a result of “running route learning”, a result of “learning outside the vehicle environment”, or facial expression change feature information ( Based on FAI).

ここで、評価結果の具体例について説明する。例えば、車両CRが、地点A→F間を走行しているときに、地点F→G→H→Bを通過するルートであるルート2と、地点F→C→D→E→Bを通過するルート(ここでは、「ルート1c」とする)とを抽出したとする(図3参照)。このとき制御ユニット110は、「走行ルート学習」の結果を利用して、搭乗者が同乗者P3であり、表情が「良好」状態であるときには、ルート2をそのまま走行すると、後に表情が「不良」状態に変化する可能性があるため(図5(A),(B)参照)、地点F→Cを走行して地点Bに至るルート1cを高評価の走行ルートとする。   Here, a specific example of the evaluation result will be described. For example, when the vehicle CR travels between points A → F, it passes through route 2, which is a route passing through points F → G → H → B, and points F → C → D → E → B. It is assumed that a route (here, “route 1c”) is extracted (see FIG. 3). At this time, the control unit 110 uses the result of the “travel route learning”, and when the passenger is the passenger P3 and the expression is in the “good” state, the control unit 110 travels the route 2 as it is and the expression becomes “bad” later. ”(See FIGS. 5A and 5B), the route 1c that travels from the point F → C and reaches the point B is set as a highly evaluated travel route.

抽出されたルートそれぞれについての評価結果が得られると、処理はステップS43へ進む。ステップS43では、上述したステップS33と同様に、制御ユニット110が、学習結果の適用結果に基づく走行ルート候補の情報提供を行う。この情報提供は、高評価の順に、走行ルート候補を利用者に提示する態様で、表示ユニット140の表示デバイスに画像表示されるとともに、音出力ユニット130のスピーカにより音声案内される。   When the evaluation result for each extracted route is obtained, the process proceeds to step S43. In step S43, as in step S33 described above, the control unit 110 provides travel route candidate information based on the application result of the learning result. This information provision is such that the driving route candidates are presented to the user in the order of high evaluation, and an image is displayed on the display device of the display unit 140 and voice guidance is provided by the speaker of the sound output unit 130.

引き続き、ステップS44において、車両CRの現在位置の変化により、上記の走行ルート候補の中から今後走行すると推測される走行ルートが絞りこまれると、制御ユニット110が、当該絞り込まれた走行ルートの案内を行う。この後、処理はステップS45へ進む。   Subsequently, in step S44, when a travel route estimated to travel in the future is narrowed down from the above-mentioned travel route candidates due to a change in the current position of the vehicle CR, the control unit 110 guides the narrowed travel route. I do. Thereafter, the process proceeds to step S45.

ステップS45では、制御ユニット110が、車両CRが当該絞り込まれた走行ルートから離脱したか否かを判定する。この判定の結果が否定的であった場合(ステップS45:N)には、ステップS44,S45の処理が繰り返される。一方、ステップS45における判定の結果が肯定的になると(ステップS45:Y)、ステップS25の処理が終了し、処理は、上述した図7におけるステップS23へ戻る。   In step S45, the control unit 110 determines whether or not the vehicle CR has left the narrowed travel route. If the result of this determination is negative (step S45: N), the processes of steps S44 and S45 are repeated. On the other hand, when the result of the determination in step S45 becomes affirmative (step S45: Y), the process of step S25 ends, and the process returns to step S23 in FIG. 7 described above.

上記の処理が実行されることにより、今後の走行ルートの選択を支援するための支援情報の提供処理が行われる。   By executing the above processing, support information providing processing for supporting selection of a future travel route is performed.

以上説明したように、本実施例では、制御ユニット110が、カメラユニット1801,1802から搭乗者の顔の画像情報を取得する。そして、制御ユニット110は、当該顔の画像情報から、搭乗者の個々人を識別するとともに、搭乗者の表情の良好度を判定する。引き続き、制御ユニット110は、識別された搭乗者ごとに、表情の良好度を車両CRの現在位置と関連付けて、表情履歴情報(FHI)として記憶ユニット120に記憶する。そして、制御ユニット110は、当該表情履歴情報(FHI)に基づいて、走行したルートにおける搭乗者ごとの「表情の良好度の変化」を学習する。 As described above, in this embodiment, the control unit 110 acquires the image information of the passenger's face from the camera units 180 1 and 180 2 . Then, the control unit 110 identifies individual passengers from the face image information and determines the degree of goodness of the passenger's facial expression. Subsequently, for each identified passenger, the control unit 110 associates the goodness of the facial expression with the current position of the vehicle CR and stores it in the storage unit 120 as facial expression history information (FHI). Then, the control unit 110 learns “change in the degree of goodness of facial expression” for each passenger on the traveled route based on the facial expression history information (FHI).

こうして「表情の良好度の変化」の学習が進むと、制御ユニット110は、車両CRの現在位置と、当該「表情の良好度の変化」の学習結果とに基づいて、走行中の搭乗者構成に対応して、今後の走行ルートの選択を支援するための支援情報を、画像や音声等により提供する。   When the learning of “change in the degree of goodness of facial expression” proceeds in this way, the control unit 110 configures the occupant composition during traveling based on the current position of the vehicle CR and the learning result of the “change in goodness of facial expression”. In response to the above, support information for supporting selection of a future travel route is provided by an image, a sound, or the like.

したがって、本実施例によれば、車両の搭乗者の表情の良好度の変化の傾向を利用して、車室内の雰囲気を良好に保つような走行ルートの選択を支援することができる。   Therefore, according to the present embodiment, it is possible to support selection of a travel route that maintains a good atmosphere in the passenger compartment by using the tendency of the change in the degree of goodness of the facial expression of the passenger of the vehicle.

[実施例の変形]
本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。
[Modification of Example]
The present invention is not limited to the above-described embodiments, and various modifications are possible.

例えば、上記の実施例では、助手席に着座している同乗者の表情の良好度の変化を考慮した走行ルートの選択支援を行うものとしたが、運転者の表情の良好度の変化を考慮した走行ルートの選択支援を行うようにしてもよい。   For example, in the above embodiment, the driving route selection support considering the change in the goodness of the facial expression of the passenger sitting in the passenger seat is performed, but the change in the goodness of the driver's facial expression is taken into account. You may be made to perform selection support of the run route.

また、上記の実施例では、2個のカメラユニットを備えることとしたが、カメラユニットの数は1個、又は、3個以上車両定員数以下であってもよい。ここで、カメラユニットの数を1個とする場合には、当該1個のカメラユニットの撮影視野は、助手席に着座する搭乗者の顔周辺であってもよいし、搭乗者全員の顔を撮影することのできる車室内全体であってもよい。カメラユニットの個数を車両定員数と同じ個数とする場合には、それぞれのカメラユニットの撮影視野は、異なる座席に着座するそれぞれの搭乗者の顔周辺とするようにすればよい。   In the above embodiment, two camera units are provided. However, the number of camera units may be one or three or more and less than or equal to the vehicle capacity. Here, when the number of camera units is one, the field of view of the one camera unit may be around the face of the passenger sitting on the passenger seat, or the faces of all the passengers It may be the entire vehicle interior that can be photographed. When the number of camera units is the same as the number of vehicles, the shooting field of view of each camera unit may be around the face of each occupant seated in a different seat.

また、上記の実施例では、カメラユニットから取得した画像情報から搭乗者を識別することとしたが、搭乗者の識別を行わないようにしてもよい。この場合には、平均的な搭乗者の「表情の良好度の変化」を学習し、当該学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供することになる。   In the above embodiment, the passenger is identified from the image information acquired from the camera unit. However, the passenger may not be identified. In this case, “change in the degree of goodness of facial expression” of the average passenger is learned, and based on the learning result, support information for supporting selection of a future travel route is provided.

また、上記の実施例では、「表情の良好度の変化」の学習結果が利用できるときには、他の要因を考慮せず、当該学習結果に基づいて、今後の走行ルートの選択を支援するようにした。これに対して、交通渋滞を考慮し、車室内の雰囲気を良好に保つ観点から最適とされた走行ルートが渋滞している場合には、渋滞が発生していない走行ルートを提供するようにしてもよい。   Further, in the above-described embodiment, when the learning result of “change in the degree of goodness of facial expression” is available, the selection of a future driving route is supported based on the learning result without considering other factors. did. On the other hand, in consideration of traffic jams, if there is a traffic route that is optimal from the viewpoint of maintaining a good atmosphere in the passenger compartment, a route that does not cause traffic jams should be provided. Also good.

また、表情の良好度の判定処理については、上記の実施例の手法に限定されるものではなく、表情の良好度を制度良く判定することができるものであれば、他の手法を採用するようにしてもよい。   In addition, the determination process of the facial expression goodness is not limited to the method of the above embodiment, and other methods may be adopted as long as the goodness of the facial expression can be determined systematically. It may be.

また、上記の実施例では、コンピュータによるプログラムの実行により、測位手段、撮影手段及び第1及び第2記憶手段を除く各手段の機能を実現するようにしたが、これらの各手段の全部又は一部を、専用のLSI(Large Scale Integrated circuit)等を用いたハードウェアにより構成するようにしてもよい。   In the above-described embodiment, the functions of the units other than the positioning unit, the photographing unit, and the first and second storage units are realized by executing the program by the computer. However, all or one of these units is realized. The unit may be configured by hardware using a dedicated LSI (Large Scale Integrated circuit) or the like.

100 … ナビゲーション装置(ルート選択支援装置)
110 … 制御ユニット(識別手段、検出手段、学習手段、提供手段)
120 … 記憶ユニット(第1記憶手段、第2記憶手段)
170 … GPS受信ユニット(測位手段)
1801 … カメラユニット(撮影手段)
1802 … カメラユニット(撮影手段)
700 … ルート選択支援装置
710 … 測位手段
720 … 撮影手段
730 … 識別手段
740 … 検出手段
750 … 第1記憶手段
760 … 学習手段
770 … 第2記憶手段
780 … 提供手段
781 … 探索手段
100 ... Navigation device (route selection support device)
110 ... Control unit (identification means, detection means, learning means, providing means)
120: Storage unit (first storage means, second storage means)
170 ... GPS receiving unit (positioning means)
180 1 ... Camera unit (photographing means)
180 2 ... Camera unit (photographing means)
700 ... Route selection support device 710 ... Positioning means 720 ... Imaging means 730 ... Identification means 740 ... Detection means 750 ... First storage means 760 ... Learning means 770 ... Second storage means 780 ... Provision means 781 ... Search means

Claims (9)

車両の走行ルートの選択を支援するルート選択支援装置であって、
前記車両の現在位置を計測する測位手段と;
前記車両の搭乗者の顔を撮影する撮影手段と;
前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出手段と;
前記検出手段による検出結果を、前記測位手段による測位結果と関連付けて記憶する第1記憶手段と;
前記第1記憶手段に記憶された情報に基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習手段と;
前記学習手段による学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供手段と;
を備えることを特徴とするルート選択支援装置。
A route selection support device for supporting selection of a travel route of a vehicle,
Positioning means for measuring the current position of the vehicle;
Photographing means for photographing a face of a passenger of the vehicle;
Detecting means for detecting a goodness of facial expression for each passenger based on a result of photographing by the photographing means;
First storage means for storing the detection result by the detection means in association with the positioning result by the positioning means;
Learning means for learning a change in the degree of goodness of the facial expression for each passenger on the route traveled based on the information stored in the first storage means;
Providing means for providing support information for supporting selection of a future travel route based on a learning result by the learning means;
A route selection support apparatus comprising:
前記撮影手段による撮影結果に基づいて、前記搭乗者の個々人を識別する識別手段を更に備え、
前記第1記憶手段には、前記識別手段により識別された搭乗者ごとに、前記検出手段による検出結果が前記測位手段による測位結果と関連付けて記憶され、
前記学習手段は、前記第1記憶手段に記憶された情報に基づいて、前記走行したルートにおける前記識別された搭乗者ごとの表情の良好度の変化を学習し、
前記提供手段は、前記識別手段による識別結果から得られる走行中の搭乗者構成に対応して、前記支援情報を提供する、
ことを特徴とする請求項1に記載のルート選択支援装置。
An identification means for identifying an individual person of the passenger based on a result of photographing by the photographing means;
In the first storage means, for each passenger identified by the identification means, the detection result by the detection means is stored in association with the positioning result by the positioning means,
The learning means learns a change in the degree of goodness of the facial expression for each identified passenger on the traveled route based on the information stored in the first storage means,
The providing means provides the support information corresponding to a traveling passenger configuration obtained from the identification result by the identifying means.
The route selection support apparatus according to claim 1.
前記学習手段は、走行中の車外環境を取得し、前記走行したルートにおける車外環境の変化を考慮して、車外環境の変化に対する前記搭乗者ごとの表情の良好度の変化を更に学習する、
ことを特徴とする請求項1又は2に記載のルート選択支援装置。
The learning means acquires an environment outside the vehicle during traveling, and further learns a change in the degree of goodness of the facial expression for each passenger with respect to a change in the environment outside the vehicle in consideration of a change in the environment outside the vehicle on the route traveled.
The route selection support apparatus according to claim 1 or 2, characterized in that
前記学習手段が読み取り可能な地図上の各位置における車外環境の情報が記憶された第2記憶手段を更に備える、ことを特徴とする請求項3に記載のルート選択支援装置。   4. The route selection support apparatus according to claim 3, further comprising second storage means in which information on the environment outside the vehicle at each position on the map readable by the learning means is stored. 前記提供手段は、前記学習手段による学習結果を考慮して、目的地までの走行ルートを探索する探索手段を備える、ことを特徴とする請求項1〜4のいずれか一項に記載のルート選択支援装置。   The route selection according to any one of claims 1 to 4, wherein the providing unit includes a search unit that searches for a travel route to a destination in consideration of a learning result obtained by the learning unit. Support device. 前記提供手段は、
前記測位手段による測位結果に基づいて、今後の走行ルート候補を抽出し、
前記抽出された走行ルート候補ごとへの前記学習手段による学習結果の適用結果に基づいて、前記支援情報を提供する、
ことを特徴とする請求項1〜5のいずれか一項に記載のルート選択支援装置。
The providing means includes
Based on the positioning results by the positioning means, extract future driving route candidates,
Providing the support information based on the application result of the learning result by the learning means for each extracted travel route candidate;
The route selection support device according to any one of claims 1 to 5, wherein
前記車両の現在位置を計測する測位手段と;前記車両の搭乗者の顔を撮影する撮影手段と;を備え、前記車両の走行ルートの選択を支援するルート選択支援装置において使用されるルート選択支援方法であって、
前記撮影手段による撮影結果に基づいて、前記搭乗者ごとの表情の良好度を検出する検出工程と;
前記測位手段による測位結果と、前記検出工程における検出結果とに基づいて、走行したルートにおける前記搭乗者ごとの表情の良好度の変化を学習する学習工程と;
前記学習工程における学習結果に基づいて、今後の走行ルートの選択を支援するための支援情報を提供する提供工程と;
を備えることを特徴とするルート選択支援方法。
Route selection support used in a route selection support device for supporting selection of a travel route of the vehicle, comprising: positioning means for measuring a current position of the vehicle; and photographing means for photographing a face of a passenger of the vehicle. A method,
A detection step of detecting a goodness of facial expression for each passenger based on a result of photographing by the photographing means;
A learning step of learning a change in the degree of goodness of the facial expression for each occupant on the route traveled based on the positioning result by the positioning means and the detection result in the detection step;
A providing step of providing support information for supporting selection of a future travel route based on a learning result in the learning step;
A route selection support method comprising:
請求項7に記載のルート選択支援方法を演算手段に実行させる、ことを特徴とするルート選択支援プログラム。   A route selection support program for causing a calculation means to execute the route selection support method according to claim 7. 請求項8に記載のルート選択支援プログラムが、演算手段により読み取り可能に記録されている、ことを特徴とする記録媒体。   9. A recording medium, wherein the route selection support program according to claim 8 is recorded so as to be readable by a calculation means.
JP2009277632A 2009-12-07 2009-12-07 Route selection support device and route selection support method Pending JP2011117905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009277632A JP2011117905A (en) 2009-12-07 2009-12-07 Route selection support device and route selection support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009277632A JP2011117905A (en) 2009-12-07 2009-12-07 Route selection support device and route selection support method

Publications (1)

Publication Number Publication Date
JP2011117905A true JP2011117905A (en) 2011-06-16

Family

ID=44283403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009277632A Pending JP2011117905A (en) 2009-12-07 2009-12-07 Route selection support device and route selection support method

Country Status (1)

Country Link
JP (1) JP2011117905A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145081A1 (en) * 2012-03-26 2013-10-03 パイオニア株式会社 Route search device, route search management device, terminal device, and route search method
JP2013216241A (en) * 2012-04-10 2013-10-24 Denso Corp Affect-monitoring system
WO2016121174A1 (en) * 2015-01-30 2016-08-04 ソニー株式会社 Information processing system and control method
JP2019159930A (en) * 2018-03-14 2019-09-19 オムロン株式会社 Drive support device, drive support method, drive support program, operation control device, operation control method, and operation control program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034936A (en) * 2000-07-24 2002-02-05 Sharp Corp Communication device and communication method
JP2004281488A (en) * 2003-03-13 2004-10-07 Renesas Technology Corp Semiconductor device and method of manufacturing the same
JP2006320621A (en) * 2005-05-20 2006-11-30 Sharp Corp Stress care apparatus, and air-conditioner and robot apparatus equipped with stress care apparatus
JP2007057510A (en) * 2005-08-26 2007-03-08 Equos Research Co Ltd Navigation system
WO2007032278A1 (en) * 2005-09-13 2007-03-22 Pioneer Corporation Path search apparatus, path search method, path search program, and computer readable recording medium
JP2007205764A (en) * 2006-01-31 2007-08-16 Equos Research Co Ltd Route searching apparatus
JP2008281488A (en) * 2007-05-11 2008-11-20 Toyota Motor Corp Navigation device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034936A (en) * 2000-07-24 2002-02-05 Sharp Corp Communication device and communication method
JP2004281488A (en) * 2003-03-13 2004-10-07 Renesas Technology Corp Semiconductor device and method of manufacturing the same
JP2006320621A (en) * 2005-05-20 2006-11-30 Sharp Corp Stress care apparatus, and air-conditioner and robot apparatus equipped with stress care apparatus
JP2007057510A (en) * 2005-08-26 2007-03-08 Equos Research Co Ltd Navigation system
WO2007032278A1 (en) * 2005-09-13 2007-03-22 Pioneer Corporation Path search apparatus, path search method, path search program, and computer readable recording medium
JP2007205764A (en) * 2006-01-31 2007-08-16 Equos Research Co Ltd Route searching apparatus
JP2008281488A (en) * 2007-05-11 2008-11-20 Toyota Motor Corp Navigation device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145081A1 (en) * 2012-03-26 2013-10-03 パイオニア株式会社 Route search device, route search management device, terminal device, and route search method
JP2013216241A (en) * 2012-04-10 2013-10-24 Denso Corp Affect-monitoring system
US9465978B2 (en) 2012-04-10 2016-10-11 Denso Corporation Feeling monitoring system
WO2016121174A1 (en) * 2015-01-30 2016-08-04 ソニー株式会社 Information processing system and control method
CN107209019A (en) * 2015-01-30 2017-09-26 索尼公司 Information processing system and control method
JPWO2016121174A1 (en) * 2015-01-30 2017-11-09 ソニー株式会社 Information processing system and control method
US10302444B2 (en) 2015-01-30 2019-05-28 Sony Corporation Information processing system and control method
JP2019159930A (en) * 2018-03-14 2019-09-19 オムロン株式会社 Drive support device, drive support method, drive support program, operation control device, operation control method, and operation control program

Similar Documents

Publication Publication Date Title
JP4753999B2 (en) Navigation device
US10866107B2 (en) Navigation system
JP2005083758A (en) Route search device
WO2011077495A1 (en) Navigation device
JP2011117905A (en) Route selection support device and route selection support method
JP2010127837A (en) Navigation device
WO2007135855A1 (en) Information presentation device, information presentation method, information presentation program, and computer readable recording medium
JP2007072567A (en) Vehicle traveling information recording device
JP2010256554A (en) Information processor and image display control method
JP6619316B2 (en) Parking position search method, parking position search device, parking position search program, and moving object
JP2008014902A (en) Drive plan presenting device, and drive plan presenting method
JP4039968B2 (en) Navigation system
JP2010085203A (en) Navigation device and guidance method
JP2020060517A (en) Agent device, method for controlling agent device, and program
JP6099845B1 (en) Information device, navigation device, work procedure guidance device, and load status determination method
JP4111444B2 (en) Navigation device
JP4293893B2 (en) Navigation device and landmark display method
JP2005321268A (en) Navigation system
JP4480363B2 (en) Navigation device
JP2007322305A (en) Navigation apparatus
JP2007064821A (en) Navigation apparatus
JP2007139443A (en) Display device and navigation device
JP2002116041A (en) Navigation device and voice guide document creating method
JP4665838B2 (en) Vehicle navigation device, image data processing device, and computer program
JP4198746B2 (en) Route search device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140604