JP2008008723A - Hmi system and vehicle-mounted navigation apparatus - Google Patents

Hmi system and vehicle-mounted navigation apparatus Download PDF

Info

Publication number
JP2008008723A
JP2008008723A JP2006178699A JP2006178699A JP2008008723A JP 2008008723 A JP2008008723 A JP 2008008723A JP 2006178699 A JP2006178699 A JP 2006178699A JP 2006178699 A JP2006178699 A JP 2006178699A JP 2008008723 A JP2008008723 A JP 2008008723A
Authority
JP
Japan
Prior art keywords
processing unit
model
defines
event
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006178699A
Other languages
Japanese (ja)
Inventor
Motosuke Kojima
基資 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006178699A priority Critical patent/JP2008008723A/en
Publication of JP2008008723A publication Critical patent/JP2008008723A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an HMI system which reduces the effects of development and design changes of a subsystem on other subsystems, and also to provide a vehicle-mounted navigation apparatus using it. <P>SOLUTION: The HMI (Human Machine Interface) system is constructed on the basis of the MVC (Model-View-Controller) model, and has, as the subsystems, a model for performing information processing, a view for determining output to a user, and a controller for recognizing input by a user. The HMI system is provided with a scenario, as a subsystem, for performing association of data and events used among the subsystems and/or argument setting when calling functions possessed by the subsystems. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、MVCモデルに基づいて構築されるHMIシステム、及びこれが適用された車載ナビゲーション装置に関する。   The present invention relates to an HMI system constructed based on an MVC model, and an in-vehicle navigation device to which the system is applied.

近年、人と機械設備とのインターフェイスとなるコンピュータ・システムを、HMI(Human Machine Interface)システム等と称している。こうしたシステムの設計思想の一つに、MVC(Model−View−Controller)モデルが挙げられる。   In recent years, a computer system that serves as an interface between a person and a machine facility is called an HMI (Human Machine Interface) system or the like. One of the design concepts of such a system is the MVC (Model-View-Controller) model.

MVCモデルとは、オブジェクト指向プログラミング技法に基づく設計思想であり、システムをオブジェクトの集合であるサブシステムで表現したものである。MVCモデルにおけるサブシステムは、主たる情報処理を行なうModel、出力を制御するView、ユーザーの入力を認識すると共にこれに応じてModelやViewに指示するControllerからなる。なお、それぞれのサブシステムは単独である必要はない。また、ViewとControlが結合してM−VCとなることもあり、これを拡張MVCと呼ぶ場合があるが、MVCモデルの概念に含まれるものである。   The MVC model is a design philosophy based on an object-oriented programming technique, and represents a system by a subsystem that is a set of objects. The subsystem in the MVC model is composed of a model for performing main information processing, a view for controlling output, and a controller for recognizing a user input and instructing the model or view accordingly. Note that each subsystem need not be independent. In addition, View and Control may be combined to form M-VC, which may be referred to as extended MVC, but is included in the concept of the MVC model.

MVCモデルにより構築されたシステムは、オブジェクト指向プログラミング技法が有する利点、すなわち、既存のオブジェクトについては、利用に際してその内部構造や動作原理の詳細を知る必要はなく、外部からメッセージを送れば機能するという利点を継承する。従って、開発作業の分業が容易になる利点や、サブシステムの仕様変更が他のサブシステムに与える影響を小さくすることができる利点等を有するものとされている。   The system constructed by the MVC model has the advantage of object-oriented programming techniques, that is, it is not necessary to know the details of the internal structure and the operating principle of existing objects, and it works if a message is sent from the outside. Inherit the benefits. Therefore, it has the advantage that the division of development work becomes easy, the advantage that the influence of the change in the specification of the subsystem on other subsystems can be reduced, and the like.

拡張MVCに基づいて構築されたと思われる車載ナビゲーション装置についての発明が開示されている(例えば、特許文献1参照)。この装置は、主な構成として、操作指令の受付及び表示画像の画像処理等を担当するシステムマスタ部(上記VCに相当する)と、ルート検索などのナビゲーション機能を担当するナビゲーションエンジン部(上記Mに相当する)と、を備える。そして、この装置においても、表示方式や操作方式、ナビゲーション機能の変更に際して、システムマスタ部又はナビゲーションエンジン部のいずれかを変更すればよく、開発効率が向上するものとしている。
特開2005−164317号公報
The invention about the vehicle-mounted navigation apparatus considered to be constructed based on the extended MVC is disclosed (for example, see Patent Document 1). This apparatus mainly includes a system master unit (corresponding to the VC) that is in charge of receiving an operation command and image processing of a display image, and a navigation engine unit that is in charge of a navigation function such as route search (M Equivalent to). Also in this apparatus, when the display method, the operation method, and the navigation function are changed, either the system master unit or the navigation engine unit may be changed, and the development efficiency is improved.
JP 2005-164317 A

しかしながら、オブジェクト指向プログラミング技法に基づいて設計されたシステムであっても、サブシステムの変更は他のサブシステムに少なからず影響を与える。例えば、あるサブシステムが変更されると、当該サブシステムに送られるメッセージ(データやイベント情報を含む)の形式を変更する必要が生じ得る。また、関数(メソッド)が呼び出されるサブシステムが変更されると、呼び出す側のサブシステムにおいて関数(メソッド)に与えるべきパラメータを変更する必要が生じ得る。   However, even in a system designed based on object-oriented programming techniques, changes in subsystems have a considerable impact on other subsystems. For example, when a certain subsystem is changed, it may be necessary to change the format of messages (including data and event information) sent to the subsystem. Further, when a subsystem to which a function (method) is called is changed, it may be necessary to change a parameter to be given to the function (method) in the calling subsystem.

本発明はこのような課題を解決するためのものであり、サブシステムの開発や設計変更が他のサブシステムに与える影響を小さくすることが可能なHMIシステム、及びこれを利用した車載ナビゲーション装置を提供することを、主たる目的とする。   The present invention is for solving such problems, and an HMI system capable of reducing the influence of subsystem development and design changes on other subsystems, and an in-vehicle navigation device using the same. The main purpose is to provide it.

上記目的を達成するための本発明の第1の態様は、MVC(Model−View−Controller)モデルに基づいて構築され、情報処理を行なうモデルと、ユーザーに対する出力を決定するビューと、ユーザーの入力を認識するコントローラーと、をサブシステムとして備えるHMI(Human Machine Interface)システムであって、各サブシステム間で用いられるデータ及びイベントの関連付け、及び/又は、各サブシステムが備える関数を呼び出す際の引数設定を行なうシナリオをサブシステムとして備えることを特徴とするものである。   In order to achieve the above object, a first aspect of the present invention is a model constructed based on an MVC (Model-View-Controller) model for performing information processing, a view for determining an output for a user, and user input. HMI (Human Machine Interface) system comprising a controller for recognizing as a subsystem, the association of data and events used between the subsystems, and / or arguments for calling functions provided in each subsystem A scenario for setting is provided as a subsystem.

この本発明の第1の態様によれば、各サブシステム間で用いられるデータ及びイベントの関連付け、及び/又は、各サブシステムが備える関数を呼び出す際の引数設定を行なうシナリオをサブシステムとして備えるから、サブシステムの開発や設計変更が他のサブシステムに与える影響を小さくすることができる。   According to the first aspect of the present invention, a scenario for associating data and events used between the subsystems and / or setting an argument when calling a function included in each subsystem is provided as the subsystem. The influence of subsystem development and design changes on other subsystems can be reduced.

また、本発明の第1の態様において、サブシステムのうちいずれか2つが一体として構築されてもよい。   In the first aspect of the present invention, any two of the subsystems may be constructed as a unit.

本発明の第2の態様は、本発明の第1の態様のHMIシステムが適用された車載ナビゲーション装置である。   The second aspect of the present invention is an in-vehicle navigation device to which the HMI system of the first aspect of the present invention is applied.

本発明によれば、サブシステムの開発や設計変更が他のサブシステムに与える影響を小さくすることが可能なHMIシステム、及びこれを利用した車載ナビゲーション装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the HMI system which can reduce the influence which the development and design change of a subsystem have on other subsystems, and a vehicle-mounted navigation apparatus using the same can be provided.

以下、本発明を実施するための最良の形態について、添付図面を参照しながら実施例を挙げて説明する。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the accompanying drawings.

以下、図1〜14を用いて、本発明に係るHMIシステムを利用した車載ナビゲーション装置の一実施例について説明する。図1は、本発明の一実施例に係る車載ナビゲーション装置1の構成を概念的に示す概念図である。図示する如く、車載ナビゲーション装置1のハードウエア構成は、GPS受信機10と、地図データベース20と、マルチディスプレイ30と、音声入出力装置40と、ナビゲーション装置用ECU(Electronic Control Unit)50と、からなる。   Hereinafter, an embodiment of an in-vehicle navigation device using the HMI system according to the present invention will be described with reference to FIGS. FIG. 1 is a conceptual diagram conceptually showing the configuration of an in-vehicle navigation device 1 according to an embodiment of the present invention. As shown in the figure, the hardware configuration of the in-vehicle navigation device 1 includes a GPS receiver 10, a map database 20, a multi-display 30, a voice input / output device 40, and a navigation device ECU (Electronic Control Unit) 50. Become.

GPS受信機10は、GPS衛星から衛星の軌道と時刻のデータを含む電波信号を受信する。当該受信されたデータは後述するモデル60に送信され、電波信号の時間差に基づく演算により自車両の現在位置(緯度、経度、高度)が取得される。また、自車両の現在位置は、モデル60において、車速センサーやジャイロセンサー等の各種センサーの出力や、ビーコン受信機及びFM多重受信機を介して受信される各種情報に基づいて補正されてよい。   The GPS receiver 10 receives a radio signal including satellite orbit and time data from a GPS satellite. The received data is transmitted to the model 60 to be described later, and the current position (latitude, longitude, altitude) of the host vehicle is acquired by calculation based on the time difference of the radio signal. Further, in the model 60, the current position of the host vehicle may be corrected based on outputs from various sensors such as a vehicle speed sensor and a gyro sensor, and various information received via the beacon receiver and the FM multiplex receiver.

地図データベース20は、例えば、ハードディスクやDVD、CD−ROM等の記憶媒体上に実現されるデータベースであって、一定区間毎に設けられたノード点が接続された態様で道路に関する情報が記憶されている。   The map database 20 is a database realized on a storage medium such as a hard disk, a DVD, or a CD-ROM, and stores road-related information in a manner in which node points provided for each predetermined section are connected. Yes.

マルチディスプレイ30は、例えば、グラフィックシステムとしてVGA(Video Graphics Array)を採用して動画を含む画像表示を行なうと共に、タッチパネルとしてユーザーによる種々の入力操作(経路案内に係る目的地入力等)を可能に構成されたディスプレイ装置である。マルチディスプレイ30は、後述する描画処理部71により制御される。   For example, the multi-display 30 employs a VGA (Video Graphics Array) as a graphic system to display an image including a moving image, and enables various input operations (such as destination input for route guidance) by a user as a touch panel. A configured display device. The multi display 30 is controlled by a drawing processing unit 71 described later.

音声入出力装置40は、音声出力を行なうスピーカー及びマイク等からなる。音声入出力装置40は、後述する音声処理部73により制御される。   The voice input / output device 40 includes a speaker and a microphone that perform voice output. The voice input / output device 40 is controlled by a voice processing unit 73 described later.

ナビゲーション装置用ECU50は、例えば、CPUやROM、RAM等がバスを介して相互に接続されたコンピューターユニットであり、その他、入出力インターフェイスやタイマー、カウンター等を備える。また、こうしたハードウエア構成により、複数のクラスオブジェクト、すなわち、モデル60と、GUI(Graphical User Unterface)メタデータ処理部70と、描画処理部71と、VUI(Voice User Interface)メタデータ処理部72と、音声処理部73と、シナリオメタデータ処理部80と、共有データ81と、イベントシステム82と、を実現する。   The navigation device ECU 50 is, for example, a computer unit in which a CPU, a ROM, a RAM, and the like are connected to each other via a bus, and includes an input / output interface, a timer, a counter, and the like. In addition, with such a hardware configuration, a plurality of class objects, that is, a model 60, a GUI (Graphical User Interface) metadata processing unit 70, a rendering processing unit 71, a VUI (Voice User Interface) metadata processing unit 72, The voice processing unit 73, the scenario metadata processing unit 80, the shared data 81, and the event system 82 are realized.

ここで、モデル60が、MVCモデルにおけるサブシステムの一つであるModel(M)に相当する。また、GUIメタデータ処理部70及び描画処理部71からなるオブジェクト集合が、MVCモデルにおけるサブシステムの一つであるView(V)とController(C)が結合したもの(VC)に相当する。VUIメタデータ処理部72及び音声処理部73からなるオブジェクト集合も同様であり、本実施例では、サブシステム(VC)に相当するオブジェクト集合が2つ存在することとなる。また、シナリオメタデータ処理部80は、本発明に特徴的な部分であり、特許請求の範囲におけるシナリオに相当する。このように、本実施例のナビゲーション装置用ECU50内のサブシステム構造は、いわゆる拡張MVCにシナリオ(S)という新しい概念が付加されて構築されたものである。   Here, the model 60 corresponds to Model (M) which is one of subsystems in the MVC model. An object set including the GUI metadata processing unit 70 and the rendering processing unit 71 corresponds to a combination (VC) of View (V) and Controller (C) which are one of subsystems in the MVC model. The same applies to the object set including the VUI metadata processing unit 72 and the audio processing unit 73. In this embodiment, there are two object sets corresponding to the subsystem (VC). The scenario metadata processing unit 80 is a characteristic part of the present invention and corresponds to a scenario in the claims. Thus, the subsystem structure in the navigation device ECU 50 of this embodiment is constructed by adding a new concept of scenario (S) to the so-called extended MVC.

シナリオメタデータ処理部80は、共有データ81やイベントに関するマッピングを行なうと共に、後述するGUIメタデータやVUIメタデータの状態遷移を制御する。   The scenario metadata processing unit 80 performs mapping related to the shared data 81 and events, and controls state transition of GUI metadata and VUI metadata described later.

図2は、本実施例の車載ナビゲーション装置1が起動され、ユーザーの目的地設定入力を受付可能な状態となるまでの処理を表すシーケンス図である。シーケンス図は、オブジェクト間のメッセージ送信を時系列表現することにより、各オブジェクトがどのように協調動作するのかというシステムの動的な振る舞いを規定する。   FIG. 2 is a sequence diagram showing processing until the vehicle-mounted navigation device 1 according to the present embodiment is activated and a user destination input can be accepted. The sequence diagram defines the dynamic behavior of the system as to how each object cooperates by expressing the message transmission between the objects in time series.

まず、シナリオメタデータ処理部80は、シナリオメタデータの解釈を行なう(S100)。シナリオメタデータは、例えばXML(Extensible Markup Language)等のメタ言語により記述されている。「解釈」とは、コンパイルないしパーシングと称される処理をいう。   First, the scenario metadata processing unit 80 interprets scenario metadata (S100). The scenario metadata is described in a meta language such as XML (Extensible Markup Language). “Interpretation” refers to a process called compiling or parsing.

図3は、シナリオメタデータの記載例である。本図において、scenario要素はルート要素であり、firstState要素はシナリオの初期状態を定義する要素であり、variables要素は共有データ81を定義する要素の親要素であり、variable要素は共有データ81を定義すると共に共有データ81と各サブシステムが定義する共有データの関連(マッピング)を定義する要素の親要素であり、events要素はイベントを定義する要素の親要素であり、event要素はイベントを定義すると共に各サブシステムが定義するイベントの関連(マッピング)を定義する要素の親要素であり、mappingForGUI要素は共有データ81とGUIメタデータにより定義された共有データとの関連(マッピング)を定義する要素であり、mappingForVUI要素は共有データ81とVUIメタデータにより定義された共有データとの関連(マッピング)を定義する要素であり、models要素はモデル60を定義する要素の親要素であり、model要素はモデル60を定義すると共にモデル60の関数(メソッド)を定義する要素の親要素であり、method要素はモデル60の関数(メソッド)を定義すると共に関数(メソッド)の引数を定義する要素の親要素であり、param要素はモデル60の関数(メソッド)の引数を定義する要素であり、states要素はシナリオの状態を定義する要素の親要素であり、state要素はシナリオの状態を定義する要素であり、entryActions要素はその状態に入った直後に実行されるアクションを定義する要素であり、eventsActions要素はその状態で発生したイベントを受けて実行されるアクションを定義する要素であり、callModel要素はモデル60を呼び出すアクションを定義する要素であり、paramVariable要素は呼び出すモデル60に渡す引数を定義する要素であり、paramEvent要素は呼び出すモデル60に渡すイベントを定義する要素であり、initialGUI要素はGUIメタデータの読み込み(初期化)を要求するアクションを定義する要素であり、initialVUI要素はVUIメタデータの読み込み(初期化)を要求するアクションを定義する要素であり、transfer要素はその状態から他の状態に遷移するアクションを定義する要素である。   FIG. 3 is a description example of scenario metadata. In this figure, the scenario element is the root element, the firstState element is the element that defines the initial state of the scenario, the variables element is the parent element of the element that defines the shared data 81, and the variable element defines the shared data 81 And the parent element of the element that defines the association (mapping) of the shared data 81 and the shared data defined by each subsystem, the events element is the parent element of the element that defines the event, and the event element defines the event In addition, the parent element of the element that defines the association (mapping) of the event defined by each subsystem, and the mappingForGUI element is an element that defines the association (mapping) between the shared data 81 and the shared data defined by the GUI metadata. Yes, mapping The orVUI element is an element that defines the association (mapping) between the shared data 81 and the shared data defined by the VUI metadata, the models element is a parent element of the element that defines the model 60, and the model element is the model 60. The method element is a parent element of an element that defines a function (method) of the model 60 and defines an argument of the function (method). A param element is an element that defines an argument of a function (method) of the model 60, a states element is a parent element of an element that defines a scenario state, a state element is an element that defines a scenario state, and an entryActions element Is an element that defines the action to be executed immediately after entering the state The eventsActions element is an element that defines an action that is executed in response to an event that occurs in that state, the callModel element is an element that defines an action that calls the model 60, and the paramVariable element is an argument that is passed to the model 60 to be called. The parameterEvent element is an element that defines an event to be passed to the model 60 to be called, the initialGUI element is an element that defines an action that requires reading (initialization) of GUI metadata, and the initialVUI element is a VUI meta It is an element that defines an action that requests reading (initialization) of data, and a transfer element is an element that defines an action for transitioning from the state to another state.

次に、シナリオメタデータ処理部80は、共有データの領域確保、及びイベントオブジェクト登録を行ない(S102、104)、共有データ及びイベントのマッピング情報(これらが記憶されている領域や形式に関する情報をいう)を、GUIメタデータ処理部70及びVUIメタデータ処理部72に提供する(S106、108)。図3における(A)部は、共有データ宣言、イベント宣言、及びこれらのマッピング情報の定義の一例である。イベントオブジェクト登録は、具体的には、イベントシステム82に各イベントを登録する処理である。   Next, the scenario metadata processing unit 80 secures the shared data area and registers the event object (S102, 104), and maps the shared data and event mapping information (information about the area and format in which these are stored). ) Is provided to the GUI metadata processing unit 70 and the VUI metadata processing unit 72 (S106, 108). Part (A) in FIG. 3 is an example of definitions of shared data declarations, event declarations, and mapping information thereof. Specifically, event object registration is a process of registering each event in the event system 82.

そして、状態遷移の登録を行なう(S110)。状態遷移の登録は、具体的には、図3における(B)部に例示する状態遷移の定義を読み込む処理を行なう。   Then, state transition registration is performed (S110). Specifically, the registration of the state transition is performed by reading the definition of the state transition exemplified in the part (B) in FIG.

状態遷移登録を行なうと、シナリオメタデータを実行する(S112)。シナリオメタデータ処理部80は、初期状態に遷移し(S114)、モデル60、GUIメタデータ処理部70、及びVUIメタデータ処理部72に初期化依頼を行ない(S116、120、122)、待機状態となる。   When the state transition registration is performed, scenario metadata is executed (S112). The scenario metadata processing unit 80 makes a transition to the initial state (S114), makes an initialization request to the model 60, the GUI metadata processing unit 70, and the VUI metadata processing unit 72 (S116, 120, 122), and waits. It becomes.

モデル60は、初期化依頼に応じて初期化処理を行なう(S118)。また、GUIメタデータ処理部70、及びVUIメタデータ処理部72は、初期化依頼に応じて、GUIメタデータ及びVUIメタデータをそれぞれ解釈し(S124、126)、共有データの領域をリンクし(S128、130)、イベントリスナー登録を行なう(S132、134)。イベントリスナー登録とは、イベントの受け手としてのGUIメタデータ処理部70、及びVUIメタデータ処理部72の存在をイベントシステム82に通知する処理である。   The model 60 performs an initialization process in response to the initialization request (S118). Further, the GUI metadata processing unit 70 and the VUI metadata processing unit 72 interpret the GUI metadata and the VUI metadata, respectively, in response to the initialization request (S124, 126), and link the shared data areas ( S128, 130), event listener registration is performed (S132, 134). The event listener registration is a process of notifying the event system 82 of the presence of the GUI metadata processing unit 70 and the VUI metadata processing unit 72 as event receivers.

図4は、GUIメタデータの記載例である。本図において、GUI要素はルート要素であり、firstScene要素はGUIの初期画面を定義する要素であり、variables要素は共有データを定義する要素の親要素であり、variable要素は共有データを定義する要素であり、events要素はイベントを定義する要素の親要素であり、event要素はイベントを定義する要素であり、scenes要素は画面を定義する要素の親要素であり、scene要素は画面を定義する要素であり、vboxLayout要素は垂直方向の配置を定義する要素であり、label要素はラベルを定義する要素であり、button要素はボタンを定義する要素であり、canvas要素はキャンバスを定義する要素であり、innerPart○要素は文字列の%○の箇所に対して置き換える要素であり、throwEvent要素はイベントを発火するアクションを定義する要素であり、entryActions要素はその画面に入った直後に実行されるアクションを定義する要素であり、eventActions要素はその画面で発生したイベントを受けて実行されるアクションを定義する要素であり、draw要素はname属性に指定された画面の描画を行なう要素であり、redraw要素はname属性に指定された画面の再描画を行なう要素である。なお、後述する50音入力の際の処理やメモリ入力の際の処理、Canvasに地図を貼り付ける具体的処理については、本発明の中核をなさないので説明を省略している。   FIG. 4 is a description example of GUI metadata. In this figure, the GUI element is a root element, the first Scene element is an element that defines the initial screen of the GUI, the variables element is a parent element of an element that defines shared data, and the variable element is an element that defines shared data The events element is the parent element of the element that defines the event, the event element is the element that defines the event, the scenes element is the parent element of the element that defines the screen, and the scene element is the element that defines the screen The vboxLayout element is an element that defines vertical arrangement, the label element is an element that defines a label, the button element is an element that defines a button, and the canvas element is an element that defines a canvas, The innerPart ○ element is the% ○ of the character string. Element is an element that defines an action that fires an event, an entryActions element is an element that defines an action that is executed immediately after entering the screen, and an eventActions element is an element that is executed on the screen. It is an element that defines an action to be executed in response to an event that has occurred. The draw element is an element that draws a screen specified by the name attribute. The redraw element performs a redrawing of the screen specified by the name attribute. Is an element. In addition, since the process at the time of 50 sound input mentioned later, the process at the time of memory input, and the specific process which pastes a map on Canvas are not the core of this invention, description is abbreviate | omitted.

図5は、VUIメタデータの記載例である。本図において、VUI要素はルート要素であり、firstTalk要素はVUIの初期対話を定義する要素であり、variables要素は共有データを定義する要素の親要素であり、variable要素は共有データを定義する要素であり、events要素はイベントを定義する要素の親要素であり、event要素はイベントを定義する要素であり、talks要素は対話を定義する要素の親要素であり、talk要素は対話を定義する要素であり、entryActions要素はその対話に入った直後に実行されるアクションを定義する要素であり、eventActions要素はその対話で発生したイベントを受けて実行されるアクションを定義する要素であり、output要素はconntent属性に指定された内容を発話する要素であり、innerPart○要素はconntent属性内の文字列の%○の箇所に対して、置き換える内容を定義する(○の箇所には1から始まる数値の連番が入る)要素であり、input要素は発話を待ち、発話された内容を、variable属性に指定された変数又は共有データを設定すると共に、設定後は個要素に指定されたアクションを実行する要素であり、throwEvent要素はイベントを発火するアクションを定義する要素であり、transfer要素はその対話から他の対話に遷移するアクションを定義する要素である。   FIG. 5 is a description example of VUI metadata. In this figure, the VUI element is a root element, the firstTalk element is an element that defines the initial interaction of the VUI, the variables element is a parent element of an element that defines shared data, and the variable element is an element that defines shared data The events element is the parent element of the element that defines the event, the event element is the element that defines the event, the talks element is the parent element of the element that defines the conversation, and the talk element is the element that defines the conversation The entryActions element is an element that defines an action that is executed immediately after entering the conversation, the eventActions element is an element that defines an action that is executed in response to an event that occurs in the conversation, and the output element is specified in the content attribute The innerPart ○ element is the element that defines the content to be replaced for the% ○ part of the character string in the content attribute (a numerical number starting from 1 is entered in the ○ part) Yes, the input element waits for the utterance, sets the uttered content, the variable or shared data specified in the variable attribute, and executes the action specified in the individual element after setting, the throwEvent element is An element that defines an action that fires an event, and a transfer element is an element that defines an action for transitioning from the dialog to another dialog.

続いて、GUIメタデータ処理部70は、画面遷移登録を行なって(S136)、GUIメタデータを実行する(S138)。その後、画面遷移が開始され(S140)、画面情報が描画処理部71に提供される(S142)。画面情報が提供された描画処理部71では、画面情報を描画するようにマルチディスプレイ30を制御する(S144)。   Subsequently, the GUI metadata processing unit 70 performs screen transition registration (S136) and executes the GUI metadata (S138). Thereafter, screen transition is started (S140), and screen information is provided to the drawing processing unit 71 (S142). The drawing processing unit 71 provided with the screen information controls the multi-display 30 to draw the screen information (S144).

一方、VUIメタデータ処理部72は、対話遷移登録を行なって(S146)、VUIメタデータを実行する(S148)。その後、対話遷移が開始され(S150)、対話情報が音声処理部73に提供される(S152)。対話情報が提供された音声処理部73では、「目的地を設定して下さい」等の音声メッセージを出力するように音声入出力装置40を制御する(S154)。   On the other hand, the VUI metadata processing unit 72 performs dialog transition registration (S146), and executes VUI metadata (S148). Thereafter, dialogue transition is started (S150), and dialogue information is provided to the voice processing unit 73 (S152). The voice processing unit 73 provided with the dialogue information controls the voice input / output device 40 to output a voice message such as “Please set a destination” (S154).

以上の処理により、例えば図6の如き画面が表示されると共に上記音声メッセージが出力され、ユーザーによる目的地入力を待つ状態となる。図7は、この状態から音声による目的地入力が選択され、実際に経路案内が開始されるまでの処理を表すシーケンス図である。   With the above processing, for example, the screen as shown in FIG. 6 is displayed and the voice message is output, and the user enters a state of waiting for the destination input. FIG. 7 is a sequence diagram showing a process from when a destination input by voice is selected in this state until route guidance is actually started.

ユーザーは、図6の表示画面において設けられている複数のボタン、すなわち、50音入力ボタン30A、メモリ入力ボタン30B、及び音声入力ボタン30Cのうち、いずれかにタッチ操作する(S156)。ここでは、音声入力ボタン30Cがタッチ操作されたものとする。   The user touches one of a plurality of buttons provided on the display screen of FIG. 6, that is, the 50 sound input button 30A, the memory input button 30B, and the voice input button 30C (S156). Here, it is assumed that the voice input button 30C is touched.

描画処理部71は、タッチ操作されたボタンを判別し(S158)、タッチ操作されたボタンに対応するボタン番号をGUIメタデータ処理部70に通知する(S160)。GUIメタデータ処理部70は、これに応じて音声入力イベントを発火する(S162)。発火とは、イベントシステム82に登録されたイベントを呼び出す処理である。   The drawing processing unit 71 determines which button has been touched (S158), and notifies the GUI metadata processing unit 70 of the button number corresponding to the touched button (S160). In response to this, the GUI metadata processing unit 70 fires a voice input event (S162). Firing is a process for calling an event registered in the event system 82.

音声入力イベントが発火されると、イベントシステム82は、VUIメタデータ処理部72に音声入力イベントを通知する(S164)。VUIメタデータ処理部72は、これに応じて対話情報を音声処理部73に提供し(S166)、音声処理部73は「目的地をどうぞ」等の音声メッセージを出力するように音声入出力装置40を制御する(S168)。   When the voice input event is fired, the event system 82 notifies the VUI metadata processing unit 72 of the voice input event (S164). In response to this, the VUI metadata processing unit 72 provides the dialogue information to the voice processing unit 73 (S166), and the voice processing unit 73 outputs a voice message such as “Please get your destination”. 40 is controlled (S168).

ユーザーは、音声メッセージに応じて、目的地を発声して入力する(S170)。音声処理部73は、発声された語句を判別し(S172)、発声された語句に対応する語句認識番号をVUIメタデータ処理部72に通知する(S174)。   The user utters and inputs the destination according to the voice message (S170). The voice processing unit 73 discriminates the uttered word (S172), and notifies the VUI metadata processing unit 72 of the word recognition number corresponding to the uttered word (S174).

VUIメタデータ処理部72は、語句認識番号から目的地を判別して(S176)、共有データ81に目的地をセットする(S178)と共に目的地設定イベントを発火する(S180)。   The VUI metadata processing unit 72 determines a destination from the phrase recognition number (S176), sets the destination in the shared data 81 (S178), and fires a destination setting event (S180).

目的地設定イベントが発火されると、イベントシステム82は、シナリオメタデータ処理部80に目的地設定イベントを通知する(S182)。シナリオメタデータ処理部80は、これに応じてモデル60の目的地設定関数を呼び出し、これに所定の引数を与える処理を行なう(S184)。この引数の内容は、例えば、共有データ81にセットされた目的地のアドレス、現在地のアドレス、及び現在地変更イベントである。   When the destination setting event is fired, the event system 82 notifies the scenario metadata processing unit 80 of the destination setting event (S182). In response to this, the scenario metadata processing unit 80 calls the destination setting function of the model 60 and performs a process of giving a predetermined argument thereto (S184). The contents of this argument are, for example, the destination address, current location address, and current location change event set in the shared data 81.

モデル60は、共有データ81に現在地をセットし(S186)、現在地と目的地から最適な経路を地図データベース20において検索する(S188)。そして、現在地変更イベントを発火する(S190)。モデル60は、これ以降、車両の走行に応じて現在地が変更される度に、現在地を変更して(S192)現在地変更イベントを発火する処理を繰り返す。   The model 60 sets the current location in the shared data 81 (S186), and searches the map database 20 for the optimum route from the current location and the destination (S188). Then, the current location change event is fired (S190). Thereafter, the model 60 repeats the process of changing the current location (S192) and firing the current location change event each time the current location is changed according to the traveling of the vehicle.

現在地変更イベントが発火されると、イベントシステム82は、GUIメタデータ処理部70及びVUIメタデータ処理部72に現在地変更イベントを通知する(S194、196)。GUIメタデータ処理部70は、これに応じて経路案内画面の画面情報を描画処理部71に提供する(S198)。描画処理部71では、共有データ81にセットされた現在地を表示するようにマルチディスプレイ30を制御する(S200)。この際の表示画面の一例を図8に示す。また、VUIメタデータ処理部72は、対話情報を音声処理部73に提供する(S202)。音声処理部73では、共有データ81にセットされた現在地を用いて、「現在××を走行中です」等の音声メッセージを出力するように音声入出力装置40を制御する(S204)。   When the current location change event is fired, the event system 82 notifies the current location change event to the GUI metadata processing unit 70 and the VUI metadata processing unit 72 (S194, 196). In response to this, the GUI metadata processing unit 70 provides screen information of the route guidance screen to the drawing processing unit 71 (S198). The drawing processing unit 71 controls the multi-display 30 to display the current location set in the shared data 81 (S200). An example of the display screen at this time is shown in FIG. Further, the VUI metadata processing unit 72 provides the conversation information to the voice processing unit 73 (S202). The voice processing unit 73 uses the current location set in the shared data 81 to control the voice input / output device 40 so as to output a voice message such as “currently running xx” (S204).

ここで、シナリオメタデータ処理部80の如き役割を果たすオブジェクト等を備えないシステムについて考える。例えば、図9に示す如く、モデル60とGUIメタデータ処理部70やVUIメタデータ処理部72が直接的に共有データ81やイベントシステム82に関与するような構成の車載ナビゲーション装置である(図示の都合上、共有データ81とイベントシステム82を一体として示した)。このような装置においては、共有データ81やイベントシステム82に登録されるイベントの態様は、モデル60やGUIメタデータ処理部70、VUIメタデータ処理部72の設計規格に応じて決定される。換言すると、モデル60やGUIメタデータ処理部70、VUIメタデータ処理部72のうち一つの仕様が変更された結果、当該変更されたオブジェクトがやり取りする共有データやイベントの態様が変更されることとなった場合、他のオブジェクトも当該変更された共有データやイベントに対応可能なものに設計変更する必要が生じる。また、他のオブジェクトの関数(メソッド)を呼び出す際にも、呼び出される側のオブジェクトにおいて引数の変更等の仕様変更があった場合、呼び出す側においても引数設定の処理を変更する必要が生じる。この結果、例えば、ある車種の車載ナビゲーション装置を他の車種に適用する場面において、車両サイズの違い等に起因してGUIメタデータ処理部70のみを仕様変更しようとすると、GUIメタデータ処理部70がやりとりする共有データやイベント、関数(メソッド)の引数等が変更される結果、モデル60やVUIメタデータ処理部72も同様に仕様変更しなければならない場合が生じ得る。   Here, consider a system that does not include an object or the like that plays the role of the scenario metadata processing unit 80. For example, as shown in FIG. 9, the model 60, the GUI metadata processing unit 70, and the VUI metadata processing unit 72 are in-vehicle navigation devices configured to directly participate in the shared data 81 and the event system 82 (shown in the figure). For convenience, the shared data 81 and the event system 82 are shown as one unit). In such an apparatus, the mode of events registered in the shared data 81 and the event system 82 is determined according to the design standards of the model 60, the GUI metadata processing unit 70, and the VUI metadata processing unit 72. In other words, as a result of changing one of the specifications of the model 60, the GUI metadata processing unit 70, and the VUI metadata processing unit 72, the mode of shared data and events exchanged by the changed object is changed. In such a case, it is necessary to change the design of the other objects to be compatible with the changed shared data or event. Also, when calling a function (method) of another object, if there is a specification change such as an argument change in the called object, it is necessary to change the argument setting process on the calling side. As a result, for example, in a situation where an in-vehicle navigation device of a certain vehicle type is applied to another vehicle type, if an attempt is made to change the specification of only the GUI metadata processing unit 70 due to a difference in vehicle size, the GUI metadata processing unit 70 As a result of changing shared data, events, function (method) arguments, and the like exchanged with each other, the model 60 and the VUI metadata processing unit 72 may also need to be changed in the same manner.

これでは、システムの再利用を促進するのが困難となり、例えば表示画面のみを変更した車載ナビゲーション装置を再開発する際にも、装置全体を再設計することになりかねない。そこで、本実施例の車載ナビゲーション装置1では、シナリオメタデータ処理部80が、各サブシステムがそれぞれ定義する共有データやイベントの関連付けを行なうと共に関数(メソッド)の必要とする引数が異なる場合の補完や削除を行なっている。これにより、上記の如くいずれかのサブシステムの仕様変更の場面においても、仕様変更を行なったサブシステムとシナリオメタデータのみを変更することで十分となるのである。これにより、サブシステムの開発や設計変更が他のサブシステムに与える影響を小さくする(関係を疎にする)ことができ、ひいてはシステムの再利用を促進することができる。また、シナリオメタデータは,XML等のメタ言語で記述可能であるため、比較的容易に変更可能である。   This makes it difficult to promote system reuse. For example, when an in-vehicle navigation device in which only the display screen is changed is re-developed, the entire device may be redesigned. Therefore, in the in-vehicle navigation device 1 of the present embodiment, the scenario metadata processing unit 80 associates shared data and events defined by each subsystem and complements when the arguments required by the function (method) are different. Or deleting. As a result, even when the specifications of any subsystem are changed as described above, it is sufficient to change only the subsystem and the scenario metadata for which the specification has been changed. As a result, the influence of subsystem development and design changes on other subsystems can be reduced (relative relationship), and system reuse can be promoted. Further, since scenario metadata can be described in a meta language such as XML, it can be changed relatively easily.

なお、図10、11、12、及び13は、それぞれ、以上説明したシーケンス図に対応するシナリオメタデータ処理部80、GUIメタデータ処理部70、VUIメタデータ処理部72、及びモデル60のフローチャートである。各図における動作については、既にシーケンス図に即して説明したものであるため、説明を省略する。   10, 11, 12, and 13 are flowcharts of the scenario metadata processing unit 80, the GUI metadata processing unit 70, the VUI metadata processing unit 72, and the model 60 corresponding to the sequence diagrams described above, respectively. is there. Since the operation in each figure has already been described in accordance with the sequence diagram, description thereof will be omitted.

また、図14は、シナリオメタデータ、GUIメタデータ、及びVUIメタデータの状態遷移図である。   FIG. 14 is a state transition diagram of scenario metadata, GUI metadata, and VUI metadata.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

例えば、拡大MVCに基づいて設計されたシステムに適用された場合を例示したが、通常のMVCに基づいて設計されたシステムにも適用可能である。   For example, although the case where it applied to the system designed based on expansion MVC was illustrated, it is applicable also to the system designed based on normal MVC.

本発明は、自動車産業やソフトウエア関連産業等に利用できる。   The present invention can be used in the automobile industry, software related industries, and the like.

本発明の一実施例に係る車載ナビゲーション装置1の構成を概念的に示す概念図である。It is a conceptual diagram which shows notionally the structure of the vehicle-mounted navigation apparatus 1 which concerns on one Example of this invention. 本実施例の車載ナビゲーション装置1が起動され、ユーザーの目的地設定入力を受付可能な状態となるまでの処理を表すシーケンス図である。It is a sequence diagram showing the process until the vehicle-mounted navigation apparatus 1 of a present Example is started and it will be in the state which can accept a user's destination setting input. シナリオメタデータの記載例である。It is a description example of scenario metadata. GUIメタデータの記載例である。It is a description example of GUI metadata. VUIメタデータの記載例である。It is a description example of VUI metadata. ユーザーによる目的地入力を待つ状態におけるマルチディスプレイ30の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the multi-display 30 in the state which waits for the destination input by a user. ユーザーによる目的地入力を待つ状態から音声による目的地入力が選択され、実際に経路案内が開始されるまでの処理を表すシーケンス図である。FIG. 11 is a sequence diagram showing processing from when a destination input by a user is awaited for destination input by voice to when route guidance is actually started. 経路案内を行なっている際のマルチディスプレイ30の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the multi-display 30 at the time of performing route guidance. 本発明の比較例に相当する車載ナビゲーション装置の構成を概念的に示す概念図である。It is a conceptual diagram which shows notionally the structure of the vehicle-mounted navigation apparatus corresponded to the comparative example of this invention. 図3及び7のシーケンス図に対応するシナリオメタデータ処理部80のフローチャートである。It is a flowchart of the scenario metadata process part 80 corresponding to the sequence diagram of FIG. 図3及び7のシーケンス図に対応するGUIメタデータ処理部70のフローチャートである。FIG. 8 is a flowchart of a GUI metadata processing unit 70 corresponding to the sequence diagrams of FIGS. 3 and 7. FIG. 図3及び7のシーケンス図に対応するVUIメタデータ処理部72のフローチャートである。FIG. 8 is a flowchart of a VUI metadata processing unit 72 corresponding to the sequence diagrams of FIGS. 3 and 7. FIG. 図3及び7のシーケンス図に対応するモデル60のフローチャートである。It is a flowchart of the model 60 corresponding to the sequence diagram of FIG. シナリオメタデータ、GUIメタデータ、及びVUIメタデータの状態遷移図である。It is a state transition diagram of scenario metadata, GUI metadata, and VUI metadata.

符号の説明Explanation of symbols

1 車載ナビゲーション装置
10 GPS受信機
20 地図データベース
30 マルチディスプレイ
30A 50音入力ボタン
30B メモリ入力ボタン
30C 音声入力ボタン
40 音声入出力装置
50 ナビゲーション装置用ECU
60 モデル
70 GUIメタデータ処理部
71 描画処理部
72 VUIメタデータ処理部
73 音声処理部
80 シナリオメタデータ処理部
81 共有データ
82 イベントシステム
DESCRIPTION OF SYMBOLS 1 In-vehicle navigation apparatus 10 GPS receiver 20 Map database 30 Multi-display 30A 50 sound input button 30B Memory input button 30C Voice input button 40 Voice input / output device 50 ECU for navigation apparatus
60 model 70 GUI metadata processing unit 71 drawing processing unit 72 VUI metadata processing unit 73 audio processing unit 80 scenario metadata processing unit 81 shared data 82 event system

Claims (3)

MVC(Model−View−Controller)モデルに基づいて構築され、情報処理を行なうモデルと、ユーザーに対する出力を決定するビューと、ユーザーの入力を認識するコントローラーと、をサブシステムとして備えるHMI(Human Machine Interface)システムであって、
前記各サブシステム間で用いられるデータ及びイベントの関連付け、及び/又は、前記各サブシステムが備える関数を呼び出す際の引数設定を行なうシナリオをサブシステムとして備えることを特徴とする、HMIシステム。
An HMI (Human Machine Interface) is constructed based on an MVC (Model-View-Controller) model, and includes a model that performs information processing, a view that determines an output for the user, and a controller that recognizes the user's input as subsystems. ) System,
An HMI system comprising, as a subsystem, a scenario for associating data and events used between the subsystems and / or setting an argument when calling a function included in the subsystems.
前記サブシステムのうちいずれか2つが一体として構築された請求項1に記載のHMIシステム。   The HMI system according to claim 1, wherein any two of the subsystems are constructed integrally. 請求項1又は2に記載のHMIシステムが適用された車載ナビゲーション装置。   An in-vehicle navigation device to which the HMI system according to claim 1 is applied.
JP2006178699A 2006-06-28 2006-06-28 Hmi system and vehicle-mounted navigation apparatus Pending JP2008008723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006178699A JP2008008723A (en) 2006-06-28 2006-06-28 Hmi system and vehicle-mounted navigation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006178699A JP2008008723A (en) 2006-06-28 2006-06-28 Hmi system and vehicle-mounted navigation apparatus

Publications (1)

Publication Number Publication Date
JP2008008723A true JP2008008723A (en) 2008-01-17

Family

ID=39067072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006178699A Pending JP2008008723A (en) 2006-06-28 2006-06-28 Hmi system and vehicle-mounted navigation apparatus

Country Status (1)

Country Link
JP (1) JP2008008723A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103901307A (en) * 2014-04-22 2014-07-02 上海扬梓投资管理有限公司 Testing system and method applied to vehicle-mounted multimedia device
CN109683896A (en) * 2018-12-28 2019-04-26 重庆矢崎仪表有限公司 Automobile instrument HMI control method and system
CN109947412A (en) * 2019-03-31 2019-06-28 重庆矢崎仪表有限公司 Automobile instrument HMI controls programming system and method
WO2022001745A1 (en) * 2020-06-29 2022-01-06 中国第一汽车股份有限公司 Data instruction processing method and apparatus, vehicle, and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103901307A (en) * 2014-04-22 2014-07-02 上海扬梓投资管理有限公司 Testing system and method applied to vehicle-mounted multimedia device
CN109683896A (en) * 2018-12-28 2019-04-26 重庆矢崎仪表有限公司 Automobile instrument HMI control method and system
CN109947412A (en) * 2019-03-31 2019-06-28 重庆矢崎仪表有限公司 Automobile instrument HMI controls programming system and method
WO2022001745A1 (en) * 2020-06-29 2022-01-06 中国第一汽车股份有限公司 Data instruction processing method and apparatus, vehicle, and storage medium

Similar Documents

Publication Publication Date Title
EP3342666B1 (en) Method and system for operating autonomous driving vehicles using graph-based lane change guide
CN110160552B (en) Navigation information determination method, device, equipment and storage medium
EP3324332B1 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
CN106062514B (en) Interaction between a portable device and a vehicle head unit
US10266182B2 (en) Autonomous-vehicle-control system and method incorporating occupant preferences
US20170083106A1 (en) System and method for gesture-based point of interest search
JP5616142B2 (en) System for automatically posting content using in-vehicle devices linked to mobile devices
KR102040787B1 (en) Systems and methods for providing navigation data to a vehicle
WO2022143570A1 (en) Navigation method, device, and system
JP2006214965A (en) Navigation device and program for enlarged display of intersection
CN108871370A (en) Air navigation aid, device, equipment and medium
WO2023142816A1 (en) Obstacle information determination method and apparatus, and electronic device and storage medium
JP2008008723A (en) Hmi system and vehicle-mounted navigation apparatus
JP7178630B2 (en) VOICE OPERATION METHOD, PROGRAM, VOICE OPERATION SYSTEM, AND MOVING OBJECT
JP2018194976A (en) Message display program, message display device, and message display method
CN108204818B (en) Method and device for determining straight-going relation between roads and hybrid navigation system
CN113811851A (en) User interface coupling
CN110440788B (en) Navigation prompting method crossing single-line road, server and computer readable medium
WO2022205159A1 (en) Vehicle control method and apparatus
JP2015121842A (en) Driving support system, driving support method
JP2017107276A (en) Information processing device, information processing method, and program
JP6708531B2 (en) Spoken dialogue device, spoken dialogue method, and spoken dialogue program
JP2009093532A (en) Road communication system, communication terminal, data reproduction-processing method, and data-reproducing program
US20230025049A1 (en) Multi-modal input-based service provision device and service provision method
CN109272602A (en) Method for recording, device, equipment and the storage medium of unmanned car data