JP2021174236A - Control device, computer program, and control system - Google Patents

Control device, computer program, and control system Download PDF

Info

Publication number
JP2021174236A
JP2021174236A JP2020077480A JP2020077480A JP2021174236A JP 2021174236 A JP2021174236 A JP 2021174236A JP 2020077480 A JP2020077480 A JP 2020077480A JP 2020077480 A JP2020077480 A JP 2020077480A JP 2021174236 A JP2021174236 A JP 2021174236A
Authority
JP
Japan
Prior art keywords
detection signal
voice
function
processing unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020077480A
Other languages
Japanese (ja)
Inventor
しのぶ 佐々木
Shinobu Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2020077480A priority Critical patent/JP2021174236A/en
Publication of JP2021174236A publication Critical patent/JP2021174236A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve operability of a controlled device capable of executing a plurality of functions.SOLUTION: An operation accepting device 11 outputs an operation detection signal OS corresponding to an operation inputted by a user. A voice accepting device 12 outputs a voice detection signal VS corresponding to a voice uttered by the user. A control device 13 outputs a first control signal CS1 for causing a controlled device 14 to execute a first function, on the basis of the operation detection signal OS. When accepting the voice detection signal VS corresponding to a prescribed voice, the control device 13 outputs a second control signal CS2 for causing the controlled device 14 to execute a second function different from the first function, on the basis of the operation detection signal OS.SELECTED DRAWING: Figure 1

Description

本発明は、被制御装置に複数の機能を実行させる制御装置に関連する。本発明は、当該制御装置の処理部により実行されるコンピュータプログラム、および当該制御装置を含む制御システムにも関連する。 The present invention relates to a control device that causes a controlled device to perform a plurality of functions. The present invention also relates to a computer program executed by a processing unit of the control device and a control system including the control device.

特許文献1は、移動体に搭載されて被制御装置の一例である表示装置の動作を制御する制御装置を開示している。当該装置は、当該移動体の乗員の指による操作を受け付ける操作面を有している。操作面に入力された操作に応じて、表示装置の動作が制御される。 Patent Document 1 discloses a control device mounted on a moving body to control the operation of a display device which is an example of a controlled device. The device has an operation surface that accepts operations by the fingers of the occupant of the moving body. The operation of the display device is controlled according to the operation input to the operation surface.

特開2016−115121号公報Japanese Unexamined Patent Publication No. 2016-115121

本発明の目的は、複数の機能を実行可能な被制御装置の操作性を高めることを目的とする。 An object of the present invention is to improve the operability of a controlled device capable of performing a plurality of functions.

上記の目的を達成するための一態様は、制御装置であって、
ユーザにより入力された操作に対応する操作検出信号および当該ユーザが発した音声に対応する音声検出信号を受け付ける受付部と、
前記操作検出信号に基づいて、被制御装置に第一機能を実行させる処理部と、
を備えており、
前記処理部は、前記受付部が規定された音声に対応する前記音声検出信号を受け付けると、前記操作検出信号に基づいて、前記被制御装置に前記第一機能と異なる第二機能を実行させる。
One aspect for achieving the above object is a control device.
A reception unit that receives an operation detection signal corresponding to an operation input by the user and a voice detection signal corresponding to the voice emitted by the user.
A processing unit that causes the controlled device to execute the first function based on the operation detection signal, and
Is equipped with
When the receiving unit receives the voice detection signal corresponding to the specified voice, the processing unit causes the controlled device to execute a second function different from the first function based on the operation detection signal.

上記の目的を達成するための一態様は、制御装置の処理部により実行されるコンピュータプログラムであって、
実行されることにより、前記制御装置に、
ユーザにより入力された操作に対応する操作検出信号に基づいて被制御装置に第一機能を実行させ、
前記ユーザが発した規定された音声に対応する音声検出信号を受け付けた場合、前記操作検出信号に基づいて前記被制御装置に前記第一機能と異なる第二機能を実行させる。
One aspect of achieving the above object is a computer program executed by a processing unit of a control device.
By being executed, the control device
The controlled device is made to execute the first function based on the operation detection signal corresponding to the operation input by the user.
When the voice detection signal corresponding to the specified voice emitted by the user is received, the controlled device is made to execute a second function different from the first function based on the operation detection signal.

上記の目的を達成するための一態様は、制御システムであって、
被制御装置と、
ユーザにより入力された操作に対応する操作検出信号を出力する操作受付装置と、
前記ユーザが発した音声に対応する音声検出信号を出力する音声受付装置と、
前記操作検出信号に基づいて、前記被制御装置に第一機能を実行させる制御装置と、
を備えており、
前記制御装置は、規定された音声に対応する前記音声検出信号を受け付けると、前記操作検出信号に基づいて、前記被制御装置に前記第一機能と異なる第二機能を実行させる。
One aspect of achieving the above objectives is a control system.
Controlled device and
An operation reception device that outputs an operation detection signal corresponding to the operation input by the user,
A voice reception device that outputs a voice detection signal corresponding to the voice emitted by the user, and
A control device that causes the controlled device to execute the first function based on the operation detection signal, and
Is equipped with
When the control device receives the voice detection signal corresponding to the specified voice, the control device causes the controlled device to execute a second function different from the first function based on the operation detection signal.

上記の各態様に係る構成によれば、操作受付装置に入力されるユーザの操作を、被制御装置により実行されうる複数の機能に割り当てることができるだけでなく、第一機能を実行させうる状態から第二機能を実行させうる状態への遷移を、規定された音声を発することによって行なわせることができる。機能の切り替えに際してユーザに与えうるシームレス感が高まるので、複数の機能を実行可能な被制御装置の操作性を高めることができる。 According to the configuration according to each of the above aspects, the user's operation input to the operation receiving device can be assigned not only to a plurality of functions that can be executed by the controlled device, but also from a state in which the first function can be executed. The transition to a state in which the second function can be executed can be performed by emitting a specified voice. Since the seamless feeling that can be given to the user when switching the functions is enhanced, the operability of the controlled device capable of executing a plurality of functions can be enhanced.

一実施形態に係る制御システムの機能構成を例示している。The functional configuration of the control system according to one embodiment is illustrated. 図1の制御システムが搭載される車両を例示している。An example is a vehicle equipped with the control system of FIG. 図1の制御装置により実行される処理の流れを例示している。The flow of processing executed by the control device of FIG. 1 is illustrated. 図1の制御システムの動作を例示している。The operation of the control system of FIG. 1 is illustrated. 図1の制御システムの動作を例示している。The operation of the control system of FIG. 1 is illustrated. 図1の制御システムの動作を例示している。The operation of the control system of FIG. 1 is illustrated.

添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。図1は、一実施形態に係る制御システム10の機能構成を例示している。 An example of the embodiment will be described in detail below with reference to the accompanying drawings. FIG. 1 illustrates the functional configuration of the control system 10 according to the embodiment.

制御システム10は、図2に例示される車室を有する車両20に搭載されうる。車両20は、移動体の一例である。 The control system 10 can be mounted on a vehicle 20 having a passenger compartment illustrated in FIG. The vehicle 20 is an example of a moving body.

図1に例示されるように、制御システム10は、操作受付装置11を備えている。操作受付装置11は、ユーザによる操作を受け付け、当該操作に対応する操作検出信号OSを出力するように構成されている。操作検出信号OSは、アナログ信号であってもよいし、デジタル信号であってもよい。 As illustrated in FIG. 1, the control system 10 includes an operation receiving device 11. The operation receiving device 11 is configured to receive an operation by the user and output an operation detection signal OS corresponding to the operation. The operation detection signal OS may be an analog signal or a digital signal.

一例として、操作受付装置11は、図2に例示されるステアリングホイール21やセンタクラスタ22に搭載されたタッチパッド装置でありうる。別例として、操作受付装置11は、センタクラスタ22に配置された表示装置23の一部であるタッチパネル装置でありうる。 As an example, the operation receiving device 11 may be a touch pad device mounted on the steering wheel 21 or the center cluster 22 illustrated in FIG. As another example, the operation receiving device 11 may be a touch panel device that is a part of the display device 23 arranged in the center cluster 22.

図1に例示されるように、制御システム10は、音声受付装置12を備えている。音声受付装置12は、ユーザが発した音声を検出し、当該音声に対応する音声検出信号VSを出力するように構成されている。音声受付装置12は、例えば車両20の車室における適宜の位置に配置された集音マイク装置により実現されうる。音声検出信号VSは、アナログ信号であってもよいし、デジタル信号であってもよい。 As illustrated in FIG. 1, the control system 10 includes a voice receiving device 12. The voice receiving device 12 is configured to detect the voice emitted by the user and output the voice detection signal VS corresponding to the voice. The voice receiving device 12 can be realized by, for example, a sound collecting microphone device arranged at an appropriate position in the vehicle interior of the vehicle 20. The voice detection signal VS may be an analog signal or a digital signal.

制御システム10は、制御装置13を含んでいる。制御装置13は、受付部131と処理部132を備えている。受付部131は、操作受付装置11から操作検出信号OSを受け付け、音声受付装置12から音声検出信号VSを受け付けるように構成されている。操作検出信号OSと音声検出信号VSの少なくとも一方がアナログ信号である場合、受付部131は、A/Dコンバータを含む適宜の変換回路を備えうる。処理部132は、デジタルデータの形態である操作検出信号OSと音声検出信号VSを、処理の対象とする。 The control system 10 includes a control device 13. The control device 13 includes a reception unit 131 and a processing unit 132. The reception unit 131 is configured to receive the operation detection signal OS from the operation reception device 11 and the voice detection signal VS from the voice reception device 12. When at least one of the operation detection signal OS and the voice detection signal VS is an analog signal, the reception unit 131 may include an appropriate conversion circuit including an A / D converter. The processing unit 132 processes the operation detection signal OS and the voice detection signal VS, which are in the form of digital data.

制御装置13は、出力部133を備えている。処理部132は、操作検出信号OSに基づいて第一制御信号CS1と第二制御信号CS2のいずれかを出力部133から出力するように構成されている。第一制御信号CS1と第二制御信号CS2は、アナログ信号であってもよいし、デジタル信号であってもよい。第一制御信号CS1と第二制御信号CS2がアナログ信号である場合、出力部133は、D/Aコンバータを含む適宜の変換回路を備えうる。 The control device 13 includes an output unit 133. The processing unit 132 is configured to output either the first control signal CS1 or the second control signal CS2 from the output unit 133 based on the operation detection signal OS. The first control signal CS1 and the second control signal CS2 may be analog signals or digital signals. When the first control signal CS1 and the second control signal CS2 are analog signals, the output unit 133 may include an appropriate conversion circuit including a D / A converter.

制御システム10は、被制御装置14を含んでいる。出力部133から出力された第一制御信号CS1と第二制御信号CS2は、被制御装置14に入力される。被制御装置14は、第一制御信号CS1に基づいて第一機能を実行し、第二制御信号CS2に基づいて第二機能を実行するように構成されている。第一機能と第二機能は、相違している。すなわち、被制御装置14は、操作受付装置11から出力された操作検出信号OSに基づいて、第一機能と第二機能のいずれかを実行するように構成されている。 The control system 10 includes a controlled device 14. The first control signal CS1 and the second control signal CS2 output from the output unit 133 are input to the controlled device 14. The controlled device 14 is configured to execute the first function based on the first control signal CS1 and execute the second function based on the second control signal CS2. The first function and the second function are different. That is, the controlled device 14 is configured to execute either the first function or the second function based on the operation detection signal OS output from the operation receiving device 11.

図3は、上記のように構成された制御装置13の処理部132により実行される処理の流れを例示している。 FIG. 3 illustrates a flow of processing executed by the processing unit 132 of the control device 13 configured as described above.

処理部132は、受付部131が操作受付装置11から操作検出信号OSを受け付けたかを判断する(STEP1)。操作検出信号OSが受け付けられるまで、当該判断が繰り返される(STEP1においてNO)。 The processing unit 132 determines whether the reception unit 131 has received the operation detection signal OS from the operation reception device 11 (STEP 1). The determination is repeated until the operation detection signal OS is accepted (NO in STEP1).

受付部131が操作受付装置11から操作検出信号OSを受け付けたと判断されると(STEP1においてYES)、処理部132は、第一制御信号CS1を、出力部133を通じて被制御装置14に送信する(STEP2)。第一制御信号CS1は、操作受付装置11が受け付けたユーザの操作に基づいて被制御装置14に第一機能に係る動作を実行させる。 When it is determined that the reception unit 131 has received the operation detection signal OS from the operation reception device 11 (YES in STEP 1), the processing unit 132 transmits the first control signal CS1 to the controlled device 14 through the output unit 133 (YES in STEP 1). STEP2). The first control signal CS1 causes the controlled device 14 to execute the operation related to the first function based on the user's operation received by the operation receiving device 11.

続いて、処理部132は、受付部131が音声受付装置12から予め規定された特定の音声に対応する音声検出信号VSを受け付けたかを判断する(STEP3)。当該音声に対応する音声検出信号VSが受け付けられていないと判断されると(STEP3においてNO)、処理はSTEP1に戻る。 Subsequently, the processing unit 132 determines whether the reception unit 131 has received the voice detection signal VS corresponding to the specific voice specified in advance from the voice reception device 12 (STEP 3). If it is determined that the voice detection signal VS corresponding to the voice is not accepted (NO in STEP3), the process returns to STEP1.

受付部131が音声受付装置12から予め規定された特定の音声に対応する音声検出信号VSを受け付けたと判断されると(STEP3においてYES)、処理部132は、操作検出信号OSに基づいて第一制御信号CS1を出力する状態から操作検出信号OSに基づいて第二制御信号CS2を出力する状態へと遷移する。 When it is determined that the reception unit 131 has received the voice detection signal VS corresponding to the specific voice specified in advance from the voice reception device 12 (YES in STEP 3), the processing unit 132 first determines based on the operation detection signal OS. The transition from the state of outputting the control signal CS1 to the state of outputting the second control signal CS2 based on the operation detection signal OS.

続いて、処理部132は、受付部131が操作受付装置11から操作検出信号OSを受け付けたかを判断する(STEP4)。操作検出信号OSが受け付けられるまで、当該判断が繰り返される(STEP4においてNO)。 Subsequently, the processing unit 132 determines whether the reception unit 131 has received the operation detection signal OS from the operation reception device 11 (STEP 4). The determination is repeated until the operation detection signal OS is accepted (NO in STEP4).

受付部131が操作受付装置11から操作検出信号OSを受け付けたと判断されると(STEP4においてYES)、処理部132は、第二制御信号CS2を、出力部133を通じて被制御装置14に送信する(STEP5)。第二制御信号CS2は、操作受付装置11が受け付けたユーザの操作に基づいて被制御装置14に第二機能に係る動作を実行させる。 When it is determined that the reception unit 131 has received the operation detection signal OS from the operation reception device 11 (YES in STEP 4), the processing unit 132 transmits the second control signal CS2 to the controlled device 14 through the output unit 133 (YES in STEP4). STEP5). The second control signal CS2 causes the controlled device 14 to execute the operation related to the second function based on the user's operation received by the operation receiving device 11.

上記のような構成によれば、操作受付装置11に入力されるユーザの操作を、被制御装置14により実行されうる複数の機能に割り当てることができるだけでなく、第一機能を実行させうる状態から第二機能を実行させうる状態への遷移を、規定された音声を発することによって行なわせることができる。機能の切り替えに際してユーザに与えうるシームレス感が高まるので、複数の機能を実行可能な被制御装置14の操作性を高めることができる。 According to the above configuration, the user's operation input to the operation receiving device 11 can be assigned not only to a plurality of functions that can be executed by the controlled device 14, but also from a state in which the first function can be executed. The transition to a state in which the second function can be executed can be performed by emitting a specified voice. Since the seamless feeling that can be given to the user when switching the functions is enhanced, the operability of the controlled device 14 capable of executing a plurality of functions can be enhanced.

一例として、被制御装置14は、図2に例示される表示装置23でありうる。表示装置23は、カーナビゲーションシステムに係る地図情報や、音響映像機器に係るライブラリ情報などを、画像として表示するように構成されている。表示装置23は、第一機能として、操作受付装置11に入力されたユーザの操作に対応する方向へ当該画像をスクロールする。表示装置23は、第二機能として、当該画像上に操作受付装置11に入力されたユーザの操作に対応する描画を表示する。 As an example, the controlled device 14 can be the display device 23 illustrated in FIG. The display device 23 is configured to display map information related to a car navigation system, library information related to an audiovisual device, and the like as images. As the first function, the display device 23 scrolls the image in the direction corresponding to the user's operation input to the operation reception device 11. As a second function, the display device 23 displays a drawing corresponding to the user's operation input to the operation reception device 11 on the image.

図4から図6を参照しつつ、表示装置23を被制御装置14として含む制御システム10の動作の例を説明する。各図においては、表示装置23に表示される画像として、カーナビゲーションシステムに係る地図画像Mが例示されている。本例においては、操作受付装置11は、表示装置23において地図画像Mが表示される画面の少なくとも一部に設けられたタッチパネル装置である。タッチパネル装置は、各図において例示されている画像の少なくとも一部に重なるように配置されている。 An example of the operation of the control system 10 including the display device 23 as the controlled device 14 will be described with reference to FIGS. 4 to 6. In each figure, a map image M related to a car navigation system is exemplified as an image displayed on the display device 23. In this example, the operation reception device 11 is a touch panel device provided on at least a part of the screen on which the map image M is displayed on the display device 23. The touch panel device is arranged so as to overlap at least a part of the images illustrated in each figure.

図4に例示される初期状態において、表示装置23においては第一機能が有効にされている。ユーザがタッチパネル装置の表面をなぞる操作を行なうと、表示装置23に表示されている地図画像Mが、なぞられた方向にスクロールする。すなわち、第一機能は、ユーザが所望する地図上の場所を表示装置23の画面内に位置させる操作を支援する。 In the initial state illustrated in FIG. 4, the first function is enabled in the display device 23. When the user performs an operation of tracing the surface of the touch panel device, the map image M displayed on the display device 23 scrolls in the traced direction. That is, the first function supports an operation of locating a place on the map desired by the user within the screen of the display device 23.

図4に例示される動作を、再び図3を参照して説明する。制御装置13の処理部132は、操作受付装置11としてのタッチパネル装置の表面をなぞる操作に対応する操作検出信号OSを受付部131が受け付けたかを判断する(STEP1)。 The operation illustrated in FIG. 4 will be described again with reference to FIG. The processing unit 132 of the control device 13 determines whether the reception unit 131 has received the operation detection signal OS corresponding to the operation of tracing the surface of the touch panel device as the operation reception device 11 (STEP 1).

ユーザによるなぞり操作が行なわれると、受付部131は、なぞり方向に対応する操作検出信号OSを受け付ける。例えば、操作検出信号OSは、タッチパネル装置上において静電容量の変化が生じた位置の経時変化を情報として含みうる。処理部132は、当該位置の移動方向に基づいて、なぞり操作の方向を判断しうる。 When the tracing operation is performed by the user, the reception unit 131 receives the operation detection signal OS corresponding to the tracing direction. For example, the operation detection signal OS may include the time-dependent change of the position where the change in capacitance occurs on the touch panel device as information. The processing unit 132 can determine the direction of the tracing operation based on the moving direction of the position.

処理部132は、なぞり操作に対応する方向へ表示装置23に表示された地図画像Mをスクロールさせる第一制御信号CS1を、出力部133から出力する(STEP2)。 The processing unit 132 outputs the first control signal CS1 that scrolls the map image M displayed on the display device 23 in the direction corresponding to the tracing operation from the output unit 133 (STEP2).

本例においては、表示装置23は、特定の施設の位置を地図画像上に表示させる機能を有している。特定の施設の例としては、駐車場、ガソリンスタンド、コンビニエンスストア、各種の飲食店などが挙げられる。表示装置23の第二機能は、特定の施設の位置を地図画像M上に表示させるための条件設定を支援する。具体的には、特定の施設の位置表示を希望する地図上の範囲を指定するために、タッチパネル装置に対するなぞり操作が使用される。 In this example, the display device 23 has a function of displaying the position of a specific facility on a map image. Examples of specific facilities include parking lots, gas stations, convenience stores, and various restaurants. The second function of the display device 23 supports the setting of conditions for displaying the position of a specific facility on the map image M. Specifically, a tracing operation on the touch panel device is used to specify a range on a map in which the location of a specific facility is desired to be displayed.

表示装置23の第二機能を有効にするために、ユーザは、所望の情報に対応する語を発話する。例えば、ユーザは、地図上の特定の範囲内に位置している駐車場の位置を知りたい場合、「駐車場」と発話する。「駐車場」は、予め規定された音声の一例である。 In order to enable the second function of the display device 23, the user speaks a word corresponding to the desired information. For example, when a user wants to know the location of a parking lot located within a specific range on a map, he or she speaks "parking lot". "Parking lot" is an example of a predetermined voice.

音声受付装置12により「駐車場」という音声が受け付けられると、表示装置23において第二機能が有効とされ、地図上の特定の範囲を指定する操作を受け付ける状態へ遷移する。図5に例示されるように、ユーザがタッチパネル装置の表面をなぞる操作を行なうと、当該操作に追随するように線Lが地図画像M上に描画される。線Lは、ユーザが所望する地図上の範囲を指定するために使用される。 When the voice reception device 12 receives the voice "parking lot", the display device 23 activates the second function and transitions to a state of accepting an operation for designating a specific range on the map. As illustrated in FIG. 5, when the user performs an operation of tracing the surface of the touch panel device, a line L is drawn on the map image M so as to follow the operation. The line L is used to specify a range on the map that the user wants.

具体的には、処理部132は、線Lで描かれた図形によって囲まれた地図上の領域に対応する地理的位置情報を、検索条件として取得する。地理的位置情報は、例えば緯度の範囲と経度の範囲の組合せとして得られる。 Specifically, the processing unit 132 acquires the geographical position information corresponding to the area on the map surrounded by the figure drawn by the line L as a search condition. Geolocation information is obtained, for example, as a combination of latitude range and longitude range.

図1に例示されるように、制御装置13は、記憶部134を備えている。記憶部134は、表示装置23に表示される地図画像Mに含まれうる各種のデータを記憶している。記憶部134は、半導体メモリやハードディスク装置によって実現されうる。 As illustrated in FIG. 1, the control device 13 includes a storage unit 134. The storage unit 134 stores various data that can be included in the map image M displayed on the display device 23. The storage unit 134 can be realized by a semiconductor memory or a hard disk device.

線Lにより特定の領域が指定されると、処理部132は、記憶部134に保存されている駐車場の位置データのうち当該領域に含まれているものを検索する。具体的には、処理部132は、記憶部134に保存されたデータのうち、線Lにより描かれた図形に囲まれた領域内に対応する地理的位置情報と、「駐車場」という種別情報の双方を有するデータが検索される。その結果、図6に例示されるように、指定された領域内に位置する駐車場の位置Pが、地図画像M上に表示される。 When a specific area is designated by the line L, the processing unit 132 searches for the parking lot position data stored in the storage unit 134 that is included in the area. Specifically, the processing unit 132 includes the geographical position information corresponding to the area surrounded by the figure drawn by the line L among the data stored in the storage unit 134, and the type information of "parking lot". Data having both of the above is searched. As a result, as illustrated in FIG. 6, the position P of the parking lot located in the designated area is displayed on the map image M.

図5と図6に例示される動作を、再び図3を参照して説明する。制御装置13の処理部132は、「駐車場」という音声に対応する音声検出信号VSを受付部131が受け付けたかを判断する(STEP3)。 The operations illustrated in FIGS. 5 and 6 will be described again with reference to FIG. The processing unit 132 of the control device 13 determines whether the reception unit 131 has received the voice detection signal VS corresponding to the voice “parking lot” (STEP 3).

処理部132は、音声検出信号VSに対応する音声情報と記憶部134に予め記憶されている「駐車場」という音声情報の一致度を判断する。処理部132は、当該一致度が閾値を上回る場合に、「駐車場」という音声に対応する音声検出信号VSを受付部131が受け付けたと判断する。 The processing unit 132 determines the degree of coincidence between the voice information corresponding to the voice detection signal VS and the voice information "parking lot" stored in advance in the storage unit 134. When the degree of agreement exceeds the threshold value, the processing unit 132 determines that the reception unit 131 has received the voice detection signal VS corresponding to the voice "parking lot".

「駐車場」という音声に対応する音声検出信号VSを受付部131が受け付けたと判断されると、処理部132は、操作検出信号OSに基づいて第一制御信号CS1を出力する状態から操作検出信号OSに基づいて第二制御信号CS2を出力する状態へと遷移する。 When it is determined that the reception unit 131 has received the voice detection signal VS corresponding to the voice "parking lot", the processing unit 132 outputs the first control signal CS1 based on the operation detection signal OS, and then the operation detection signal. It transitions to the state of outputting the second control signal CS2 based on the OS.

続いて、処理部132は、操作受付装置11としてのタッチパネル装置の表面をなぞる操作に対応する操作検出信号OSを受付部131が受け付けたかを判断する(STEP4)。 Subsequently, the processing unit 132 determines whether the reception unit 131 has received the operation detection signal OS corresponding to the operation of tracing the surface of the touch panel device as the operation reception device 11 (STEP 4).

ユーザによるなぞり操作が行なわれると、受付部131は、なぞり軌跡に対応する操作検出信号OSを受け付ける。処理部132は、タッチパネル装置上において静電容量の変化が生じた位置の経時変化に基づいて、なぞり軌跡を判断しうる。 When the tracing operation is performed by the user, the reception unit 131 receives the operation detection signal OS corresponding to the tracing locus. The processing unit 132 can determine the tracing locus based on the time-dependent change of the position where the change in capacitance occurs on the touch panel device.

処理部132は、地図画像M上においてなぞり軌跡に追随する線Lを表示装置23に描画させる第二制御信号CS2を、出力部133から出力する(STEP5)。 The processing unit 132 outputs a second control signal CS2 from the output unit 133 to cause the display device 23 to draw a line L following the trace locus on the map image M (STEP 5).

本例のような構成によれば、タッチパネル装置に入力されるユーザの同じ操作を、表示装置23により実行されうる複数の機能に割り当てることができるだけでなく、第一機能を実行させうる状態から第二機能を実行させうる状態への遷移を、規定された音声を発することによって行なわせることができる。機能を切り替える操作のために指をタッチパネル装置から離す必要がないので、ユーザに与えうるシームレス感をより高めることができる。 According to the configuration as in this example, the same operation of the user input to the touch panel device can be assigned not only to a plurality of functions that can be executed by the display device 23, but also from a state in which the first function can be executed. (Ii) The transition to a state in which the function can be executed can be performed by emitting a specified voice. Since it is not necessary to remove the finger from the touch panel device for the operation of switching the function, the seamless feeling that can be given to the user can be further enhanced.

操作受付装置11がステアリングホイール21やセンタクラスタ22に搭載されたタッチパッド装置により実現される場合においても、同様の効果が期待できる。 The same effect can be expected when the operation reception device 11 is realized by the touch pad device mounted on the steering wheel 21 or the center cluster 22.

本例の場合、処理部132は、「駐車場」という語に対応する音声検出信号VSに基づいて「駐車場」の位置の検索を行ない、当該位置の検索結果を表示装置23に表示させている。すなわち、処理部132は、検索支援機能を有効にするための語に対応する音声検出信号VSに基づいてデータ検索を行ない、当該データ検索の結果を表示装置23に表示させている。検索に供される語の発話を、スクロール機能が有効な状態から検索支援機能が有効な状態への遷移のトリガとして使用しているので、検索動作への移行に際してユーザに与えうるシームレス性を高めることができる。 In the case of this example, the processing unit 132 searches for the position of the "parking lot" based on the voice detection signal VS corresponding to the word "parking lot", and displays the search result of the position on the display device 23. There is. That is, the processing unit 132 performs a data search based on the voice detection signal VS corresponding to the word for enabling the search support function, and displays the result of the data search on the display device 23. Since the utterance of the word used for the search is used as a trigger for the transition from the state in which the scroll function is enabled to the state in which the search support function is enabled, the seamlessness that can be given to the user when transitioning to the search operation is enhanced. be able to.

しかしながら、図3に例示されるように、第一機能が有効な状態から第二機能が有効な状態への遷移は、制御装置13による音声認識機能が起動されることによってなされてもよい。音声認識機能の起動は、例えば、ステアリングホイール21やセンタクラスタ22における適宜の位置に配置された起動スイッチが操作されることによってなされうる。あるいは、ユーザによるキーワードの発話が音声受付装置12を通じて検出されることによって音声認識機能が起動されてもよい。キーワードの例としては、「検索して」、「教えて」などが挙げられる。 However, as illustrated in FIG. 3, the transition from the state in which the first function is enabled to the state in which the second function is enabled may be made by activating the voice recognition function by the control device 13. The voice recognition function can be activated, for example, by operating an activation switch arranged at an appropriate position on the steering wheel 21 or the center cluster 22. Alternatively, the voice recognition function may be activated by detecting the utterance of the keyword by the user through the voice reception device 12. Examples of keywords include "search" and "tell me".

具体的には、第一機能が有効な状況下において、処理部132は、上記のような手法を通じて音声認識機能が起動されたかを判断する(STEP6)。音声認識機能が起動されていないと判断された場合(STEP6においてNO)、処理はSTEP1に戻る。音声認識機能が起動されたと判断された場合(STEP6においてYES)、第二機能が有効な状態へ遷移し、処理はSTEP3に進む。 Specifically, in a situation where the first function is effective, the processing unit 132 determines whether the voice recognition function has been activated through the above method (STEP 6). If it is determined that the voice recognition function has not been activated (NO in STEP 6), the process returns to STEP 1. When it is determined that the voice recognition function has been activated (YES in STEP 6), the state transitions to the state in which the second function is enabled, and the process proceeds to STEP 3.

このような構成によれば、予め規定された語がユーザの会話の中に偶然含まれた場合に、第二機能が有効な状態への遷移が予期せずなされる事態の発生を抑制できる。 According to such a configuration, when a predetermined word is accidentally included in the conversation of the user, it is possible to suppress the occurrence of a situation in which the transition to the state in which the second function is enabled is unexpectedly made.

これまで説明した各種の機能を有する処理部132は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している記憶媒体の一例である。プロセッサは、ROM上に記憶されたコンピュータプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。記憶部134は、上記の汎用メモリによって実現されてもよい。 The processing unit 132 having various functions described so far can be realized by a general-purpose microprocessor that operates in cooperation with a general-purpose memory. Examples of general-purpose microprocessors include CPUs, MPUs, and GPUs. A ROM or RAM can be exemplified as a general-purpose memory. In this case, the ROM may store a computer program that executes the above-described processing. The ROM is an example of a storage medium that stores a computer program. The processor specifies at least a part of the computer program stored in the ROM, expands it on the RAM, and performs the above-described processing in cooperation with the RAM. The storage unit 134 may be realized by the general-purpose memory described above.

これまで説明した各種の機能を有する処理部132は、マイクロコントローラ、ASIC、FPGAなどの上記のコンピュータプログラムを実行可能な専用集積回路によって実現されてもよい。この場合、当該専用集積回路に含まれる記憶素子に上記のコンピュータプログラムがプリインストールされる。当該記憶素子は、コンピュータプログラムを記憶している記憶媒体の一例である。記憶部134は、当該記憶素子により実現されてもよい。処理部132は、汎用マイクロプロセッサと専用集積回路の組合せによっても実現されうる。 The processing unit 132 having various functions described so far may be realized by a dedicated integrated circuit capable of executing the above-mentioned computer program such as a microcontroller, ASIC, and FPGA. In this case, the above computer program is pre-installed in the storage element included in the dedicated integrated circuit. The storage element is an example of a storage medium that stores a computer program. The storage unit 134 may be realized by the storage element. The processing unit 132 can also be realized by a combination of a general-purpose microprocessor and a dedicated integrated circuit.

第二機能に係る検索処理を実行する汎用マイクロプロセッサまたは専用集積回路は、操作検出信号OSに基づいて適当な第一制御信号CS1または第二制御信号CS2を生成する処理を実行する汎用マイクロプロセッサまたは専用集積回路とは異なっていてもよい。 The general-purpose microprocessor or dedicated integrated circuit that executes the search process related to the second function is a general-purpose microprocessor or a general-purpose microprocessor that executes a process of generating an appropriate first control signal CS1 or second control signal CS2 based on the operation detection signal OS. It may be different from the dedicated integrated circuit.

記憶部134は、制御装置13と通信ネットワークを介してデータの送受信が可能とされたサーバ装置により実現されてもよい。 The storage unit 134 may be realized by a server device capable of transmitting and receiving data via the control device 13 and the communication network.

上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。 The above embodiments are merely examples for facilitating the understanding of the present invention. The configuration according to the above embodiment may be appropriately changed or improved without departing from the spirit of the present invention.

図4から図6を参照して説明した例においては、表示装置23に地図画像Mが表示され、特定の施設の位置を表示させる地図上の範囲を限定する線Lを描画するために、なぞり操作が使用されている。すなわち、特定の施設の位置が、検索される情報の一例である。しかしながら、表示装置23に表示される画像は地図画像Mに限られず、検索される情報は特定の施設の位置に限られない。 In the example described with reference to FIGS. 4 to 6, the map image M is displayed on the display device 23, and the line L is traced in order to draw a line L that limits the range on the map for displaying the position of a specific facility. The operation is being used. That is, the location of a specific facility is an example of information to be searched. However, the image displayed on the display device 23 is not limited to the map image M, and the information to be searched is not limited to the location of a specific facility.

例えば、音響映像機器によって再生可能な音楽コンテンツや映像コンテンツのライブラリリストやプレイリストが、表示装置23に表示されうる。この場合、第二機能においてなぞり操作を通じて描画される線は、表示されたリストから特定のジャンルやアーティストなどを限定するために使用されうる。また、なぞり操作を通じて表示装置23に表示される描画は、図形に限られない。例えば、表示されたリストから特定の頭文字を有するジャンルやアーティストを限定するために、当該頭文字が描画されてもよい。 For example, a library list or playlist of music content or video content that can be played by an audiovisual device can be displayed on the display device 23. In this case, the line drawn through the tracing operation in the second function can be used to limit a specific genre, artist, or the like from the displayed list. Further, the drawing displayed on the display device 23 through the tracing operation is not limited to the figure. For example, in order to limit the genres and artists having a specific acronym from the displayed list, the acronym may be drawn.

上記の実施形態においては、図3に例示されるように、第二機能に基づく検索結果の表示後に処理が終了する。しかしながら、同図に破線で示されるように、制御装置13は、第二機能を有効にしたまま次の操作検出信号OSの受け付けを待機しうる。この場合、第二機能が有効な状態から第一機能が有効な状態へ遷移させるための操作検出信号OSまたは音声検出信号VSが定められうる。 In the above embodiment, as illustrated in FIG. 3, the process ends after the search result based on the second function is displayed. However, as shown by the broken line in the figure, the control device 13 can wait for the reception of the next operation detection signal OS while the second function is enabled. In this case, the operation detection signal OS or the voice detection signal VS for transitioning from the state in which the second function is valid to the state in which the first function is valid can be defined.

上記の実施形態においては、ユーザに情報を提供する画像は、表示装置23の一部である画面に表示されている。しかしながら、表示装置23は、図2に例示されるフロントガラス24に所定の情報を含む画像を投影するプロジェクタ装置でありうる。 In the above embodiment, the image that provides information to the user is displayed on a screen that is a part of the display device 23. However, the display device 23 can be a projector device that projects an image containing predetermined information on the windshield 24 illustrated in FIG.

上記の実施形態に係る制御システム10は、車両20に搭載されうる。車両20のような移動体の運転者がユーザである場合、表示装置23を目視できる時間が限られる。しかしながら、上記の実施形態に係る構成によれば、規定された音声を発することによって操作受付装置11に対する操作が割り当てられた機能を変更できるので、表示装置23を目視する時間を短縮できる。 The control system 10 according to the above embodiment can be mounted on the vehicle 20. When the driver of a moving body such as the vehicle 20 is a user, the time during which the display device 23 can be visually observed is limited. However, according to the configuration according to the above embodiment, the function to which the operation assigned to the operation receiving device 11 is assigned can be changed by emitting the specified voice, so that the time for visually observing the display device 23 can be shortened.

制御システム10は、車両20以外の移動体にも適用されうる。他の移動体の例としては、鉄道、航空機、船舶などが挙げられる。操作受付装置11に対する操作が割り当てられる被制御装置14の複数の機能は、移動体の種別に応じて適宜に定められうる。 The control system 10 can be applied to a moving body other than the vehicle 20. Examples of other mobiles include railroads, aircraft, ships and the like. The plurality of functions of the controlled device 14 to which the operation for the operation receiving device 11 is assigned can be appropriately determined according to the type of the moving body.

制御システム10に含まれる操作受付装置11、音声受付装置12、制御装置13、および被制御装置14の少なくとも一つは、移動体に搭載されることを要しない。例えば、ユーザによる携帯が可能なモバイル装置が操作受付装置11と音声受付装置12を備えており、制御装置13と被制御装置14を備えた据置型の装置に対して操作検出信号OSと音声検出信号VSを無線送信する構成が採用されうる。 At least one of the operation reception device 11, the voice reception device 12, the control device 13, and the controlled device 14 included in the control system 10 does not need to be mounted on the moving body. For example, a mobile device that can be carried by a user includes an operation reception device 11 and a voice reception device 12, and an operation detection signal OS and voice detection for a stationary device including the control device 13 and the controlled device 14. A configuration in which the signal VS is transmitted wirelessly may be adopted.

10:制御システム、11:操作受付装置、12:音声受付装置、13:制御装置、131:受付部、132:処理部、14:被制御装置、20:車両、23:表示装置、M:地図画像、OS:操作検出信号、P:駐車場の位置、VS:音声検出信号 10: Control system, 11: Operation reception device, 12: Voice reception device, 13: Control device, 131: Reception unit, 132: Processing unit, 14: Controlled device, 20: Vehicle, 23: Display device, M: Map Image, OS: Operation detection signal, P: Parking lot position, VS: Voice detection signal

Claims (8)

ユーザにより入力された操作に対応する操作検出信号および当該ユーザが発した音声に対応する音声検出信号を受け付ける受付部と、
前記操作検出信号に基づいて、被制御装置に第一機能を実行させる処理部と、
を備えており、
前記処理部は、前記受付部が規定された音声に対応する前記音声検出信号を受け付けると、前記操作検出信号に基づいて、前記被制御装置に前記第一機能と異なる第二機能を実行させる、
制御装置。
A reception unit that receives an operation detection signal corresponding to an operation input by the user and a voice detection signal corresponding to the voice emitted by the user.
A processing unit that causes the controlled device to execute the first function based on the operation detection signal, and
Is equipped with
When the receiving unit receives the voice detection signal corresponding to the specified voice, the processing unit causes the controlled device to execute a second function different from the first function based on the operation detection signal.
Control device.
前記被制御装置は、表示装置であり、
前記処理部は、前記第一機能として、前記表示装置により表示される画像を前記操作に対応する方向へスクロールさせるとともに、前記第二機能として、当該表示装置に前記操作に対応する描画を当該画像上に表示させる、
請求項1に記載の制御装置。
The controlled device is a display device and
As the first function, the processing unit scrolls the image displayed by the display device in the direction corresponding to the operation, and as the second function, draws the image corresponding to the operation on the display device. Display above,
The control device according to claim 1.
前記処理部は、前記音声に含まれる語に対応する前記音声検出信号に基づいてデータ検索を行ない、当該データ検索の結果を前記画像内に表示させる、
請求項2に記載の制御装置。
The processing unit performs a data search based on the voice detection signal corresponding to the word included in the voice, and displays the result of the data search in the image.
The control device according to claim 2.
前記処理部は、音声認識機能を実行可能に構成されており、
前記処理部は、前記音声認識機能が起動された状態で前記受付部が規定された音声に対応する前記音声検出信号を受け付けると、前記操作検出信号に基づいて、前記被制御装置に前記第一機能と異なる第二機能を実行させる、
請求項1から3のいずれか一項に記載の制御装置。
The processing unit is configured to be able to execute a voice recognition function.
When the processing unit receives the voice detection signal corresponding to the specified voice in the state where the voice recognition function is activated, the first control device receives the voice detection signal based on the operation detection signal. Perform a second function that is different from the function,
The control device according to any one of claims 1 to 3.
制御装置の処理部により実行されるコンピュータプログラムであって、
実行されることにより、前記制御装置に、
ユーザにより入力された操作に対応する操作検出信号に基づいて被制御装置に第一機能を実行させ、
前記ユーザが発した規定された音声に対応する音声検出信号を受け付けた場合、前記操作検出信号に基づいて前記被制御装置に前記第一機能と異なる第二機能を実行させる、
コンピュータプログラム。
A computer program executed by the processing unit of the control device.
By being executed, the control device
The controlled device is made to execute the first function based on the operation detection signal corresponding to the operation input by the user.
When a voice detection signal corresponding to the specified voice emitted by the user is received, the controlled device is made to execute a second function different from the first function based on the operation detection signal.
Computer program.
被制御装置と、
ユーザにより入力された操作に対応する操作検出信号を出力する操作受付装置と、
前記ユーザが発した音声に対応する音声検出信号を出力する音声受付装置と、
前記操作検出信号に基づいて、前記被制御装置に第一機能を実行させる制御装置と、
を備えており、
前記制御装置は、規定された音声に対応する前記音声検出信号を受け付けると、前記操作検出信号に基づいて、前記被制御装置に前記第一機能と異なる第二機能を実行させる、
制御システム。
Controlled device and
An operation reception device that outputs an operation detection signal corresponding to the operation input by the user,
A voice reception device that outputs a voice detection signal corresponding to the voice emitted by the user, and
A control device that causes the controlled device to execute the first function based on the operation detection signal, and
Is equipped with
When the control device receives the voice detection signal corresponding to the specified voice, the control device causes the controlled device to execute a second function different from the first function based on the operation detection signal.
Control system.
前記被制御装置は、表示装置であり、
前記表示装置において画像が表示される画面の少なくとも一部は、前記操作受付装置の一部である、
請求項6に記載の制御システム。
The controlled device is a display device and
At least a part of the screen on which the image is displayed on the display device is a part of the operation reception device.
The control system according to claim 6.
前記操作受付装置、前記音声受付装置、前記制御装置、および前記被制御装置は、移動体に搭載されるように構成されている、
請求項6または7に記載の制御システム。
The operation reception device, the voice reception device, the control device, and the controlled device are configured to be mounted on a moving body.
The control system according to claim 6 or 7.
JP2020077480A 2020-04-24 2020-04-24 Control device, computer program, and control system Pending JP2021174236A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020077480A JP2021174236A (en) 2020-04-24 2020-04-24 Control device, computer program, and control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020077480A JP2021174236A (en) 2020-04-24 2020-04-24 Control device, computer program, and control system

Publications (1)

Publication Number Publication Date
JP2021174236A true JP2021174236A (en) 2021-11-01

Family

ID=78279679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020077480A Pending JP2021174236A (en) 2020-04-24 2020-04-24 Control device, computer program, and control system

Country Status (1)

Country Link
JP (1) JP2021174236A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023064145A (en) * 2021-10-26 2023-05-11 株式会社大都技研 Game machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023064145A (en) * 2021-10-26 2023-05-11 株式会社大都技研 Game machine

Similar Documents

Publication Publication Date Title
US9261908B2 (en) System and method for transitioning between operational modes of an in-vehicle device using gestures
JP6604151B2 (en) Speech recognition control system
JP6838563B2 (en) On-board unit, display area division method, program and information control device
JP6851482B2 (en) Operation support device and operation support method
US20170053651A1 (en) Speech Recognition Apparatus, Vehicle Having the Speech Recognition Apparatus, and Method of Controlling the Vehicle
JP2016062129A (en) Apparatus control device for vehicle, and control content search method
US9791925B2 (en) Information acquisition method, information acquisition system, and non-transitory recording medium for user of motor vehicle
JP2021174236A (en) Control device, computer program, and control system
JP2009031943A (en) Facility specification device, facility specification method, and computer program
JP2021174237A (en) Search control device, computer program, and search system
JP6202574B2 (en) Electronic system, list display method, and list display program
JP2011080851A (en) Navigation system and map image display method
JP2010281572A (en) On-vehicle device and method for controlling the on-vehicle device
US11217238B2 (en) Information processing device and information processing method
JP2013250132A (en) On-vehicle device and on-vehicle information system
KR101804769B1 (en) Multimedia apparatus and vehicle comprising the same, destination search method of the multimedia apparatus
KR101741665B1 (en) User interface apparatus and vehicle comprising the same, control method for the user interface apparatus
JP2020067713A (en) Display controller, display system, method for controlling display, and display control program
JP2005062044A (en) Navigation system
JP7252045B2 (en) Information control device, information control method and program
JP7377883B2 (en) Terminal device, information processing method, and program for terminal device
KR20140095873A (en) Electronic device and control method for the electronic device
JP2018195179A (en) Information control apparatus, and method for dividing display area of information control apparatus
JP2008233009A (en) Car navigation device, and program for car navigation device
JP2011149852A (en) Navigation apparatus