JP6819539B2 - ジェスチャ入力装置 - Google Patents

ジェスチャ入力装置 Download PDF

Info

Publication number
JP6819539B2
JP6819539B2 JP2017203204A JP2017203204A JP6819539B2 JP 6819539 B2 JP6819539 B2 JP 6819539B2 JP 2017203204 A JP2017203204 A JP 2017203204A JP 2017203204 A JP2017203204 A JP 2017203204A JP 6819539 B2 JP6819539 B2 JP 6819539B2
Authority
JP
Japan
Prior art keywords
gesture
unit
display
display unit
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017203204A
Other languages
English (en)
Other versions
JP2019079097A5 (ja
JP2019079097A (ja
Inventor
佳行 津田
佳行 津田
真二 畑中
真二 畑中
小西 敏之
敏之 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017203204A priority Critical patent/JP6819539B2/ja
Priority to PCT/JP2018/033391 priority patent/WO2019077908A1/ja
Publication of JP2019079097A publication Critical patent/JP2019079097A/ja
Publication of JP2019079097A5 publication Critical patent/JP2019079097A5/ja
Application granted granted Critical
Publication of JP6819539B2 publication Critical patent/JP6819539B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、操作者のジェスチャによる入力を可能とするジェスチャ入力装置に関するものである。
従来のジェスチャ入力装置として、例えば、特許文献1に記載されたものが知られている。特許文献1のジェスチャ入力装置(操作装置)は、操作者の手を撮像する撮像部と、各種車載機器の操作画面を個別に表示する複数の画像表示部と、運転者の視線を検出する視線検出部と、視線検出部が検出した視線が、どの画像表示部を注視しているか検出する視線領域判定部とを備えている。そして、運転者がいずれかの画像表示部を注視していることを視線領域判定部が検出すると、注視している画像表示部の操作画面と操作した手の形状とが重畳して表示されるようになっている。つまり、運転者の視線によって、操作対象となる画像表示部(車載機器)が選択されるようになっている。
特開2010−215194号公報
しかしながら、上記特許文献1では、運転者が画像表示部を注視しているか否かを検出するにあたって、視線が一定時間以上、一カ所(いずれかの画像表示部)に留まっていた場合に、注視していると判定するようになっているので、運転時の基本的な安全確認(前方確認等)がおろそかになる可能性がある。
本発明の目的は、上記問題に鑑み、運転に係る安全確認に支障をきたすことなく、操作対象の選択を可能とするジェスチャ入力装置を提供することにある。
本発明は上記目的を達成するために、以下の技術的手段を採用する。
第1の発明では、操作者のジェスチャ操作に基づいて、操作対象(111、112、113)に対する入力操作が行われるジェスチャ入力装置において、
操作者のジェスチャ操作を検出するジェスチャ検出部(120)と、
ジェスチャ操作から操作対象を判定する判定部(130)と、を備え、
判定部は、ジェスチャ検出部によって検出されたジェスチャ操作が、操作者の手によって指し示される手差しジェスチャであると判定すると、指し示された対象を操作対象として選択確定するようになっており、
操作対象は、複数設けられており、複数の操作対象(111、112、113)の作動状態をそれぞれ表示する複数の表示部(111a、112a、113a)を有しており、
判定部からの判定内容に応じて、複数の表示部の表示状態を制御する制御部(140)を備え、
判定部によって、複数の表示部のうち、任意の表示部(111a)に対する手差しジェスチャが判定され、選択確定されたのち、任意の表示部とは異なる別の表示部(112a)に対する別の手差しジェスチャが判定されると、
制御部は、任意の表示部における表示を、別の表示部に表示させることを特徴としている。
また、第2の発明では、操作対象は、複数設けられており、操作対象(111、112、113)の作動状態を表示する表示部(111a)を有しており、
判定部からの判定内容に応じて、表示部の表示状態を制御する制御部(140)を備え、
判定部によって、表示部に対する手差しジェスチャが判定され、選択確定されたのち、手差しジェスチャとは異なる別のジェスチャが判定されると、
制御部は、複数の操作対象のうち、表示部における元の操作対象の表示を、別の操作対象の表示に切替えることを特徴としている。
この発明によれば、操作者の手差しジェスチャによって操作対象が選択確定されるので、操作者は、操作対象の選択確定のために、従来技術のように操作対象に対して注視する必要がない。よって、運転に係る安全確認に支障をきたすことなく、操作対象の選択確定が可能となる。
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。
第1実施形態におけるジェスチャ入力装置の構成を示すブロック図である。 第1実施形態における制御内容を示すフローチャートである。 第1実施形態その1の操作要領を示す説明図である。 第1実施形態その2の操作要領を示す説明図である。 第2実施形態におけるジェスチャ入力装置の構成を示すブロック図である。 第2実施形態その1の操作要領を示す説明図である。 第2実施形態その2の操作要領を示す説明図である。 第3実施形態におけるジェスチャ入力装置の構成を示すブロック図である。 第3実施形態における制御内容を示すフローチャートである。 第3実施形態の操作要領を示す説明図である。 第4実施形態におけるジェスチャ入力装置の構成を示すブロック図である。 第4実施形態の操作要領を示す説明図である。 第5実施形態におけるジェスチャ入力装置の構成を示すブロック図である。 第5実施形態における制御内容を示すフローチャートである。 第5実施形態の操作要領を示す説明図である。 第5実施形態のジェスチャ操作後の表示状態を示す説明図である。 第5実施形態の変形例1における操作要領を示す説明図である。 第5実施形態の変形例2における操作要領を示す説明図である。 第6実施形態におけるジェスチャ入力装置の構成を示すブロック図である。 第6実施形態における制御内容を示すフローチャートである。 図20中の指示対象候補リスト更新の要領を示すサブフローチャートである。 図21中の指示対象候補登録の要領を示すサブフローチャートである。 図21中の指示対象候補削除の要領を示すサブフローチャートである。 第6実施形態の操作要領を示す説明図である。
以下に、図面を参照しながら本発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。
(第1実施形態)
第1実施形態のジェスチャ入力装置100Aについて図1〜図4を用いて説明する。本実施形態のジェスチャ入力装置100Aは、車両に搭載され、運転者(操作者)の体の特定部位の動き(ジェスチャ操作)に基づいて、各種車両機器に対する入力操作を行うものである。
各種車両機器としては、例えば、車室内の空調を行う空調装置111、フロントウインドウに各種車両情報を虚像として表示するヘッドアップディスプレイ装置112(以下、HUD装置112)、自車の現在位置表示あるいは目的地への案内表示等を行うカーナビゲーション装置113(以下、カーナビ装置113)等、複数設定されている。空調装置111、HUD装置112、およびカーナビ装置113等は、本発明の操作対象に対応する。尚、各種車両機器としては、上記に限らず、ルームランプ装置、オーディオ装置、後席サンシェード装置、電動シート装置、グローボックス開閉装置等がある。
そして、空調装置111は、空調の作動状態や、空調条件設定用のスイッチ等を表示する空調表示部111aを有している。空調表示部111aは、例えば、液晶ディスプレイ、あるいは有機ELディスプレイ等によって形成されている。空調表示部111aは、例えば、インストルメントパネルの操作者側となる面で、車両の幅方向の中央位置に配置されている。空調表示部111aは、例えばタッチパネルを有しており、運転者の指によるタッチ操作によって各種スイッチに対する入力が可能となっている。空調表示部111aは、本発明の表示部、または任意の表示部に対応する。
また、HUD装置112は、各種車情報(例えば、車速等)を表示するヘッドアップ表示部112aを有している。ヘッドアップ表示部112aは、フロントウインドウの運転者と対向する位置に形成されるようになっている。ヘッドアップ表示部112aは、本発明の表示部、または別の表示部に対応する。
また、カーナビ装置113は、地図上における自車位置や目的地案内等のナビ情報を表示するためのナビ表示部113aを有している。このナビ表示部113aは、例えば、液晶ディスプレイ、あるいは有機ELディスプレイ等によって形成されている。ナビ表示部113aは、ここでは、上記の空調表示部111aと兼用とされており、後述する表示制御部140によって、画面の切替えが行われて、空調情報と、ナビ情報とが切替え表示されるようになっている。尚、ナビ表示部113aには、目的地案内の設定のためのナビスイッチが表示され、空調表示部111aの場合と同様に、運転者の指によるタッチ操作によってナビスイッチに対する入力が可能となっている。ナビ表示部113aは、本発明の表示部に対応する。
ジェスチャ入力装置100Aは、図1に示すように、指示動作検出部120、指示対象判定部130、および表示制御部140等を備えている。
指示動作検出部120は、運転者の体の特定部位の動きを検出するジェスチャ検出部となっている。指示動作検出部120は、運転者の体の特定部位を画像によって検知し、時間経過に対する画像の変化から、運転者の体の特定部位の動きを検出するようになっている。
運転者の体の特定部位としては、例えば、運転者の手の指、手の平、腕(手差しジェスチャ)等とすることができる。本実施形態では、入力操作の対象機器を選択確定するために、運転者の体の特定部位として、主に手の指(指差しジェスチャ)を用いるものとしている。指示動作検出部120としては、2次元画像、あるいは3次元画像を形成するセンサやカメラ等を用いることができる。
センサとしては、例えば、近赤外線を用いた近赤外線センサ、あるいは遠赤外線を用いた遠赤外線センサ等がある。また、カメラとしては、例えば、複数の方向から同時に撮影して奥行方向の情報も記録できるステレオカメラ、あるいは、ToF(Time of Flight)方式を用いて対象物を立体的に撮影するToFカメラ等がある。本実施形態では、指示動作検出部120としては、カメラを用いたものとしている。指示動作検出部120は、例えば、車両天井に取付けされており、ステアリングを握りながら指し示される運転者の指(指の形、動き、どの車両機器に向けられているか等)を検出するようになっている。
指の動き(ジェスチャ)は、予め、種々のパターンを決めておくことができるが、ここでは、選択確定用として、操作したい車両機器に向けて一本の指を向ける指差しジェスチャ、および、確定後の次の操作用として、指を素早く振るようなフリックジェスチャ等が設定されている。指示動作検出部120で検出された指のジェスチャ信号は、後述する指示対象判定部130に出力されるようになっている。
指示対象判定部130は、指示動作検出部120で得られたジェスチャ信号から、運転者がどの車両機器を操作対象としたいかを判定する判定部となっている。つまり、指示対象判定部130は、指示動作検出部120によって検出されたジェスチャ操作が、運転者の指によって指し示される指差しジェスチャであると判定すると、指し示された対象を操作対象として選択確定するようになっている。
表示制御部140は、指示対象判定部130による判定内容に応じて、複数の表示部111a〜113aの表示状態を制御する制御部となっている。表示制御部140が行う表示制御の詳細については後述する。
本実施形態のジェスチャ入力装置100Aの構成は、以上のようになっており、以下、図2〜図4を加えて、その作動および作用効果について説明する。
まず、図2に示すステップS100で、指示動作検出部120は、運転者による指差しジェスチャを検出する。即ち、指示動作検出部120は、運転者の指の動きを画像として検出し、検出した画像データ(ジェスチャ信号)を指示対象判定部130に出力する。
次に、ステップS110で、指示対象判定部130は、画像データから指の動きが、任意の車両機器の表示部に向けられた指差しのジェスチャとなっているかを判定する(図3(a)の状態)。図3(a)の例では、任意の車両機器の表示部は、例えば、空調表示部111aとなっている。
そして、指示対象判定部130は、ステップS120で、この指差しのジェスチャが、任意の車両機器の表示部に向けて、予め定めた一定時間以上継続されているか否かを判定する。
ステップS120で、否と判定すると、ステップS100に戻り、ステップS110〜ステップS120を繰り返す。しかしながら、ステップS120で肯定判定すると、指示対象判定部130は、ステップS130で、指差しされた対象元の表示部(例えば、空調表示部111a)を操作対象として選択確定する。
次に、指示対象判定部130は、ステップS140で、切替え操作の判定を行う。即ち、上記の指差しジェスチャで指差しされた空調表示部111aとは異なる別の表示部(例えば、ヘッドアップ表示部112a)に対する別の指差しジェスチャ(手差しジェスチャ)があるかを判定する。
そして、ステップS150で、ステップS140における別の指差しジェスチャとして、予め定義しておいたフリック操作か否かを判定し、ステップS150で否と判定すると、指示対象判定部130は、ステップS160で、指差しジェスチャが対象元以外の表示部について、一定時間以上継続しているか否かを判定する(図3(b)の状態)。
そして、指示対象判定部130がステップS160で、肯定判定すれば、表示制御部140は、ステップS170で、先に指差しされた元の空調表示部111aにおける表示を、次に指差しされたヘッドアップ表示部112aに表示させる。つまり、最初の指差しによって、空調表示部111aに表示されていた空調情報が選択確定されて、その空調情報が、次に指差しされたヘッドアップ表示部112aに切替え表示されるのである。ステップS170の後は、ステップS190に移行する。尚、ステップS160で、否と判定されると、ステップS170をスキップして後述するステップS190に移行する。
一方、ステップS150で、肯定判定すると、表示制御部140は、ステップS180で、空調表示部111aにおける元の空調情報の表示を、別の車両機器の表示内容、例えば、ナビ情報に切替える(図4(b))。つまり、最初の指差しによって、空調表示部111aに表示されていた空調情報が選択確定されて(図4(a))、その空調情報が、別の指差しジェスチャ(フリック操作)によって、ナビ情報に切替え表示されるのである。
そして、ステップS190で、切替え操作の終了を確認して、ステップS100に戻る。切替え操作が終了していないときは、ステップS150に戻る。
以上のように、本実施形態によれば、運転者の手差しジェスチャ(指差しジェスチャ)によって操作対象が選択確定されるので、運転者は、操作対象の選択確定のために、従来技術のように操作対象に対して注視する必要がない。よって、運転に係る安全確認に支障をきたすことなく、操作対象の選択確定が可能となる。
また、手差しジェスチャとして、指差しジェスチャを採用しており、指差しジェスチャとすることで、指示した対象を操作対象として選択確定することができ、直感的に分かりやすいジェスチャ操作とすることができる。
また、指差しジェスチャを採用することで、例えば、ステアリングを握った状態で、車両機器に対する指差しが可能となり、ステアリング操作が阻害されることがない。
また、図3で説明したように、任意の表示部(空調表示部111a)を選択確定した後に、次の指差しにより、別の表示部(ヘッドアップ表示部112a)に表示切替えをすることで、運転者にとって、見やすい位置での表示確認(視認)が可能となる。
また、図4で説明したように、任意の表示部(空調表示部111a)を選択確定した後に、次の別のジェスチャ(フリック操作)により、表示部(空調表示部111a)の表示内容(空調表示)を、別の表示内容(ナビ表示)に表示切替えをするようにすることで、運転者にとって、容易に、見たい情報を確認することができる。
尚、図3(b)で説明した元の表示部(空調表示部111a)から次の表示部(ヘッドアップ表示部112a)に表示内容を移動させるジェスチャとして、元の表示部の画面を摘まんで次の表示部側へ運ぶようなジェスチャ、あるいは元の表示部から次の表示部に向けて払うようなジェスチャ、更に、指差しに代えて、手(腕全体)を用いたジェスチャ(手差しジェスチャ)等としてもよい。
また、図4(b)で説明した表示内容を変更させるジェスチャとして、フリック操作ジェスチャに代えて、表示部を指さしてクルクル回すようなジェスチャ、あるいはステアリングで指をタップするようなジェスチャ、更に、指に代えて、手(腕全体)を用いたジェスチャ等としてもよい。
また、図4(b)において、表示制御部140によって、空調表示部111aにおける空調表示がナビ表示に切替えられた(ステップS180)後に、指示対象判定部130によって、予め定められたデフォルト用のジェスチャが判定されると、表示制御部140は、所定時間、予め定めたデフォルト表示(元の空調表示)を行うようにしてもよい。デフォルト用のジェスチャは、例えば、手によって上から下に抑えるようなジェスチャとすることができる。これにより、元の表示部(空調表示部111a)における本来の表示内容を確認することができる。
(第2実施形態)
第2実施形態のジェスチャ入力装置100Bを図5〜図7に示す。第2実施形態は、上記第1実施形態に対して、運転者の声を検出して、検出した声を指示対象判定部130に出力する声検出部150を追加したものである。
声検出部150は、図5に示すように、例えば、マイクロホンが使用されて、運転者の声を検出して、検出した声信号を指示対象判定部130に出力するようになっている。
本実施形態では、図6、図7に示すように、指示対象判定部130、および表示制御部140は、ジェスチャ操作の条件(判定結果)に、声検出部150からの声の条件を加えて、選択確定、および表示の変更を行うようになっている。
例えば、表示位置を移動させるにあたっては、図6(a)に示すように、指示対象判定部130は、指示動作検出部120からの指差しジェスチャと、声検出部150からの「そこから」という運転者の発声に基づいて、操作対象となる表示部(空調表示部111a)を選択確定する。また、図6(b)に示すように、指示対象判定部130は、指示動作検出部120からの別の表示部(ヘッドアップ表示部112a)に対する指差しジェスチャと、声検出部150からの「そこへ」という運転者の発声に基づいて、元の表示部(空調表示部111a)の表示内容を別の表示部(ヘッドアップ表示部112a)へ移動させるように、表示制御部140へ表示の変更指示を行う。
また、表示内容を切替えるにあたっては、図7(a)に示すように、指示対象判定部130は、指示動作検出部120からの指差しジェスチャと、声検出部150からの「それを」という運転者の発声に基づいて、操作対象となる表示部(空調表示部111a)を選択確定する。また、図7(b)に示すように、指示対象判定部130は、指示動作検出部120からの継続される指差しジェスチャと、声検出部150からの「ナビにして」という運転者の発声に基づいて、元の表示部(空調表示部111a)の表示内容を別の表示内容に切替えるように、表示制御部140へ表示の変更指示を行う。
本実施形態では、運転者の声も使用して、操作対象を選択確定し、更に表示部における表示形態を変更するようにしているので、指差しジェスチャに対して、声による運転者自身の意思を組み入れた入力操作とすることができ、意図しないジェスチャによる入力を無くして、確実なジェスチャ入力操作が可能となる。
(第3実施形態)
第3実施形態のジェスチャ入力装置100Cを図8〜図10に示す。第3実施形態は、上記第1実施形態に対して、指差しジェスチャによって、任意の車両機器(操作対象)を選択確定した後に、表示部に任意の車両機器の操作用画面を表示し、その操作用画面に対して、操作ジェスチャが行われると入力操作が受付されるようにしたものである。
ジェスチャ入力装置100Cにおいては、複数の車両機器のうち、任意の操作対象として、ルームランプ装置115を入力操作の対象例として説明する。ルームランプ装置115は、図10に示すように、例えば、車両の天井の前部で、ルームミラーに近接した位置に設けられており、必要に応じてスイッチ操作して点灯させることで車室内の照明を行うものとなっている。
図9に示すフローチャートにおいて、ステップS100〜S120は、第1実施形態の図2で説明したステップS100〜S120と同じである。即ち、ステップS100で、運転者による指差しジェスチャを検出し、ステップS110で、任意の操作対象(ここでは、ルームランプ装置115)に指差しジェスチャが行われているかを判定する(図10(a)の状態)。そして、ステップS120で、この指差しジェスチャがルームランプ装置115に向けて、一定時間以上継続されているか否かを判定する。
ステップS120で、否と判定すると、ステップS100に戻り、ステップS110〜ステップS120を繰り返す。しかしながら、ステップS120で肯定判定すると、ステップS230で、指示対象判定部130は、表示制御部140に対して、指差しされたルームランプ装置115に係る操作用画面を、表示部として、例えば、ヘッドアップ表示部112aに表示させる。操作用画面は、例えば、ルームランプ装置115をONにするか、OFFにするかを選択するためのスイッチ画像が表示されるものとなっている(図10(b)の状態)。
次に、ステップS240で、指示対象判定部130は、新たに複数指によるフリック操作があったか否かを判定する。複数指は、例えば、2本の指である。複数指によるフリック操作は、本発明の手差しジェスチャとは異なる操作ジェスチャに対応する。ステップS240で否と判定すると、ステップS240を繰り返す。ステップS240で肯定判定すると、ステップS250に移行する。
ステップS250では、指示対象判定部130は、複数指によるフリック操作の方向が、ヘッドアップ表示部112aに表示されたONの方向(図10(c)の右方向)か、OFFの方向(図10(c)の左方向)か、を判定する。
ステップS250で、指示対象判定部130は、複数指によるフリック操作の方向が、ONの方向であると判定すると、ステップS260で、ルームランプ装置115が点灯される(点灯のための入力操作が受付される)。
また、ステップS250で、指示対象判定部130は、複数指によるフリック操作の方向が、OFFの方向である判定すると、ステップS270で、ルームランプ装置115が消灯される(消灯のための入力操作が受付される)。
尚、ステップS250で、指示対象判定部130は、複数指によるフリック操作の方向がON、OFFの方向以外であると、ステップS260、S270をスキップして、ステップS280に移行する。
そして、ステップS260、S270の後に、ステップS280で、操作の終了を確認して、ステップS100に戻る。操作が終了していないときは、ステップS240に戻る。
以上のように、本実施形態では、指差しによって選択確定された車両機器(ルームランプ装置115)の操作用画面が表示部(ヘッドアップ表示部112a)に表示され、その操作用画面に対して、最初の指差しジェスチャとは異なる操作ジェスチャを行うことで、車両機器の入力操作が受付けされる。よって、手の届きにくい車両機器に対しても、手元で容易に入力操作が可能となる。
(第4実施形態)
第4実施形態のジェスチャ入力装置100Dを図11、図12に示す。第4実施形態は、上記第1実施形態に対して、指差しジェスチャによって、任意の車両機器(操作対象)を選択確定した後に、任意の車両機器の操作用画面を表示し、その操作用画面に対して、手による直接的な手入力操作、あるいは、声による声入力操作が行われると入力操作が受付されるようにしたものである。
ジェスチャ入力装置100Dにおいて、複数の車両機器のうち、上記第3実施形態と同様に、ルームランプ装置115を入力操作の対象例として説明する。
操作用画面を表示するための表示部は、例えば、インストルメントパネルの操作者側となる面で、車両の幅方向の中央位置に配置されるセンタ表示部114aとなっている。センタ表示部114aは、各種車両機器の作動状態表示や、設定用の各種スイッチ表示等を行い、各種車両機器ごとにその表示を切替え可能とする表示部となっている。センタ表示部114aは、タッチパネルを有しており、運転者の指によるタッチ操作によって、表示された各種スイッチに対する入力が可能となっている。センタ表示部114aの位置は、運転者のタッチ操作しやすい位置となっている。また、センタ表示部114aに対しては、運転者の発声によっても、入力設定が可能となっている。
図12(a)に示すように、操作対象としてルームランプ装置115を選択確定するための指差しジェスチャとしては、ここでは、ルームランプ装置115に対して指差しをしながら、ルームランプ装置115を円で囲むようなジェスチャとしている。
上記指差しジェスチャによって、ルームランプ装置115が選択確定されると、センタ表示部114aに、ルームランプ装置115に係る操作用画面が表示される。操作用画面は、例えば、ルームランプ装置115をONにするか、OFFにするかを選択するためのスイッチ画像が表示されるものとなっている(図12(b)の状態)。
そして、図12(c−1)に示すように、運転者が、タッチ操作によって、ONあるいはOFFをタッチすることで、ルームランプ装置115の点灯あるいは消灯が受付けされる。あるいは、図12(c−2)に示すように、運転者が「ON」(「OFF」)と発声すると、ルームランプ装置115の点灯(消灯)が受付される。
以上のように、本実施形態では、指差しによって選択確定された車両機器(ルームランプ装置115)の操作用画面が手元の表示部(センタ表示部114a)に表示され、その操作用画面に対して、直接的にタッチ操作することで入力操作が受付けされる、あるいは発生によって入力操作が受付けされる。したがって、上記第3実施形態と同様に、手の届きにくい車両機器に対しても、手元で容易に入力操作が可能となる。
(第5実施形態)
第5実施形態のジェスチャ入力装置100Eを図13〜図16に示す。第5実施形態は、上記第1〜第4実施形態に対して、操作対象を、車外に設けられ、運転者に特定の情報をもたらす複数の情報表示部116としたものである。複数の情報表示部116のうち、運転者の指差しジェスチャによって、指し示された情報表示部116が選択確定されるようになっている。
情報表示部116は、例えば、道路脇に設けられた案内表示、あるいはランドマーク(建物)等を含む複数の表示部である。案内表示は、例えば、地名、施設名(サービスエリア、駐車場等)等が表記され、それらがどの方向にあるか、あるいは何キロ先にあるか等を運転者に示すものである。
ジェスチャ入力装置100Eは、図13に示すように、指示動作検出部120、補助動作検出部160、車外情報取得部170、指示対象判定部130、呼出機能選択部180、および情報処理装置190等を備えている。
指示動作検出部120は、上記第1実施形態で説明したものと同一であり、運転者の指差しジェスチャを検出するようになっている。指示動作検出部120で検出された指差しのジェスチャ信号は、指示対象判定部130に出力されるようになっている。
補助動作検出部160は、例えば、指示動作検出部120と同様のカメラ等が用いられて、運転者の補助ジェスチャを検出するものとなっている。補助ジェスチャは、本発明の別のジェスチャに対応する。補助ジェスチャとしては、例えば、頷き、ウインク、ステアリングへの指によるタップ操作の動き等が予め設定されている。補助動作検出部160は、例えば、車両天井に取付けされており、運転者の補助ジェスチャを検出して、その補助ジェスチャ信号を指示対象判定部130に出力するようになっている。
尚、運転者の補助ジェスチャが、指示動作検出部120によって、指差しジェスチャと共に、検出できる場合は、補助動作検出部160は、指示動作検出部120と兼用されるものとしてもよい。
車外情報取得部170は、車外前方における景色を捉えることで、車両前方に存在する複数の情報表示部116を取得するものであり、例えば、指示動作検出部120と同様のカメラが用いられている。車外情報取得部170は、例えば、車両天井の前方部で、ルームミラーと併設されるようにして、車外前方に向けて取付けされている。車外情報取得部170によって、取得された情報表示部116(情報表示部の信号)は、指示対象判定部130に出力されるようになっている。
指示対象判定部130は、指示動作検出部120によって検出された指差しジェスチャと、車外情報取得部170によって取得された複数の情報表示部116とを関連付けて、複数の情報表示部116のうち、指差しジェスチャによって指し示された情報表示部116を操作対象として選択確定するようになっている。選択確定された情報表示部116(情報表示部の信号)は、後述する呼出機能選択部180に出力されるようになっている。また、指示対象判定部130は、補助動作検出部160によって検出された補助ジェスチャ信号から補助ジェスチャの発生の有無を把握する。
呼出機能選択部180は、予め定めたテーブルにおいて、指示対象判定部130で選択確定された情報表示部116に基づいて、運転者に対して行う詳細表示や、目的案内等のメニューを選択し、情報処理装置190に対する実行指示を行うようになっている。情報処理装置190は、例えば、HUD装置112(表示装置)、カーナビ装置113等である。
本実施形態のジェスチャ入力装置100Eの構成は、以上のようになっており、以下、図14〜図16を加えて、その作動および作用効果について説明する。
まず、図14に示すステップS300で、指示動作検出部120は、運転者による指差しジェスチャを検出する。即ち、指示動作検出部120は、運転者の指の動きを画像として検出し、検出した画像データ(ジェスチャ信号)を指示対象判定部130に出力する。
次に、ステップS310で、車外情報取得部170は、車外前方の景色を撮影することで、複数の情報表示部116を取得し、取得した情報表示部の信号を指示対象判定部130に出力する。
次に、ステップS320で、指示対象判定部130は、指示動作検出部120によって検出された指差しジェスチャと、車外情報取得部170によって取得された複数の情報表示部116との関連付けを行う。そして、複数の情報表示部116のうち、指差しジェスチャによって指し示された任意の情報表示部116を検出する(図15(a)の状態)。
次に、ステップS330で、指示対象判定部130は、ステップS320における指差しジェスチャが、任意の情報表示部116に向けて、予め定めた一定時間以上継続されているか否かを判定する。
ステップS330で、肯定判定すると、ステップS340で、指示対象判定部130は、任意の情報表示部116を指示対象(操作対象)の候補として設定する。
一方、ステップS330で、否定判定すると、ステップS350で、指差しジェスチャなしで、一定時間経過したか否かを判定し、肯定判定すると、ステップS390に移行し、否定判定するとステップS360に移行する。つまり、指差しジェスチャがなされていない状態で、一定時間経過していない状態であれば、次のステップS360における頷きの検出を有効とする。
そして、ステップS360で、指示対象判定部130は、補助動作検出部160からの運転者の頷きジェスチャを検出する(図15(b)の状態)。そして、ステップS370で、運転者による指示対象があるか否かを判定し、肯定判定すると、ステップS380で、指示対象判定部130は、ステップS340における指示対象を操作対象として選択確定し、呼出機能選択部180に出力する。尚、ステップS370で、否と判定すれば、本制御を終了する。
選択確定された情報表示部116が、例えば、施設名や建物名であると、呼出機能選択部180は、図16に示すように、例えば、HUD装置112のヘッドアップ表示部112aに施設や建物の詳細情報を表示させる。あるいは、選択確定された情報表示部116が、例えば、運転者の向かう地名(行先)であると、呼出機能選択部180は、ヘッドアップ表示部112a、あるいはカーナビ装置113に目的案内を行うように指示をする。
そして、ステップS380が完了すると、ステップS390で、指差しジェスチャによって指示された指示対象を解除する。
以上のように、本実施形態によれば、車外情報取得部170を設けて、指差しジェスチャおよび補助ジェスチャにより、車両機器に限らず、車外の情報表示部116を操作対象とすることができる。尚、上記第1実施形態と同様に指差しジェスチャを基本として、操作対象を選択確定するので、従来技術のように操作対象を注視することが不要であり、運転に係る安全確認に支障をきたすことがない。
また、指差しジェスチャに補助ジェスチャ(頷きのジェスチャ)を加えて、情報表示部116の選択確定が成されるようにしているので、運転者の意図を確実に反映した選択確定が可能となる。
尚、本実施形態では、車外の情報表示部116を取得するために、車外情報取得部170を設けるものとしたが、これに代えて、路車間通信、あるいはGPS等を活用して情報表示部116を取得するものとしてもよい。
(第5実施形態の変形例)
上記第5実施形態の補助ジェスチャとして、頷きのジェスチャを用いたが、これに限定されることなく、図17(b)に示すウインクや、図18(b)に示すステアリング上でのタップ操作ジェスチャ等とすることが可能である。
尚、制御用のフローチャートについては、図14で説明したステップS360の制御内容を、「頷き」から「ウインク」あるいは「タップ操作」等に変更すればよい。
(第6実施形態)
第6実施形態のジェスチャ入力装置100Fを図19〜図24に示す。第6実施形態は、上記第5実施形態に対して、視線計測部195を設けて、運転者に視認された複数の情報表示部116を登録リストとして作成するようにしたものである。そして、登録リストに揚げられた複数の情報表示部のいずれかに対して指差しジェスチャがあると、操作対象として選択確定するようにしている。
図19に示すように、視線計測部195は、例えば、指示動作検出部120と同様のカメラ等が用いられて、運転者の視線方向を計測するものとなっている。視線計測部195は、例えば、車両天井に取付けされており、運転者の顔の位置、顔の向きに対する瞳の位置から視線方向を計測するようになっている。視線計測部195は、計測した運転者の視線方向の信号を指示対象判定部130に出力するようになっている。
尚、運転者の視線方向が、指示動作検出部120によって、指差しジェスチャと共に、検出できる場合は、視線計測部195は、指示動作検出部120と兼用されるものとしてもよい。
本実施形態のジェスチャ入力装置100Fの構成は、以上のようになっており、以下、図20〜図24を加えて、その作動および作用効果について説明する。
まず、図20に示すフローチャートにおいて、指示対象判定部130は、ステップS400で、指示対象候補リストを更新する。指示対象候補リストは、運転者が視認した複数の情報表示部116を、指示される可能性のある対象としてリストアップしたものである。
指示対象候補リストの更新要領は、図21のサブフローに示すように、ステップS401で、指示対象候補を登録し、また、ステップS402で指示対象候補を削除することで実行される。
ステップS401の指示対象候補の登録は、図22のサブフローに基づいて実行される。即ち、ステップS4011で、視線計測部195は変化する運転者の視線方向の計測を行う。次に、ステップS4012で、車外情報取得部170は車外情報(複数の情報表示部116)を取得する。次に、ステップS4013で、指示対象判定部130は、視線方向と情報表示部116との関連付けして、運転者によって視認された複数の情報表示部116を視認対象として検出する(図24(a)の状態)。
次に、ステップS4014で、指示対象判定部130は、予め定めた一定時間以上、任意の情報表示部116が視認されたか否かを判定する。ステップS4014で否定判定すると本制御を終了する。一方、ステップS4014で肯定判定すると、指示対象判定部130は、ステップS4015で、視認された情報表示部116が、指示対象の候補リスト(登録リスト)に登録済みか否かを判定する。ステップS4015で肯定判定すれば、ステップS4016に進み、否定判定すれば、ステップS4017に進む。
ステップS4016では、視認対象がすでに指示対象の候補リストに登録されていることから、指示対象判定部130は、候補リスト内の変更は何ら行わずに、この時の指示時刻(視認があった時刻)のみ更新する。つまり、この時刻に、候補リストがチェックされたという経歴を残していく。
一方、ステップS4017では、視認対象は指示対象の候補リストに登録されていないことから、指示対象判定部130は、視認対象を指示対象として候補リストに登録する。つまり、新たに視認された情報表示部116が候補リストに追加されていく。
また、ステップS402の指示対象候補の削除は、図23のサブフローに基づいて実行される。即ち、ステップS4021で、指示対象判定部130は、複数の指示対象(候補リスト)から指示対象候補を1つ選択する。
そして、ステップS4022で、指示対象判定部130は、指示時刻から一定時間経過したか否かを判定する。否定判定すると、ステップS2024に進み、肯定判定すると、指示対象判定部130は、ステップS4023で、選択した指示対象候補を削除する。つまり、一定時間以上経過して、再び視認されなかった指示対象候補は削除されていく。
ステップS4024では、複数の指示対象のそれぞれについて、上記ステップ4021〜4023による確認をすべて実施したか否かを判定し、否定判定すると、ステップS4021〜S4024を繰り返し、肯定判定すると本制御を終了する。
図20に戻って、ステップS400で指示対象候補リストの更新を実施した後、ステップS410で、指示動作検出部120は、運転者による指差しジェスチャを検出し、ステップS420で、車外情報取得部170は、車外前方の景色を撮影することで、複数の情報表示部116を取得する。
そして、ステップS430で、指示対象判定部130は、指示動作検出部120によって検出された指差しジェスチャと、車外情報取得部170によって取得された複数の情報表示部116との関連付けを行う。そして、複数の情報表示部116のうち、指差しジェスチャによって指し示された任意の情報表示部116を検出する(図24(b)の状態)。
次に、ステップS440で、指示対象判定部130は、ステップS430における指差しジェスチャが、任意の情報表示部116に向けて、予め定めた一定時間以上継続されているか否かを判定する。否定判定すると、本制御を終了する。
ステップS440で肯定判定すると、ステップS450で、指示対象判定部130は、任意の情報表示部116が指示対象候補リストに登録済みか否かを判定する。否定判定すると、本制御を終了する。
ステップS450で肯定判定すると、ステップS460で、指示された対象を操作対象として選択確定し、呼出機能選択部180に出力する。上記第5実施形態と同様に、呼出機能選択部180は、HUD装置112のヘッドアップ表示部112aに施設や建物の詳細情報を表示させる。あるいは、選択確定された情報表示部116が、例えば、運転者の向かう地名であると、呼出機能選択部180は、ヘッドアップ表示部112a、あるいはカーナビ装置113に目的案内を行うように指示をする。
以上のように本実施形態によれば、視認された対象(情報表示部116)を対象リスト(登録リスト)に載せて、対象リストに揚げられた複数の視認対象のいずれかに対して手差しジェスチャがあると、指示された対象(情報表示部116)が操作対象として選択確定される。よって、複数の情報表示部116のうち、運転者の視認したものが前提となって選択確定されるので、運転者の意図しないものが選択確定されることがない。
尚、本実施形態の指示対象候補リストを、上記第5実施形態、および第5実施形態の変形例に採用してもよい。
(その他の実施形態)
上記各実施形態に対して、指差しジェスチャによって操作対象が選択確定されたときに、運転者に対して確認用のフィードバックを与える機能(フィードバック部)を追加したものとしてもよい。例えば、ステアリングを振動させる振動発生部を設けて、指示対象が選択確定された後に、ステアリングを振動させるようにしてもよい。あるいは、効果音や音声を発生させる発生部を設けて、指示対象が選択確定された後に、効果音(ピッ)や音声(選択確定されました)等を運転者に伝えるようにしてもよい。これにより、運転者が指差した車両機器が、確かに選択確定されたことを知ることができ、安心して入力操作を行うことができる。
また、入力操作を終了するための終了ジェスチャ、例えば、指差しをやめてステアリングを握るジェスチャや、手で払うようなジェスチャを予め定めておき、指示対象判定部130は、この終了ジェスチャを判定することで、ひとつの入力操作を終了させるようにしてもよい。
また、上記各実施形態では、指示動作検出部120として、センサやカメラを用いるものとして説明したが、これに代えて、例えば、指の曲り具合いを検出可能とするセンサを設けた手袋(グローブ)を用いて、指差しジェスチャを検出するものとしてもよい。
また、対象となる操作者は、運転者に限らず、助手席者としてもよい。この場合、助手席者も、上記の各種ジェスチャを行うことで、指示動作検出部120によるジェスチャ認識が行われて、各種車両機器の操作が可能となる。
100A、100B、100C、100D、100E、100F ジェスチャ入力装置
111 空調装置(操作対象)
111a 空調表示部(表示部、任意の表示部)
112 ヘッドアップディスプレイ装置(操作対象、表示装置)
112a ヘッドアップ表示部(表示部、別の表示部)
113 カーナビゲーション装置(操作対象)
113a ナビ表示部(表示部)
114a センタ表示部(表示部)
115 ルームランプ装置(任意の操作対象)
116 情報表示部
120 指示動作検出部(ジェスチャ検出部)
130 指示対象判定部(判定部)
140 表示制御部(制御部)
150 声検出部
170 車外情報取得部
195 視線計測部

Claims (6)

  1. 操作者のジェスチャ操作に基づいて、操作対象(111、112、113)に対する入力操作が行われるジェスチャ入力装置において、
    前記操作者の前記ジェスチャ操作を検出するジェスチャ検出部(120)と、
    前記ジェスチャ操作から前記操作対象を判定する判定部(130)と、を備え、
    前記判定部は、前記ジェスチャ検出部によって検出された前記ジェスチャ操作が、前記操作者の手によって指し示される手差しジェスチャであると判定すると、指し示された対象を前記操作対象として選択確定するようになっており、
    前記操作対象は、複数設けられており、複数の前記操作対象(111、112、113)の作動状態をそれぞれ表示する複数の表示部(111a、112a、113a)を有しており、
    前記判定部からの判定内容に応じて、複数の前記表示部の表示状態を制御する制御部(140)を備え、
    前記判定部によって、複数の前記表示部のうち、任意の表示部(111a)に対する前記手差しジェスチャが判定され、選択確定されたのち、前記任意の表示部とは異なる別の表示部(112a)に対する別の手差しジェスチャが判定されると、
    前記制御部は、前記任意の表示部における表示を、前記別の表示部に表示させるジェスチャ入力装置。
  2. 操作者のジェスチャ操作に基づいて、操作対象(111、112、113)に対する入力操作が行われるジェスチャ入力装置において、
    前記操作者の前記ジェスチャ操作を検出するジェスチャ検出部(120)と、
    前記ジェスチャ操作から前記操作対象を判定する判定部(130)と、を備え、
    前記判定部は、前記ジェスチャ検出部によって検出された前記ジェスチャ操作が、前記操作者の手によって指し示される手差しジェスチャであると判定すると、指し示された対象を前記操作対象として選択確定するようになっており、
    前記操作対象は、複数設けられており、前記操作対象(111、112、113)の作動状態を表示する表示部(111a)を有しており、
    前記判定部からの判定内容に応じて、前記表示部の表示状態を制御する制御部(140)を備え、
    前記判定部によって、前記表示部に対する前記手差しジェスチャが判定され、選択確定されたのち、前記手差しジェスチャとは異なる別のジェスチャが判定されると、
    前記制御部は、複数の前記操作対象のうち、前記表示部における元の操作対象の表示を、別の操作対象の表示に切替えるジェスチャ入力装置。
  3. 前記制御部によって、前記表示部における表示が切替えられた後に、前記判定部によって、予め定められたデフォルト用のジェスチャが判定されると、前記制御部は、所定時間、予め定めたデフォルト表示を行う請求項2に記載のジェスチャ入力装置。
  4. 前記操作者の声を検出して、検出した前記声を前記判定部に出力する声検出部(150)を備え、
    前記判定部は、前記ジェスチャ操作の条件に、前記声検出部からの前記声の条件を加えて、前記選択確定、および前記制御部に対する表示の変更指示を行う請求項1〜請求項3のいずれか1つに記載のジェスチャ入力装置。
  5. 前記手差しジェスチャは、手の指による指差しジェスチャである請求項1〜請求項4のいずれか1つに記載のジェスチャ入力装置。
  6. 前記操作対象の選択確定を前記操作者に対してフィードバックするフィードバック部を備え、
    前記判定部は、選択確定を行うと前記フィードバック部を作動させる請求項1〜請求項5のいずれか1つに記載のジェスチャ入力装置。
JP2017203204A 2017-10-20 2017-10-20 ジェスチャ入力装置 Active JP6819539B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017203204A JP6819539B2 (ja) 2017-10-20 2017-10-20 ジェスチャ入力装置
PCT/JP2018/033391 WO2019077908A1 (ja) 2017-10-20 2018-09-10 ジェスチャ入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017203204A JP6819539B2 (ja) 2017-10-20 2017-10-20 ジェスチャ入力装置

Publications (3)

Publication Number Publication Date
JP2019079097A JP2019079097A (ja) 2019-05-23
JP2019079097A5 JP2019079097A5 (ja) 2019-11-21
JP6819539B2 true JP6819539B2 (ja) 2021-01-27

Family

ID=66174023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017203204A Active JP6819539B2 (ja) 2017-10-20 2017-10-20 ジェスチャ入力装置

Country Status (2)

Country Link
JP (1) JP6819539B2 (ja)
WO (1) WO2019077908A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021133877A (ja) * 2020-02-28 2021-09-13 株式会社Subaru 車両の乗員監視装置
JP7122408B2 (ja) * 2020-10-28 2022-08-19 株式会社日本総合研究所 情報処理装置及び情報処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
JP2007080060A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd 対象物特定装置
JP2016091192A (ja) * 2014-10-31 2016-05-23 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体

Also Published As

Publication number Publication date
JP2019079097A (ja) 2019-05-23
WO2019077908A1 (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
CN107107841B (zh) 信息处理装置
US10528150B2 (en) In-vehicle device
KR102029842B1 (ko) 차량 제스처 인식 시스템 및 그 제어 방법
JP6614087B2 (ja) 車両用操作装置
KR102084032B1 (ko) 사용자 인터페이스, 운송 수단 및 사용자 구별을 위한 방법
US20180239441A1 (en) Operation system
US10691122B2 (en) In-vehicle system
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2017111711A (ja) 車両用操作装置
WO2019016936A1 (ja) 操作支援装置および操作支援方法
JP2006264615A (ja) 車両用表示装置
JP6819539B2 (ja) ジェスチャ入力装置
JP6477123B2 (ja) 操作システム
CN111231860A (zh) 用于车辆的操作模块、操作方法、操作系统及存储介质
JP2014021748A (ja) 操作入力装置及びそれを用いた車載機器
WO2018116565A1 (ja) 車両用情報表示装置及び車両用情報表示プログラム
KR20170010066A (ko) 차량 내 사용자 인터페이스 제공 방법 및 그 장치
JP2015184841A (ja) ジェスチャ入力装置
WO2016031152A1 (ja) 車両用入力インターフェイス
TWM564749U (zh) 車輛多螢幕控制系統
JP2018132824A (ja) 操作装置
KR20150056322A (ko) 헤드업 디스플레이의 메뉴 제어 장치 및 방법
JP2018063521A (ja) 表示制御システムおよび表示制御プログラム
US20230249552A1 (en) Control apparatus
JP2015168304A (ja) 検知装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R151 Written notification of patent or utility model registration

Ref document number: 6819539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151