JP2015041244A - 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム - Google Patents

電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム Download PDF

Info

Publication number
JP2015041244A
JP2015041244A JP2013171871A JP2013171871A JP2015041244A JP 2015041244 A JP2015041244 A JP 2015041244A JP 2013171871 A JP2013171871 A JP 2013171871A JP 2013171871 A JP2013171871 A JP 2013171871A JP 2015041244 A JP2015041244 A JP 2015041244A
Authority
JP
Japan
Prior art keywords
gesture
input item
user
mobile terminal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013171871A
Other languages
English (en)
Other versions
JP6259225B2 (ja
Inventor
山崎 昇
Noboru Yamazaki
昇 山崎
健司 信太
Kenji Shinta
健司 信太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2013171871A priority Critical patent/JP6259225B2/ja
Publication of JP2015041244A publication Critical patent/JP2015041244A/ja
Application granted granted Critical
Publication of JP6259225B2 publication Critical patent/JP6259225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】電子機器でのジェスチャ認識に基づいて、携帯端末のタッチパネル上の操作を行うことができる「電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法」を提供する。
【解決手段】ジェスチャ入力項目を所定の座標情報に変換するための変換テーブル情報を格納した変換テーブル記憶部13と、ジェスチャ認識部15により認識されたユーザジェスチャがジェスチャ入力項目に該当すると入力項目判定部16により判定された場合、変換テーブル情報を用いてジェスチャ入力項目から所定の座標情報を生成して携帯端末20に送信する制御部17とを備え、車載機10において認識されたユーザジェスチャを所定の座標情報に変換して携帯端末20に送信することにより、携帯端末20のタッチパネル上でその座標情報に対応する位置が操作されたのと同様の処理を行うことができるようにする。
【選択図】図1

Description

本発明は、電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システムに関し、特に、携帯端末に画面表示された画像を電子機器に表示させて電子機器から携帯端末の操作を行うことができるようになされたシステムに適用して好適なものである。
近年、スマートフォンのような携帯端末と車載機とを連携させるミラーリンク(登録商標:以下同様)と呼ばれる技術が提供されている。ミラーリンクは、携帯端末に表示された画像を車載機のディスプレイに鏡のようにそのまま映すという仕組みで、車載機のディスプレイに表示された画像を通じて携帯端末の操作を行うことができるようになされている。これにより、携帯端末にインストールしたミラーリンク対応のアプリケーション(以下、携帯アプリという)を車載機のディスプレイ上で操作できるようになる。
例えば、図4に示すように、地図アプリがインストールされた携帯端末101から、携帯端末101にて表示中の地図画像を車載機102に送信し、車載機102のディスプレイに携帯端末101と同じ地図画像を表示させることが可能である。また、車載機102のタッチパネルに対するタッチ位置を表す位置情報(座標情報)を車載機102から携帯端末101に送信し、携帯端末101がこの位置情報をもとに、携帯端末101のタッチパネル上で車載機102と同じ位置がタッチ操作されたのと同様の処理(地図のスクロール、拡大/縮小、回転など)を行うことも可能である。
このように、ミラーリンクでは、携帯アプリを車載機のディスプレイ上で操作できるようにするために、車載機のタッチパネルに対するタッチ位置を座標情報として車載機から携帯端末に送信する構成となっている。そのため、車載機側においてユーザにより行われた空間上のジェスチャを認識して得られるコマンドに基づいて携帯アプリを操作するための情報を携帯端末に送信することができない。よって、車載機でのジェスチャ認識を用いて携帯アプリの操作を行うためには、携帯アプリ自体をジェスチャ認識対応にし、かつ、ミラーリンクではない他の通信制御を使用する必要があった。
なお、シングルタッチにのみ対応したタッチパネル付き車載装置でマルチタッチ対応のタッチパネル付き携帯電話を操作する際に、車載装置側でマルチタッチジェスチャの種別(例えば、2本指を使ったタップ操作や、2本指の間隔を広げたり縮めたりするピンチ操作など)を選択した後、シングルタッチで疑似的な操作を行うことにより、選択されたジェスチャ操作の入力操作信号を携帯電話に送信するようにした技術が提案されている(例えば、特許文献1参照)。
特開2012−8968号公報
しかしながら、上記特許文献1に記載の技術では、シングルタッチジェスチャの疑似的な操作によってマルチタッチジェスチャの入力操作信号を生成することができるのみである。そのため、携帯端末から車載機に送信されて表示された画像について、タッチパネルから離れた空間上で行われるジェスチャを認識して携帯端末の操作を行うことはできないという問題があった。
本発明は、このような問題を解決するために成されたものであり、携帯端末に画面表示された画像を電子機器に表示させて電子機器から携帯端末の操作を行うことができるようになされたシステムにおいて、電子機器での空間上のジェスチャ認識に基づいて、携帯端末のタッチパネル上での操作を行うことができるようにすることを目的とする。
上記した課題を解決するために、本発明では、タッチパネル付きの携帯端末で生成された画像データを受信して画像表示するとともに、携帯端末の操作を行うことができるようになされた電子機器が、ジェスチャ入力項目を所定の座標点または座標列に変換するための変換テーブル情報を格納した変換テーブル記憶部を備え、ジェスチャ認識部により認識されたユーザジェスチャがジェスチャ入力項目に該当する場合、変換テーブル情報を用いてジェスチャ入力項目から所定の座標点または座標列を生成して携帯端末に送信するようにしている。
上記のように構成した本発明によれば、電子機器において認識されたユーザジェスチャがジェスチャ入力項目に該当する場合、そのジェスチャ入力項目が所定の座標点または座標列に変換されて携帯端末に送信されるので、携帯端末ではその座標点または座標列をもとに、携帯端末のタッチパネル上でその座標点または座標列に対応する位置が操作されたのと同様の処理を行うことが可能となる。これにより、電子機器でのジェスチャ認識に基づいて携帯端末のタッチパネル上での操作を行うことができる。
本発明の電子機器の一実施形態に係る車載機の機能構成例を示すブロック図である。 本実施形態による変換テーブル記憶部に格納される変換テーブル情報の一例を示す図である。 本実施形態による車載機の動作例を示すフローチャートである。 ミラーリンクで連携された車載機と携帯端末の動作を説明するための図である。
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本発明の電子機器の一実施形態に係る車載機の機能構成例を示すブロック図である。本実施形態の車載機10は、タッチパネル付きの携帯端末20とミラーリンクで連携する。そして、携帯端末20で生成された画像データを受信して画像表示するとともに、携帯端末20にインストールされているアプリケーション(本実施形態では、地図アプリ)の操作(地図のスクロール、拡大/縮小、回転)を車載機10から行うことができるようになされている。
図1に示すように、本実施形態の車載機10は、その機能構成として、画像データ受信部11、画像表示制御部12、変換テーブル記憶部13、撮影画像入力部14、ジェスチャ認識部15、入力項目判定部16および制御部17を備えている。ここで、車載機10には、タッチパネル付きディスプレイ30(以下、単にディスプレイ30とも記す)およびカメラ40が接続され、あるいは、一体として構成されている。
上記各機能ブロック11〜12,14〜17は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11〜12,14〜17は、実際には車載機10が備えるコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
画像データ受信部11は、携帯端末20のタッチパネル付きディスプレイ21(以下、単にディスプレイ21とも記す)に表示中の地図画像に係る画像データを携帯端末20から受信する。画像表示制御部12は、画像データ受信部11により受信された画像データに基づいて、地図画像をディスプレイ30に表示させる。
なお、携帯端末20のディスプレイ21は縦長型であり、車載機10に接続されたディスプレイ30は横長型である。携帯端末20は、車載機10とミラーリンク接続されたとき、ディスプレイ21に表示中の縦長型の地図画像を車載機10のディスプレイ30に表示すべき横長型の地図画像へと変換して自身のディスプレイ21の表示を横長型の地図画像に変更した上で、変換後の画像データを車載機10に送信する。車載機10の画像データ受信部11は、この画像データを受信する。
画像データ受信部11によって携帯端末20から画像データが受信され、画像表示制御部12によってその画像データに基づいて地図画像がディスプレイ30に表示されると、ディスプレイ30上で地図画像が表示された位置を示す座標情報(例えば、ディスプレイ30の四隅の座標情報)が車載機10から携帯端末20に返される。携帯端末20では、車載機10から返されてきたディスプレイ30の四隅の座標情報と、ディスプレイ21の四隅の座標情報とを対応付けて記憶する(以下、この記憶する情報を「座標関連付け情報」という)。
これにより、車載機10のタッチパネルに対するタッチ位置を表す座標情報を車載機10から携帯端末20に送信し、携帯端末20がこの座標情報を座標関連付け情報に基づいて携帯端末20のタッチパネル上の座標情報に変換することにより、携帯端末20のタッチパネル上で車載機10と同じ位置がタッチ操作されたのと同様の処理を行うことが可能な状態となる。
変換テーブル記憶部13は、ジェスチャ認識の対象としたい複数のジェスチャ入力項目をそれぞれタッチパネル付きディスプレイ30のタッチパネル上における座標点または座標列(以下、これらをまとめて座標情報という)に変換するための変換テーブル情報をあらかじめ格納している。本実施形態において、ジェスチャ入力項目は、地図画像のスクロール、拡大・縮小、回転の少なくともいずれかに関するものを含む。
例えば、変換テーブル記憶部13には、地図画像のスクロールに関して、「右スクロール」、「左スクロール」、「上スクロール」、「下スクロール」に関するジェスチャ入力項目をそれぞれ所定の座標列に変換するための情報が格納されている。ここで、「右スクロール」に関するジェスチャ入力項目は、空間上で手を右から左へと移動させる動作を示すものであり、その動作を示す「手を右から左へと移動させる動作」というコマンド情報が格納されている。また、このジェスチャ入力項目に対応して、「右スクロール」に関する座標列の情報が格納されている。
同様に、「左スクロール」、「上スクロール」、「下スクロール」に関するジェスチャ入力項目はそれぞれ、空間上で手を左から右へと移動させる動作、空間上で手を上から下へと移動させる動作、空間上で手を下から上へと移動させる動作を示すものであり、それぞれの動作を示すコマンド情報が格納されている。また、これらのジェスチャ入力項目に対応して、「左スクロール」、「上スクロール」、「下スクロール」に関する座標列の情報がそれぞれ格納されている。
また、変換テーブル記憶部13には、地図画像の拡大・縮小に関して、「拡大」、「縮小」に関するジェスチャ入力項目をそれぞれ所定の座標列に変換するための情報が格納されている。ここで、「拡大」に関するジェスチャ入力項目は、空間上で2本指の間隔を広げる動作を示すものであり、その動作を示すコマンド情報が格納されている。同様に、「縮小」に関するジェスチャ入力項目は、空間上で2本指の間隔を縮める動作を示すものであり、その動作を示すコマンド情報が格納されている。また、これらのジェスチャ入力項目に対応して、「拡大」、「縮小」に関する座標列の情報がそれぞれ格納されている。
さらに、変換テーブル記憶部13には、地図画像の回転に関して、「右回転」、「左回転」に関するジェスチャ入力項目をそれぞれ所定の座標列に変換するための情報が格納されている。ここで、「右回転」に関するジェスチャ入力項目は、空間上で手を右回転させる動作を示すものであり、その動作を示すコマンド情報が格納されている。同様に、「左回転」に関するジェスチャ入力項目は、空間上で手を左回転させる動作を示すものであり、その動作を示すコマンド情報が格納されている。また、これらのジェスチャ入力項目に対応して、「右回転」、「左回転」に関する座標列の情報がそれぞれ格納されている。
図2は、一例として「右スクロール」および「拡大」のジェスチャ入力項目をそれぞれ所定の座標列に変換するための変換テーブル情報を示す図である。図2に示すように、変換テーブル記憶部13には、「右スクロール」のジェスチャ入力項目に対応して、タッチパネル上の所定の開始位置から終了位置まで、右から左方向へと所定の長さだけ1本の指でフリック操作をした場合に得られる座標列が格納されている。また、「拡大」のジェスチャ入力項目に対応して、タッチパネル上の所定の開始位置(例えば、タッチパネルの中央点)を中心として、2本の指を使ってその間隔を押し広げるピンチ操作をした場合に得られる座標列が格納されている。
撮影画像入力部14は、ユーザの指の撮影画像をカメラ40より入力する。カメラ40は、例えば、車載機10またはその近傍に設定されており、車載機10の前方の所定範囲を撮影する。ジェスチャ認識部15は、撮影画像入力部14により入力された撮影画像から、ユーザによって空間上で行われた指によるジェスチャ(以下、ユーザジェスチャという)を認識する。そして、認識したジェスチャを表わすコマンド情報を出力する。
入力項目判定部16は、変換テーブル記憶部13に格納されている変換テーブル情報を参照して、ジェスチャ認識部15により認識されたユーザジェスチャがジェスチャ入力項目に該当するか否かを判定する。すなわち、入力項目判定部16は、ジェスチャ認識部15より出力されるユーザジェスチャに関するコマンド情報が、変換テーブル記憶部13にジェスチャ入力項目のコマンド情報として格納されているか否かを判定する。
制御部17は、ジェスチャ認識部15により認識されたユーザジェスチャがジェスチャ入力項目に該当すると入力項目判定部16により判定された場合、変換テーブル記憶部13に格納されている変換テーブル情報を用いて、ジェスチャ入力項目から所定の座標情報を生成して携帯端末20に送信する。
携帯端末20では、制御部17により車載機10から送られてきた座標情報をもとに、携帯端末20のタッチパネル上でその座標情報に対応する位置が操作されたのと同様の処理を行う。すなわち、携帯端末20では、上述した座標関連付け情報を用いて、車載機10から送られてきた座標情報(タッチパネル付きディスプレイ30におけるタッチパネル上での疑似的な操作座標情報)を、携帯端末20のタッチパネル上での疑似的な操作座標情報に変換し、変換後の座標情報に対応する位置が操作されたのと同様の処理を行う。
図3は、上記のように構成した本実施形態による車載機10の動作例を示すフローチャートである。なお、図3に示すフローチャートの処理は、車載機10と携帯端末20とを接続してミラーリンクで連携させたときに開始する。まず、画像データ受信部11は、携帯端末20のディスプレイ21に表示中の地図画像に係る画像データを携帯端末20から受信する(ステップS1)。そして、画像表示制御部12は、画像データ受信部11により受信された画像データに基づいて、地図画像をディスプレイ30に表示させる(ステップS2)。その後、車載機10は、地図画像が表示されたディスプレイ30の四隅の座標情報を携帯端末20に返信する(ステップS3)。
次に、撮影画像入力部14は、ユーザの撮影画像がカメラ40より入力されたか否かを判定する(ステップS4)。撮影画像が入力されていない場合、車載機10は、携帯端末20とのミラーリンクによる連携が終了したか否かを判定し(ステップS5)、連携が終了した場合は図3に示すフローチャートの処理を終了する。連携が終了していなければ、処理はステップS1に戻る。これにより、携帯端末20において地図画像が更新されるのに合わせて、車載機10においても地図画像が随時更新して表示される。
一方、撮影画像入力部14により撮影画像が入力された場合、ジェスチャ認識部15は、撮影画像入力部14により入力された撮影画像からユーザジェスチャを認識する(ステップS6)。次いで、入力項目判定部16は、ジェスチャ認識部15により認識されたユーザジェスチャが所定のジェスチャ入力項目に該当するか否かを判定する(ステップS7)。ここで、ジェスチャ認識部15により認識されたユーザジェスチャが所定のジェスチャ入力項目に該当しないと判定された場合、入力項目判定部16は、ユーザジェスチャがジェスチャ入力項目に該当しない旨をユーザに知らせるエラーメッセージをディスプレイ30に表示させる(ステップS8)。その後、処理はステップS1に戻る。
一方、ジェスチャ認識部15により認識されたユーザジェスチャがジェスチャ入力項目に該当すると入力項目判定部16により判定された場合、制御部17は、変換テーブル記憶部13に格納されている変換テーブル情報を用いて、ジェスチャ入力項目から所定の座標情報を生成して携帯端末20に送信する(ステップS9)。その後、処理はステップS1に戻る。これにより、車載機10から送られた座標情報に基づいて携帯端末20において所定の処理が実行され、それによって更新された地図画像と同じ地図画像がディスプレイ30に表示されることとなる。
以上詳しく説明したように、本実施形態の車載機10は、ジェスチャ認識用のジェスチャ入力項目を所定の座標情報に変換するための変換テーブル情報を格納した変換テーブル記憶部13を備え、ジェスチャ認識部15により認識されたユーザジェスチャがジェスチャ入力項目に該当する場合、変換テーブル情報を用いてジェスチャ入力項目から所定の座標情報を生成して携帯端末20に送信するようにしている。
このように構成した本実施形態によれば、車載機10において認識されたユーザジェスチャがジェスチャ入力項目に該当する場合、そのジェスチャ入力項目が所定の座標情報に変換されて携帯端末20に送信されるので、携帯端末20ではその座標情報をもとに、携帯端末20のタッチパネル上でその座標情報に対応する位置が操作されたのと同様の処理を行うことが可能となる。これにより、車載機10でのジェスチャ認識に基づいて携帯端末20のタッチパネル上での操作を行うことができる。
なお、上記実施形態において、ユーザにより行われるジェスチャの速度(ジェスチャが行われた時間)に応じて、車載機10から携帯端末20に座標情報を送信する時間を制御するようにしてもよい。例えば、ジェスチャ認識部15は、ユーザジェスチャの内容に加えて、当該ユーザジェスチャが行われた時間(ユーザジェスチャの開始から終了までの時間)も認識する。
そして、ジェスチャ認識部15により認識されたユーザジェスチャがジェスチャ入力項目に該当すると入力項目判定部16により判定された場合、制御部17は、ジェスチャ認識部15により認識された時間に応じた速度で座標情報を携帯端末20に送信する。例えば、ユーザジェスチャが行われた時間と同じ時間(あるいは比例する時間)をかけて、座標情報を携帯端末20に送信する。これにより、携帯端末20では、座標情報が送られてくる時間に合わせた速度で地図画像のスクロール等の処理が実行され、車載機10に表示される地図画像についてもそれと同じ速度でスクロール等が行われる。
また、上記実施形態において、制御部17により生成する座標情報の開始位置を指定できるようにしてもよい。例えば、ジェスチャ認識部15は、ユーザジェスチャの内容に加えて、当該ユーザジェスチャによってユーザの指が指示しているディスプレイ30上の位置も認識する。そして、制御部17は、ジェスチャ認識部15により認識された位置を始点として、ジェスチャ入力項目の内容に応じた座標情報を生成して携帯端末20に送信する。
また、上記実施形態では、携帯端末20にインストールされている携帯アプリの例として地図アプリを挙げて説明したが、本発明を適用可能な携帯アプリは地図アプリに限定されない。すなわち、タッチパネルへのタッチ操作やなぞり操作に応じて所定の処理を実行する機能を有する携帯アプリであれば、何れも適用することが可能である。
また、上記実施形態では、フリック、ピンチ、ローテーションなどのなぞり操作に対応するユーザジェスチャに応じて所定の座標列を生成して車載機10から携帯端末20に送信し、これによって画像のスクロール、拡大・縮小、回転といった処理を実行する例について説明したが、本発明はこれに限定されない。例えば、1本指あるいは2本指によるタップ操作に対応するユーザジェスチャに応じて所定の座標点を生成して車載機10から携帯端末20に送信し、これによって所定の処理を実行する場合にも本発明を適用することが可能である。
また、上記実施形態では、電子機器の一例として車載機10を挙げて説明したが、本発明を適用可能な電子機器は車載機10に限定されない。すなわち、ミラーリンクまたはこれと同様の通信制御技術に対応した電子機器であれば何れにも適用することが可能である。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
10 車載機(電子機器)
11 画像データ受信部
12 画像表示制御部
13 変換テーブル記憶部
14 撮影画像入力部
15 ジェスチャ認識部
16 入力項目判定部
17 制御部
20 携帯端末

Claims (6)

  1. タッチパネル付きの携帯端末で生成された画像データを受信して画像表示するとともに、上記携帯端末の操作を行うことができるようになされた電子機器であって、
    ジェスチャ入力項目を所定の座標点または座標列に変換するための変換テーブル情報を格納した変換テーブル記憶部と、
    ユーザの撮影画像を入力する撮影画像入力部と、
    上記撮影画像入力部により入力された撮影画像から上記ユーザにより行われたジェスチャであるユーザジェスチャを認識するジェスチャ認識部と、
    上記ジェスチャ認識部により認識されたユーザジェスチャが上記ジェスチャ入力項目に該当するか否かを判定する入力項目判定部と、
    上記ジェスチャ認識部により認識されたユーザジェスチャが上記ジェスチャ入力項目に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記ジェスチャ入力項目から上記所定の座標点または座標列を生成して上記携帯端末に送信する制御部とを備えたことを特徴とする電子機器。
  2. 上記ジェスチャ認識部は、上記ユーザジェスチャの内容に加えて、上記ユーザジェスチャが行われた時間を認識し、
    上記制御部は、上記ジェスチャ認識部により認識されたユーザジェスチャが上記ジェスチャ入力項目に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記ジェスチャ入力項目から上記所定の座標点または座標列を生成し、上記ジェスチャ認識部により認識された時間に応じた速度で上記座標点または座標列を上記携帯端末に送信することを特徴とする請求項1に記載の電子機器。
  3. 上記ジェスチャ認識部は、上記ユーザジェスチャの内容に加えて、上記ユーザジェスチャによって上記ユーザの指が指示している上記電子機器のディスプレイ上の位置を認識し、
    上記制御部は、上記ジェスチャ認識部により認識されたユーザジェスチャが上記ジェスチャ入力項目に該当すると上記入力項目判定部により判定された場合、上記ジェスチャ認識部により認識された位置を始点として、上記変換テーブル情報を用いて上記ジェスチャ入力項目から上記所定の座標点または座標列を生成して上記携帯端末に送信する制御部とを備えたことを特徴とする請求項1に記載の電子機器。
  4. 上記ジェスチャ入力項目は、画像のスクロール、拡大・縮小、回転の少なくともいずれかに関するジェスチャ入力項目を含むことを特徴とする請求項1に記載の電子機器。
  5. タッチパネル付きの携帯端末に画面表示された画像を電子機器に表示させるようになされたシステムにおいて、上記電子機器からジェスチャ認識を利用して上記携帯端末の操作を行うためのジェスチャ認識操作方法であって、
    上記電子機器の撮影画像入力部が、ユーザの撮影画像を入力する第1のステップと、
    上記電子機器のジェスチャ認識部が、上記撮影画像入力部により入力された撮影画像から上記ユーザにより行われたジェスチャであるユーザジェスチャを認識する第2のステップと、
    上記電子機器の入力項目判定部が、上記ジェスチャ認識部により認識されたユーザジェスチャが所定のジェスチャ入力項目に該当するか否かを判定する第3のステップと、
    上記電子機器の制御部が、上記ジェスチャ認識部により認識されたユーザジェスチャが上記ジェスチャ入力項目に該当すると上記入力項目判定部により判定された場合、上記ジェスチャ入力項目を所定の座標点または座標列に変換するための変換テーブル情報を用いて上記ジェスチャ入力項目から上記所定の座標点または座標列を生成して上記携帯端末に送信する第4のステップとを有することを特徴とする、電子機器に接続された携帯端末のジェスチャ認識操作方法。
  6. タッチパネル付きの携帯端末に画面表示された画像を車載機に表示させて上記車載機から上記携帯端末の操作を行うことができるようになされた車載システムであって、
    上記車載機は、
    ジェスチャ入力項目を所定の座標点または座標列に変換するための変換テーブル情報を格納した変換テーブル記憶部と、
    ユーザの撮影画像を入力する撮影画像入力部と、
    上記撮影画像入力部により入力された撮影画像から上記ユーザにより行われたジェスチャであるユーザジェスチャを認識するジェスチャ認識部と、
    上記ジェスチャ認識部により認識されたユーザジェスチャが上記ジェスチャ入力項目に該当するか否かを判定する入力項目判定部と、
    上記ジェスチャ認識部により認識されたユーザジェスチャが上記ジェスチャ入力項目に該当すると上記入力項目判定部により判定された場合、上記変換テーブル情報を用いて上記ジェスチャ入力項目から上記所定の座標点または座標列を生成して上記携帯端末に送信する制御部とを備え、
    上記携帯端末は、上記制御部により上記車載機から送られてきた座標列をもとに、上記タッチパネル上で上記座標列に対応する位置がなぞり操作されたのと同様の処理を行うことを特徴とする車載システム。
JP2013171871A 2013-08-22 2013-08-22 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム Active JP6259225B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013171871A JP6259225B2 (ja) 2013-08-22 2013-08-22 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171871A JP6259225B2 (ja) 2013-08-22 2013-08-22 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム

Publications (2)

Publication Number Publication Date
JP2015041244A true JP2015041244A (ja) 2015-03-02
JP6259225B2 JP6259225B2 (ja) 2018-01-10

Family

ID=52695369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171871A Active JP6259225B2 (ja) 2013-08-22 2013-08-22 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム

Country Status (1)

Country Link
JP (1) JP6259225B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016145863A (ja) * 2015-02-06 2016-08-12 株式会社Jvcケンウッド 表示制御装置、表示制御方法、表示制御プログラム、送信制御装置、送信制御方法、送信制御プログラム
JP2017068572A (ja) * 2015-09-30 2017-04-06 京セラ株式会社 ウェアラブル装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
JP2012121386A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 車載装置
JP2012213141A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置、携帯電話機、および機器連携システム
JP2012253736A (ja) * 2011-05-06 2012-12-20 Denso Corp 車両用表示装置および情報表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
JP2012121386A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 車載装置
JP2012213141A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置、携帯電話機、および機器連携システム
JP2012253736A (ja) * 2011-05-06 2012-12-20 Denso Corp 車両用表示装置および情報表示システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016145863A (ja) * 2015-02-06 2016-08-12 株式会社Jvcケンウッド 表示制御装置、表示制御方法、表示制御プログラム、送信制御装置、送信制御方法、送信制御プログラム
JP2017068572A (ja) * 2015-09-30 2017-04-06 京セラ株式会社 ウェアラブル装置

Also Published As

Publication number Publication date
JP6259225B2 (ja) 2018-01-10

Similar Documents

Publication Publication Date Title
JP5999573B2 (ja) 情報表示処理装置
US20150199125A1 (en) Displaying an application image on two or more displays
US10146407B2 (en) Physical object detection and touchscreen interaction
JP6609994B2 (ja) 表示制御方法、情報処理装置及び表示制御プログラム
US20130263013A1 (en) Touch-Based Method and Apparatus for Sending Information
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
CN103955339A (zh) 一种终端操作方法及终端设备
CN114895838A (zh) 应用程序显示方法和终端
JP2013143129A (ja) タッチスクリーンを具備する電子機器における画面拡大装置及び方法
US10929012B2 (en) Systems and methods for multiuse of keys for virtual keyboard
WO2016042834A1 (ja) 分割画面内のコンテンツの拡大方法、情報処理装置およびその制御方法と制御プログラム
US20120218189A1 (en) Method and medium for inputting korean characters using a touch screen
CN105320480B (zh) 屏幕播送方法以及使用该方法的系统与装置
WO2016042864A1 (ja) マルチ画面の表示位置入替方法、情報処理装置およびその制御方法と制御プログラム
KR20170014589A (ko) 번역 서비스를 제공하는 사용자 단말 장치 및 그 제어 방법
JP6259225B2 (ja) 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
JP4854797B2 (ja) プログラムおよび電子機器
JP2015102875A (ja) 表示システム及び表示制御装置
US20160110016A1 (en) Display control device, control method thereof, and program
JP2015041243A (ja) 電子機器およびこれに接続された携帯端末の音声認識操作方法、車載システム
JPWO2016185806A1 (ja) 表示装置および表示制御方法
JP2014182587A (ja) 情報端末、操作領域制御方法及び操作領域制御プログラム
JP2019200811A (ja) 表示制御方法、情報処理装置及び表示制御プログラム
JP2015210694A (ja) オーサリング装置、方法及びプログラム
JP2014044673A (ja) 携帯端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171208

R150 Certificate of patent or registration of utility model

Ref document number: 6259225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150