JP2021135655A - 触感提示方法、システムおよびプログラム - Google Patents

触感提示方法、システムおよびプログラム Download PDF

Info

Publication number
JP2021135655A
JP2021135655A JP2020030375A JP2020030375A JP2021135655A JP 2021135655 A JP2021135655 A JP 2021135655A JP 2020030375 A JP2020030375 A JP 2020030375A JP 2020030375 A JP2020030375 A JP 2020030375A JP 2021135655 A JP2021135655 A JP 2021135655A
Authority
JP
Japan
Prior art keywords
tactile
tactile sensation
display
sensation
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020030375A
Other languages
English (en)
Other versions
JP7235689B2 (ja
Inventor
優輝 田島
Yuki Tajima
優輝 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020030375A priority Critical patent/JP7235689B2/ja
Publication of JP2021135655A publication Critical patent/JP2021135655A/ja
Application granted granted Critical
Publication of JP7235689B2 publication Critical patent/JP7235689B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ディスプレイに表示されているユーザが要求した任意の物体の触感を当該ユーザに視覚的に提示する。【解決手段】タッチパネルディスプレイ102に表示される物体の触感を視覚的に提示する触感提示システム10において、物体の映像を取得する映像取得部と、物体の種別毎に触感パラメータを保持する触感DBと、ディスプレイに表示される物体の種別及び位置を識別する識別部と、物体の種別及び位置の識別結果並びに触感記憶手段に基づいて、ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する触覚情報生成部と、ディスプレイに対する触感要求操作に基づいて触感要求位置Pを検知する触覚要求検知部と、位置Pに対応した触感パラメータを触感情報に基づいて取得する触覚パラメータ取得部と、取得した触感パラメータに基づいて、位置Pの触感を視覚的に表現する触感インジケータを表示する触覚インジケータ表示部と、を有する。【選択図】図1

Description

本発明は、触感提示方法、システムおよびプログラムに係り、特に、ユーザが指定したディスプレイ上の位置に表示されている任意の物体の触感を当該ユーザに視覚的、直感的に提示できる触感提示方法、システムおよびプログラムに関する。
非特許文献1には、マウス等のポインティングデバイスによる位置入力を矢印カーソルとしてディスプレイ上に表示し、そのカーソルの動きや大きさを制御することでユーザに触感を提示するシステムが開示されている。例えば、ディスプレイに表示されたガタガタした面の上で矢印カーソルを移動させようとすると、マウスカーソルが上下に揺れるように表示される。また、ガムテープの接着面が表示された部分で矢印カーソルを動かそうとすると、カーソルがつっかかりながら移動する。非特許文献1では、このようなカーソルの動きの変化によって、ユーザはディスプレイに表示された物体の触感を擬似的に得られる。
特許文献1には、主にオンラインショッピングへの利用を想定し、商品の各種情報を提供するウェブページをHTML文書の形式で生成するサーバ装置と、タッチパネルからのタッチ入力に基づいてアクチュエータを駆動することで物体の触感を提示する触感提示装置が開示されている。
特許文献1では、サーバ装置が生成するウェブページに「触感体感」と記載されたアイコンが表示されており、ユーザはスマートフォンのような消費者端末からアイコンをクリックすることで、サーバ装置から触感提示装置の制御パラメータをダウンロードできる。消費者端末と触感提示装置とは有線あるいは無線で接続され、ダウンロードした制御パラメータを触感提示装置に適用し、触感提示装置のタッチパネルに指先で触れることでユーザは所望の商品の触感を体感できる。
特開2019-128738号公報
Keita Watanabe Michiaki Yasumura, VisualHaptics: Generating Haptic Sensation Using Only Visual Cues,ACE '08: Proceedings of the 2008 International Conference on Advances in Computer Entertainment Technology
特許文献1の装置は、オンラインショッピングにおいて触感をユーザに提供する用途に最適化されている。非特許文献1も、予め用意した物体の触感を提示するシステムである。このため、任意の場面において、任意の物体の触感をユーザに視覚的、直感的に提供する装置を構成する際、以下の点が技術的な課題となる。
第1に、物体に紐づく触感パラメータを事前に準備する必要があるため、触感を体感させる対象物体の点数の増大に伴い、触感パラメータのセッティング回数が増大し、時間的コストが生じる。
第2に、一つの物品に対して一つの触感パラメータを設定しているため、同一場面において複数の物体の触感を同時に再現できない。例えば、キッチンの場面ではコップやフライパンといった様々な物体が存在する。そのような場面において、コップの触感やフライパンの触感を同時に視覚的、直感的に表現することができない。
本発明の目的は、上記の技術課題を解決し、ディスプレイに表示されている物体について、ユーザが要求した任意の物体の触感を視覚的、直感的に提示できる触感提示方法、システムおよびプログラムを提供することにある。
上記の目的を達成するために、本発明は、ディスプレイに表示される物体の触感を視覚的に提示する触感提示システムにおいて、以下の構成を具備した点に特徴がある。
(1) 物体の映像を取得する手段と、物体の種別ごとに触感パラメータを保持する触感記憶手段と、ディスプレイに表示される物体の種別および位置を識別する手段と、前記物体の種別および位置の識別結果ならびに前記触感記憶手段に基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段と、ディスプレイに対する触感要求操作に基づいて触感要求位置を検知する手段と、前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段と、取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示する手段とを具備した。
(2) 触感インジケータが物体の背景領域の全域に複数表示されるようにした。
(3) 触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化するようにした。
(4) 触感要求位置のスライドに応じて触感インジケータの表示位置が移動するようにした。
(5) 今回のフレーム画像に基づいて生成した触感情報を、前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正する手段を具備した。
(6) 今回フレームの全てのピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正する手段を具備した。
(7) フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正する手段を適用しないようにした。
(1) ディスプレイに表示される物体の種別および位置が識別され、ユーザが触感を体感したい物体の表示位置を指定すると、当該指定位置に表示されている物品の識別結果に基づいてその触感パラメータが取得されて触感がインジケータで表現されるので、ユーザはディスプレイに表示される任意の物体の触感を視覚的、直感的に得られるようになる。
その結果、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を視覚的に経験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。
(2) 触感インジケータが物体の背景領域の全域に表示されるので、触感を得たい物品の表示を妨げることなく、当該物品の様々な触感を視覚的、直感的に提示できるようになる。
(3) 触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化するので、触感が位置に応じて変化する物品の触感も漏れなく視覚的に表現できるようになる。
(4) 触感要求位置のスライドに応じて触感インジケータの表示位置が移動するので、物品の質感を視覚的にダイナミックに表現できるようになる。
(5) 今回のフレーム画像に基づいて生成した触感情報を前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正することができるので、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。
(6) 今回フレームの各ピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正するので、種別の推定結果を時間的、空間的に抽象化できる。したがって、種別の推定において一時的あるいは部分的な誤認識が生じたとしても、触感表現への影響を軽減できるようになる。
(7) フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正を適用しないようにしたので、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。
本発明を適用した触感提示システムの機能ブロック図である。 触感情報の例を示した図である。 触覚の要求方法を説明した図である。 本発明の第1実施形態に係る触覚インジケータの表示方法を示した図である。 本発明の第2実施形態に係る触覚インジケータの表示方法を示した図である。 触感インジケータの形状で触感を表現する例を示した図である。 針鼠の触覚を触感インジケータの形状で表現する例を示した図である。 触感インジケータの大きさで触感を表現する例を示した図である。 人顔の頬部分の触感を触感インジケータの大きさで表現した図である。 温度を触感インジケータの色で表現する例を示した図である。 滑らかさを触感インジケータの動きで表現する例を示した図である。 タッチ操作のスライド位置の触感をインジケータの動きで表現する例を示した図である。 タッチ操作を直線的にスライドされたときの触感をインジケータがスライド方向の左右に変位することで表現する例を示した図である。 タッチ操作のスライドに同期して背景領域の触感インジケータを移動させ、更にその形状等をスライド位置の触感に応じて変化させる例を示した図である。 タッチ操作の位置がスライドされたときに触感が変化する過程で触感インジケータの表示を部分的に切り替える例を示した図である。 タッチ位置が触覚の異なる物品間でスライドされる場合の触感インジケーの表示切替方法を模式的に示した図である。 本発明を適用した触感提示方法のフローチャートである。 触感提示システムをローカル端末及びサーバ装置で構成した実施形態の機能ブロック図である。 図18に示した触感提示システムのシーケンスフローである。 触感提示システムをローカル端末及びサーバ装置で構成した実施形態の機能ブロック図である。 図20に示した触感提示システムのシーケンスフローである。 触感提示システムをローカル端末で構成した実施形態の機能ブロック図である。 マップ修正部を備えた触感提示システムの機能ブロック図である。 マップ修正部の機能を説明した図である。 マップ修正部をローカル端末に備えた触感提示システムの機能ブロック図である。 今回フレームの触感要求位置の種別を修正する方法を模式的に示した図である。 カメラの切替わりや物体の入替わりを検知する方法を模式的に示した図である。 マップ修正部をサーバ装置に備えた触感提示システムの機能ブロック図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用した触感提示システム10の機能ブロック図である。本発明の触感提示システム10は、複数の物体を表示するディスプレイ上でユーザが指定した物体の触感情報を当該ディスプレイ上に視覚的に表現することで、ユーザへの触感提示を実現する。なお、以下の実施形態は本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。
本発明では、触感を要求する物品の指定がタッチパネルディスプレイに対するタッチ操作で行われる場合を例にして説明するが、本発明はこれのみに限定されず、マウス等のポインティングデバイスによるポインティング操作で指定するようにしても良い。
映像取得部100は、被写体として物体を含む静止画像または動画映像(以下、映像またはフレーム画像で代表する)をネットワーク経由またはローカルに取得し、タッチ操作を検知できるタッチパネル102aを表示面に備えたディスプレイ102に表示する。
物体識別部101は、種別識別部101aおよび位置識別部101bを含み、タッチパネルディスプレイ102に表示される物体の種別および位置座標をそれぞれ識別する。位置座標は、平面的な2D位置座標であっても良いし、奥行き情報(z軸方向)を加えた立体的な3D位置座標であっても良い。
前記種別識別部101aとしては、矩形領域として二次元の位置座標を推定するYOLO、あるいは自由形状の領域として二次元の位置座標を推定するDeepLabなどのアルゴリズムを使用できる。奥行き情報を推定するアルゴリズムとしてはPlaneNetなどを使用できる。また、TOF (Time of Flight) センサ等により物体の奥行き情報を取得している場合はその値を用いてもよい。
触感データベース(DB)103には、物体の種別ごとに、後に詳述する触感パラメータが保持されている。触感パラメータには、物体ごとに固有の「ヤング率」、「表面粗さ」あるいは「熱伝導率」といった物質特性に対応するパラメータ、および/または「硬さ感」、「粗さ感」あるいは「ひんやり感」といった触感の知覚強度に対応するパラメータが含まれる。
触感情報生成部104は、物体識別部101から取得した各物体の種別に対応した触感パラメータを前記触感データベース103から取得し、図2に一例を示したように、認識物体マップd1と触感データサブセットd2とから構成される触感情報Dを生成する。認識物体マップd1は、タッチパネルディスプレイ102における各物体の位置座標を定義する。触感データサブセットd2は、各物体の種別と触感パラメータとを対応付ける。
触感要求検知部105は、位置検知部105aおよび触り方検知部105bを含む。位置検知部105aは、物体を表示しているタッチパネルディスプレイ102のタッチパネル102aに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知する。触り方検知部105bは、前記タッチ操作に基づいて、タッチ速度やタッチ圧の時系列変化を"触り方Q"として検知する。触感要求がタッチ操作ではなくマウス等のポインティングデバイスにより行われた場合は触感要求位置Pのみが検知される。
触感パラメータ取得部106は、前記触感情報Dから触感要求位置Pに基づいて当該ユーザが触感を要求した物体の触感パラメータを取得する。触感インジケータ生成部107は、前記触感要求位置P,触り方Qおよび触感パラメータを、予め学習した所定のモデル式に適用して触感インジケータを生成する。触感インジケータ表示部108は、触感インジケータを前記フレーム画像に重畳表示する。
図3,4,5は、本発明による触覚インジケータInの表示方法を示した図であり、図3に示したように、車、人および犬が表示されている画面においてオペレータが人顔の頬部分にタッチ操作等して触感要求を行うと、当該触覚要求位置Pの触覚パラメータが前記触感パラメータ取得部106により取得される。
図4は、本発明の第1実施形態に係る触覚インジケータInの表示方法を示した図である。本実施形態では、触覚要求位置Pを中心に、当該触覚要求位置Pの触感を視覚的に表現する所定形状の触感インジケータInが重畳表示される。
図5は、本発明の第2実施形態に係る触覚インジケータの表示方法を示した図である。本実施形態では、触覚要求位置Pの物品以外の背景領域(車領域および犬領域を含む)に、触覚要求位置Pの触覚を視覚的に表現する多数の触感インジケータInが離散的かつ規則的な配列で重畳表示される。このとき、触感インジケータInを見易くするために、触感を要求されていない物品の表示色を薄くし、あるいは淡くするようにしても良い。
前記インジケータInは、その形状、色、大きさ、動き等で触覚要求位置Pの触感を視覚的に表現できる。図6は触感インジケータInの形状で触感を表現する例を示した図であり、触感インジケータInは触感が十分に滑らかであれば、その滑らかさを直感的に表現する円形状であるが、触感が粗くなるにつれてその円周上に突起物が出現し、さらに突起物の形状が先鋭化して表面の粗さを直感的に表現する形状となる。
図7は、第2実施形態において、針鼠の体表部分に対して触覚要求した場合の触覚の視覚化例を示した図であり、背景領域に表示された触感インジケータInの外周部に先鋭化した多数の突起が出現している。
図8は、触覚要求位置Pの硬さを触感インジケータInの大きさで表現する例を示している。タッチパネルセンサ102aが接触圧を検知できるよう構成されている場合、本実施形態では、タッチ操作時の押し込み圧力が大きいほど、また触感が柔らかいほど、触感インジケータInのサイズが大きくなる。図9は、人顔の頬部分の硬さを触感インジケータInの大きさで表現した図であり、図5に比べて触感インジケータInが大きく表示され、触感がより柔らかいことを表現している。
図10は、触覚要求位置Pの温度を触感インジケータInで表現する例を示した図であり、触感情報が温度情報を有する場合、温度の違いが触感インジケータInの色で視覚化される。本実施形態では、最も冷たい触感を紫色で表現し、温度が高くなるにつれて色が藍、青、緑、黄、橙、赤へと変化する。
図11は、触覚要求位置Pの滑らかさを触感インジケータInの動きで表現する例を示した図であり、触覚要求位置Pの滑らかさが触感インジケータInの振幅および/または振動数で表現される。本実施形態では、触覚要求位置Pの触感が粗いほど、触感インジケータInを大きな振幅/低い振動数で動かすようにしている。なお、触感インジケータInの振幅および/または振動数が触感要求位置Pからの距離に応じて変化するようにしても良い。例えば、触感要求位置Pから離れた触感インジケータInほど、その振幅および/または振動数が抑制されるようにすることができる。また、触感要求位置Pまでの距離に応じて振動に時間遅れをもたせることでゴムのような弾性や軟性を表現する事もできる。
なお、上記の実施形態では触感インジケータInが触感に応じて形状、色、大きさおよび動きのいずれか一つで表現されるものとして説明したが、本発明はこれのみに限定されるものではなく、例えば触覚要求位置Pの滑らかさ、温度および柔らかさを、触感インジケータInの形状、色および大きさの組み合わせで表現するようにしても良い。
さらに、上記の実施形態では物品の一か所が固定的にタッチ操作等された場合を例にして触感の視覚的な表現方法を説明したが、タッチ操作等の位置がタッチ状態を維持したままスライドされると、各スライド位置の触感に応じてのインジケータInの形状等を連続的に変化させるようにしても良い。
図12は、タッチ操作等の位置がスライドされたときに、スライド位置の触感に応じてインジケータInの動きをスライド操作に同期させなくすることで触感を表現する例を示した図である。本実施形態では、スライド位置の触感が十分に滑らかであると、同図(a)に示したように、タッチ位置のスライド動作とインジケータInの動きとが同期する。これに対して、スライド位置の触感が滑らかでないと、同図(b)に示したように、インジケータInの動きに引っ掛かりが発生してタッチ位置のスライド動作とインジケータInの動きとが同期しなくなる。
図13は、タッチ操作等の位置が直線的にスライドされたときに、スライド位置の触感に応じてインジケータInがスライド方向の左右に変位しながら移動する例を示した図である。本実施形態では、スライド位置の触感が粗いほど左右への変位量が大きくなる。
図14は、タッチ操作等の位置がスライドされたときに、その動きに同期して背景領域の触感インジケータInをスライド方向と同一方向または逆方向に移動させ、さらには移動する触感インジケータInの形状、大きさ、色等をスライド位置の触感に応じて変化させる例を示した図である。
図15は、タッチ操作等の位置がスライドされたときに、触感が変化する過程で触感インジケータInの表示を部分的に切り替える例を示した図であり、ここでは、人物の髪の毛から犬の体表面へスライド操作する場合を例にして説明する。
初めに人物の髪の毛部分に対するタッチ操作が検知されると、同図(a)に示したように、滑らかな触感を視覚化した丸形状の触感インジケータInが背景領域の全面に表示される。次いで、タッチ位置が正面右方向へスライドし、同図(b)に示したように、髪の毛および犬の体表面に跨る位置に達すると、髪の毛部分に対応する画面左側の背景には"滑らか"を視覚化した触感インジケータInが表示される一方、犬の体表部分に対応する画面右側の背景には"粗さ"を視覚化した触感インジケータInが表示される。
タッチ位置が更に右側方向へ進んで犬の体表部に達すると、同図(c)に示したように、犬以外の背景領域に表示される全ての触感インジケータInの形状や色が犬の体表部の触感に対応した形状および色に変化する。
図16は、タッチ操作等の位置が触覚の異なる物品間でスライドされる場合の触感インジケーInの表示切替方法を模式的に示した図である。
本実施形態では、触感要求位置近傍の触感情報Dについて、各触感インジケータInに対応した微小な矩形領域に分割し、各矩形領域の触感に応じて各触感インジケータInの形状や色が決定される。本実施形態では、左3列の各矩形領域の触感は「髪の毛」であり、右3列の各矩形領域の触感は「犬」なので、それぞれ「髪の毛」および「犬」に対応した触感インジケータInが表示される。
これに対して、中央の1列ついては「髪の毛」および「犬」が混在しているが、「犬」の面積が「髪の毛」の面積よりも大きいので「犬」に対応した触感インジケータInが表示される。
図17は、前記触感提示システムの動作を示したフローチャートであり、ステップS1では、物体を被写体とする映像が前記映像取得部100によりネットワーク経由または内蔵メモリ等からフレーム単位で取得される。
ステップS2では、前記映像がディスプレイ102に表示され、これと並行または前後して、ステップS3では前記識別部101がフレーム画像から抽出した各物体の種別を種別識別部101aが識別し、ステップS4では、位置識別部101bが各物体のディスプレイ102上での位置座標を識別し、ステップS5では、前記触感情報生成部104が物体の種別および位置の識別結果ならびに触感データベース103に基づいて触感情報Dを生成する。
ステップS6では、前記触感要求検知部105により、ユーザがディスプレイ102にタッチ操作したか否かが判断される。タッチ操作が検知されると、触感要求検知部105がその位置を触感要求位置Pと認識し、さらに触り方Qを検知してステップS7へ進む。ステップS7では前記触感情報Dを参照し、認識物体マップd1上での触感要求位置Pと対応付けられた触感パラメータが触感データサブセットd2から取得される。
ステップS8では、前記触感要求位置P、触り方Qおよび触感パラメータがモデル式に適用されて触感インジケータInが生成される。ステップS9では、前記触感インジケータInがフレーム画像に重畳表示されてユーザに提示される。したがって、ユーザはディスプレイに表示される任意の物体の触感を視覚的、直感的に体感できるようになる。
本実施形態によれば、ユーザはタッチパネルディスプレイに表示される任意の物体の触感を視覚的に体感できるので、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を体験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。
図18は、触感提示システムを構成する各機能の第1の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態では、触感提示システム10の各機能が、スマートフォンに代表されるローカル端末1とネットワーク上のサーバ装置2とに分散配置され、各機能が連携動作することで触感提示が実現される点に特徴がある。
ローカル端末1において、触感情報取得部104aは、映像取得部100が取得した映像の情報をサーバ装置2へ送信し、前記物体識別マップd1および触感データセットd2から構成される触感情報Dを当該サーバ装置2から取得する。
図19は、第1の分散例の動作を示したシーケンスフローであり、時刻t1では、ローカル端末1の映像取得部100が物体のフレーム画像を取得する。時刻t2では、触感情報取得部104aがフレーム画像の情報を含む触感情報要求をネットワーク経由でサーバ装置2へ送信する。時刻t3では、前記フレーム画像がタッチパネルディスプレイ102に表示される。
サーバ装置2は、前記触感情報要求を受信すると、時刻t4において、識別部101がフレーム画像から物体を抽出し、更に各物体の種別および位置座標を識別する。時刻t5では、サーバ装置2から触感DB103へ、前記物体の種別を記述したパラメータ要求が送信される。触感DB103は、時刻t6において前記物体種別に対応した触感パラメータをサーバ装置2へ応答する。
サーバ装置2は、時刻t7において、取得した各物体の触感パラメータおよび位置座標に基づいて、前記図2を参照して説明した触感情報Dを生成し、時刻t8において当該触感情報Dをローカル端末1へ応答する。
これと並行して、時刻t9では、ローカル端末1の触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知し、さらにタッチ速度やタッチ圧の時系列変化を触り方Qとして検知する。
ローカル端末1では、時刻t10において、触感パラメータ取得部106が前記触感情報Dから触感要求位置Pに基づいて前記ユーザが要求した物体の触感パラメータを取得する。時刻t11では、前記触感インジケータ生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感インジケータInを生成する。時刻t12では、前記触感インジケータ表示部108が前記触感インジケータInを現在のフレーム画像に重畳表示する。
本実施形態によれば、触感提示に要する複数の機能をローカル端末1およびサーバ装置2に分散できるので、処理能力の低いローカル端末にも視覚的な触感提示機能を付与できるようになる。
図20は、触感提示システムを構成する各機能の第2の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は第1の分散例と比較して、識別部101がローカル端末1に実装された点に特徴がある。
図21は、第2の分散例の動作を示したシーケンスフローであり、時刻t21では、ローカル端末1の映像取得部100がフレーム画像を取得し、時刻t22においてタッチパネルディスプレイ102に表示する。時刻t23では、識別部101が前記フレーム画像から物体を抽出し、各物体の種別およびディスプレイ102上での位置座標を識別する。
時刻t24では前記物体の種別が記述された触感情報要求がローカル端末1からサーバ装置2へ送信される。時刻t25では、前記触感情報要求に記述されている物体種別を含むパラメータ要求がサーバ装置2から触感DB103へ送信される。時刻t26では、前記パラメータ要求に対して前記物体種別に対応した触感パラメータが触感DB3からサーバ装置2へ応答される。時刻t27では、サーバ装置2の触感情報生成部104により、取得した触感パラメータおよび物体の位置座標に基づいて、前記物体識別マップd1および触感データセットd2から構成される触感情報Dが生成される。
これと並行して、時刻t29では、ローカル端末1の前記触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて触感要求位置Pおよび触り方Qを検知する。時刻t30では、前記触感パラメータ取得部106が、前記触感情報Dから触感要求位置Pに基づいて触感パラメータを取得する。
時刻t31では、前記触感インジケータ生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感提示信号を生成する。時刻t32では、前記触感インジケータInがフレーム画像に重畳表示される。
本実施形態によれば、第1の分散例との比較で、触感提示に係るローカル端末1の処理負荷は増えるが、ローカル端末1とサーバ装置2との間のトラヒック量を低減できるようになる。
図22は、触感提示システムを構成する各機能の第3の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているのでその説明は省略する。本実施形態は、触感提示システム10の全ての機能をローカル端末1に実装した点に特徴がある。
図23は、触感提示システム10の他の構成を示した機能ブロック図であり、触感情報生成部104が生成した認識物体マップd1を修正するマップ修正部109を具備した点に特徴がある。
触感情報生成部104は、映像が動画であれば識別部101による識別結果に基づいてフレーム単位で認識物体マップd1を生成する。このとき識別部101aの識別精度、画像中の光陰、映像ノイズ等の影響により、図24に示したように、フレーム間で一時的かつ部分的に物体の種別が誤認識され、認識物体マップd1の一部に誤りが生じることがある。このような誤認識は、特に自由形状に基づいて物体の種別を推定する識別アルゴリズムにおいて顕著に発生する。
誤認識された領域が触感要求位置Pとして指定されると、誤った触感パラメータに基づいて誤った触感が提示され、さらに次フレームで正しい触感パラメータに基づいて正しい触感が提示されると、短時間での触感変化がノイズの要因となり、提示触感のクオリティが著しく低下する。
マップ修正部109は、物体の種別が誤認識されて認識物体マップd1の一部に誤りが生じることに起因した提示触感のクオリティ低下を防止するために、今回フレームの認識物体マップd1を過去の複数フレーム分の認識物体マップd1に基づいて修正する。これにより、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。
図25は、前記マップ修正部109の機能を備えた触感提示システムにおける各機能の分散例を示した機能ブロック図であり、ローカル端末102にマップ修正部109aが実装された点に特徴がある。
マップ修正部109aは、今回フレームの認識物体マップd1に加えて、過去nフレーム分(本実施形態では、過去4フレーム分)の認識物体マップd1を保持し、図26に示したように、触感要求位置Pが検知されると、当該触感要求位置Pの座標を中心に、例えば5ピクセル四方、併せて125ピクセル分の識別結果を各認識物体マップd1から抽出する。そして、触感要求位置Pの座標を起点に過去フレームのピクセルごとに時間的あるいはピクセル間距離に基づくタグIDの重み付き線形和を計算する。ここで、タグIDは各物体の識別結果に固有の識別子である。
本実施形態では、今回フレームの認識物体マップd1における触感要求位置Pの位置座標を(xt, yt)とし、fフレーム前の認識物体マップd1における各ピクセルの位置座標(x, y)に対応したタグIDをvxyfとし、過去kフレームに遡って、(2N+1)ピクセル×(2M+1)ピクセルの矩形領域を対象にタグIDを抽出して線形和を求める。タグID (T)についての線形和E (T)は次式(1)で表すことができる。ただし、wxyfは今回フレームにおける触感要求位置P(xt, yt)からfフレーム前の認識物体マップj1における各ピクセル座標(x, y)までの線形和重みであり、f=0は現在のフレームを表す。
Figure 2021135655
そして、各タグIDについて求められた線形和のうち、最も値が大きい線形和、およびそれに対応するタグIDを選出し、その線形和が一定の閾値より大きければ、触感要求位置Pの位置座標(xt, yt)を、選出されたタグIDの領域と判断する。これに対して、線形和が閾値より小さければ、その位置座標(xt, yt)を背景領域と判断する。
本実施形態によれば、推定結果を時間的、空間的に抽象化するため、触感情報生成部104において一時的あるいは部分的な誤認識が生じたとしても、視覚的な触感提示への影響を軽減できる。
ただし、映像中にカメラ視点の切り替えや、映像中の物体の入れ替わりが発生した場合、マップ修正部109が過去のフレームに遡って重み付き線形和を算出すると、正しい推定結果が得られない可能性がある。
ここで、図27に示したように、認識物体マップj1において物体の識別結果(タグID)を画素データとしてヒストグラムを作成すると、このヒストグラムは、そのフレーム画像においてどの物体がどの程度の領域を占めているかを示す。そのため、「人」,「犬」,「車」が映っていたフレーム画像が、「人」のみが映ったフレーム画像に切り替わると、図示の通りヒストグラムが大きく変化する。
そこで、本実施形態ではタグIDについてのヒストグラムの値を過去数フレーム分保持して起き、今回フレームのヒストグラムと過去の各フレーム画像のヒストグラムとを比較することでカメラの切り替わりや物体の入れ替わりを検出する。
例えば、タグIDごとに過去フレームと今回フレームとの間の変動率を算出し、さらにタグID間の変動率の平均値を算出する。算出した平均値が閾値を超えていた場合は、カメラの切り替えや物体の入れ替えが起こったと判断できる。
ただし、ヒストグラムの対象領域をフレーム全体にしていた場合はフレームの部分的な変動に対応できない。このため、実際には1つのフレーム画像を部分区画に区切り、区画ごとにヒストグラムを算出することで各区画におけるカメラの切り替わりや物体の入れ替わりを検出することが望ましい。
上記手法により、ある領域においてカメラの切り替わりや物体の入れ替わりを検出したとき、ユーザがその領域の部分にタッチしていた場合には、検出以前のフレームを線形和の重みを再度設定しなおして、タッチ位置における物体の種別を再度判断する。これにより、カメラの切り替わりや物体の入れ替わりが起こるような映像においても、物体の誤認識の影響を軽減した視覚的な触感提示が可能になる。
本実施形態によれば、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。また、本実施形態によれば、感触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正するので計算量を減じることができる。したがって、一般的に計算能力の低いローカル端末1への実装を実現できる。
図28は、前記マップ修正部109の機能を備えた触感提示システムにおける各機能の他の分散例を示した機能ブロック図であり、前記マップ修正部109の機能をサーバ装置2において実現するマップ修正部109bが実装された点に特徴がある。
本実施形態では、触感要求位置Pが検知されると、当該触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正したが、サーバ装置2にとって触感要求位置Pは未知である。そこで、マップ修正部109bが今回フレームに関して生成した認識物体マップの全てのピクセルに関して、予め上記と同様の手順を繰り返すことで認識物体マップd1を修正する。
本実施形態によれば、一般的に処理負荷の高い認識物体マップd1の修正処理をサーバ装置に負担させることができるので、ローカル端末1の処理負荷を軽減できるようになる。
1…ローカル端末,2…サーバ装置,10…触感提示システム,100…映像取得部,101…物体識別部,101a…種別識別部,101b…位置識別部,102…タッチパネルディスプレイ,103…触感データベース(DB),104…触感情報生成部,105…触感要求検知部,106…触感パラメータ取得部,107…触感インジケータ生成部,108…触感インジケータ表示部,109,109a,109b…マップ修正部

Claims (17)

  1. ディスプレイに表示される物体の触感を視覚的に提示する触感提示システムにおいて、
    物体の映像を取得する手段と、
    物体の種別ごとに触感パラメータを保持する触感記憶手段と、
    ディスプレイに表示される物体の種別および位置を識別する手段と、
    前記物体の種別および位置の識別結果ならびに前記触感記憶手段に基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段と、
    ディスプレイに対する触感要求操作に基づいて触感要求位置を検知する手段と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段と、
    取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示する手段とを具備したことを特徴とする触感提示システム。
  2. 前記触感インジケータが前記触感要求位置に表示されることを特徴とする請求項1に記載の触感提示システム。
  3. 前記触感インジケータが前記物体の背景領域の全域に複数表示されることを特徴とする請求項1に記載の触感提示システム。
  4. 触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化することを特徴とする請求項1ないし3のいずれかに記載の触感提示システム。
  5. 前記触感要求位置のスライドに応じて触感インジケータの表示位置が移動することを特徴とする請求項4に記載の触感提示システム。
  6. 触感インジケータの表示位置が各スライド位置の触感に応じて、前記触感要求位置のスライドと非同期に移動することを特徴とする請求項5に記載の触感提示システム。
  7. 前記触感インジケータの形状が触感に応じて変化することを特徴とする請求項1ないし6のいずれかに記載の触感提示システム。
  8. 前記触感インジケータの表示色が触感に応じて変化することを特徴とする請求項1ないし7のいずれかに記載の触感提示システム。
  9. 前記触感インジケータが触感に応じた振幅および/または振動数で振動することを特徴とする請求項1ないし8のいずれかに記載の触感提示システム。
  10. 前記振幅および/または振動数が触感要求位置からの距離に応じて変化することを特徴とする請求項9に記載の触感提示システム。
  11. 前記ディスプレイがタッチ操作を検知するセンサを備え、
    前記触感要求操作がディスプレイに対するタッチ操作であり、
    前記触感インジケータの大きさが触感およびタッチ操作の押し込み圧力に応じて変化することを特徴とする請求項1ないし10のいずれかに記載の触感提示システム。
  12. 前記映像が動画の各フレーム画像であり、
    今回のフレーム画像に基づいて生成した触感情報を前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正する手段を更に具備したことを特徴とする請求項1ないし11のいずれかに記載の触感提示システム。
  13. 前記修正する手段は、今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正することを特徴とする請求項12に記載の触感提示システム。
  14. 前記修正する手段は、フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正を適用しないことを特徴とする請求項13に記載の触感提示システム。
  15. 前記ディスプレイがタッチ操作を検知するセンサを備え、
    前記触感要求操作がディスプレイに対するタッチ操作であり、
    前記タッチ操作に基づいて前記ディスプレイへの触り方を検知する手段を更に具備し、
    前記触感インジケータを表示する手段は、前記取得した触感パラメータおよび触り方に基づいて触感インジケータを表示することを特徴とする請求項1ないし14のいずれかに記載の触感提示システム。
  16. コンピュータが、ディスプレイに表示される物体の触感を視覚的に提示する触感提示方法において、
    物体の映像を取得し、
    物体の種別ごとに触感パラメータを予め保持し、
    ディスプレイに表示される物体の種別および位置を識別し、
    前記物体の種別および位置の識別結果ならびに予め物体の種別ごとに保持した触感パラメータに基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成し、
    ディスプレイに対する触感要求操作に基づいて触感要求位置を検知し、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得し、
    取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示することを特徴とする触感提示方法。
  17. ディスプレイに表示される物体の触感を視覚的に提示する触感提示プログラムにおいて、
    物体の映像を取得する手順と、
    ディスプレイに表示される物体の種別および位置を識別する手順と、
    前記物体の種別および位置の識別結果ならびに予め物体の種別ごとに保持した触感パラメータに基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手順と、
    ディスプレイに対する触感要求操作に基づいて触感要求位置を検知する手順と、
    前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手順と、
    取得した触感パラメータに基づいて、前記触感要求位置の触感を視覚的に表現する触感インジケータを表示する手順と、
    をコンピュータに実行させる触感提示プログラム。
JP2020030375A 2020-02-26 2020-02-26 触感提示方法、システムおよびプログラム Active JP7235689B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020030375A JP7235689B2 (ja) 2020-02-26 2020-02-26 触感提示方法、システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030375A JP7235689B2 (ja) 2020-02-26 2020-02-26 触感提示方法、システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2021135655A true JP2021135655A (ja) 2021-09-13
JP7235689B2 JP7235689B2 (ja) 2023-03-08

Family

ID=77661228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030375A Active JP7235689B2 (ja) 2020-02-26 2020-02-26 触感提示方法、システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP7235689B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132456A1 (en) * 2004-12-21 2006-06-22 Microsoft Corporation Hard tap
WO2008010540A1 (fr) * 2006-07-19 2008-01-24 Japan Science And Technology Agency Dispositif d'affichage
JP2009129168A (ja) * 2007-11-22 2009-06-11 Sharp Corp 表示装置
US20140104207A1 (en) * 2012-10-15 2014-04-17 Samsung Electronics Co., Ltd. Method of providing touch effect and electronic device therefor
JP2014182717A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 情報処理装置、情報処理システム及びプログラム
JP2018045491A (ja) * 2016-09-15 2018-03-22 株式会社デンソーテン 制御装置および制御方法
JP2019082829A (ja) * 2017-10-30 2019-05-30 富士ゼロックス株式会社 情報処理装置、および情報処理プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132456A1 (en) * 2004-12-21 2006-06-22 Microsoft Corporation Hard tap
WO2008010540A1 (fr) * 2006-07-19 2008-01-24 Japan Science And Technology Agency Dispositif d'affichage
JP2009129168A (ja) * 2007-11-22 2009-06-11 Sharp Corp 表示装置
US20140104207A1 (en) * 2012-10-15 2014-04-17 Samsung Electronics Co., Ltd. Method of providing touch effect and electronic device therefor
JP2014182717A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 情報処理装置、情報処理システム及びプログラム
JP2018045491A (ja) * 2016-09-15 2018-03-22 株式会社デンソーテン 制御装置および制御方法
JP2019082829A (ja) * 2017-10-30 2019-05-30 富士ゼロックス株式会社 情報処理装置、および情報処理プログラム

Also Published As

Publication number Publication date
JP7235689B2 (ja) 2023-03-08

Similar Documents

Publication Publication Date Title
US10761612B2 (en) Gesture recognition techniques
EP3639117B1 (en) Hover-based user-interactions with virtual objects within immersive environments
CN105637559B (zh) 使用深度传感器的结构建模
Seo et al. Direct hand touchable interactions in augmented reality environments for natural and intuitive user experiences
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
EP3599532A2 (en) A system for importing user interface devices into virtual/augmented reality
Jimeno-Morenilla et al. Augmented and virtual reality techniques for footwear
Park et al. Design evaluation of information appliances using augmented reality-based tangible interaction
CN108431734A (zh) 用于非触摸式表面交互的触觉反馈
US11209903B2 (en) Rendering of mediated reality content
EP3549127A1 (en) A system for importing user interface devices into virtual/augmented reality
CN111950521A (zh) 一种增强现实交互的方法、装置、电子设备及存储介质
CN107735758A (zh) 同步数字墨水笔划呈现
US20150033157A1 (en) 3d displaying apparatus and the method thereof
Hernoux et al. A seamless solution for 3D real-time interaction: design and evaluation
EP3088991B1 (en) Wearable device and method for enabling user interaction
JP7235689B2 (ja) 触感提示方法、システムおよびプログラム
JP7252916B2 (ja) 触感提示方法、システムおよびプログラム
Kim et al. Haptic interaction with objects in a picture based on pose estimation
JP7345387B2 (ja) 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム
Varma et al. Gestural interaction with three-dimensional interfaces; current research and recommendations
Shumaker et al. Virtual, Augmented and Mixed Reality
CN114578956A (zh) 设备控制方法、装置、虚拟穿戴设备以及存储介质
CN115268723B (zh) 一种控制方法及装置
Piumsomboon Natural hand interaction for augmented reality.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7235689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150