JP2021135656A - Tactile feedback method, system, and program - Google Patents

Tactile feedback method, system, and program Download PDF

Info

Publication number
JP2021135656A
JP2021135656A JP2020030376A JP2020030376A JP2021135656A JP 2021135656 A JP2021135656 A JP 2021135656A JP 2020030376 A JP2020030376 A JP 2020030376A JP 2020030376 A JP2020030376 A JP 2020030376A JP 2021135656 A JP2021135656 A JP 2021135656A
Authority
JP
Japan
Prior art keywords
tactile
tactile sensation
sensation
indicator
presentation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020030376A
Other languages
Japanese (ja)
Other versions
JP2021135656A5 (en
JP7252916B2 (en
Inventor
優輝 田島
Yuki Tajima
優輝 田島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020030376A priority Critical patent/JP7252916B2/en
Publication of JP2021135656A publication Critical patent/JP2021135656A/en
Publication of JP2021135656A5 publication Critical patent/JP2021135656A5/ja
Application granted granted Critical
Publication of JP7252916B2 publication Critical patent/JP7252916B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a tactile feedback method, system and program for visually presenting tactile sense of an arbitrary object displayed on a display and requested by a user, to the user.SOLUTION: A tactile feedback system 10 which visually presents tactile sense of an object displayed on a touch panel display 102 that can detect touch operation includes: a tactile information management unit 200 which holds tactile parameters for each kind of objects; a tactile parameter acquisition unit which acquires, from a tactile sense storage DB, a tactile parameter of an object corresponding to a tactile sense request position P on the touch panel display where touch operation has been performed; and a tactile indicator display unit which displays a tactile indicator visually representing the tactile sense of the object on the basis of the acquired tactile parameter.SELECTED DRAWING: Figure 1

Description

本発明は、触感提示方法、システムおよびプログラムに係り、特に、ユーザがタッチしたディスプレイ上の位置に表示されている物体の触感を当該ユーザに視覚的、直感的に提示できる触感提示方法、システムおよびプログラムに関する。 The present invention relates to a tactile presentation method, a system and a program, and in particular, a tactile presentation method, a system and a system capable of visually and intuitively presenting the tactile sensation of an object displayed at a position on a display touched by the user to the user. Regarding the program.

非特許文献1には、マウス等のポインティングデバイスによる位置入力を矢印カーソルとしてディスプレイ上に表示し、そのカーソルの動きや大きさを制御することでユーザに触感を提示するシステムが開示されている。例えば、ディスプレイに表示されたガタガタした面の上で矢印カーソルを移動させようとすると、マウスカーソルが上下に揺れるように表示される。また、ガムテープの接着面が表示された部分で矢印カーソルを動かそうとすると、カーソルがつっかかりながら移動する。非特許文献1では、このようなカーソルの動きの変化によって、ユーザはディスプレイに表示された物体の触感を擬似的に得られる。 Non-Patent Document 1 discloses a system in which a position input by a pointing device such as a mouse is displayed on a display as an arrow cursor, and a tactile sensation is presented to a user by controlling the movement and size of the cursor. For example, if you try to move the arrow cursor over the rattling surface shown on the display, the mouse cursor will appear to sway up and down. Also, if you try to move the arrow cursor at the part where the adhesive surface of the gum tape is displayed, the cursor will move while being stuck. In Non-Patent Document 1, the user can obtain a simulated tactile sensation of an object displayed on the display by such a change in the movement of the cursor.

特許文献1には、主にオンラインショッピングへの利用を想定し、商品の各種情報を提供するウェブページをHTML文書の形式で生成するサーバ装置と、タッチパネルからのタッチ入力に基づいてアクチュエータを駆動することで物体の触感を提示する触感提示装置が開示されている。 Patent Document 1 describes a server device that generates a web page that provides various product information in the form of an HTML document, and drives an actuator based on touch input from a touch panel, mainly assuming use for online shopping. This discloses a tactile sensation presenting device that presents the tactile sensation of an object.

特許文献1では、サーバ装置が生成するウェブページに「触感体感」と記載されたアイコンが表示されており、ユーザはスマートフォンのような消費者端末からアイコンをクリックすることで、サーバ装置から触感提示装置の制御パラメータをダウンロードできる。消費者端末と触感提示装置とは有線あるいは無線で接続され、ダウンロードした制御パラメータを触感提示装置に適用し、触感提示装置のタッチパネルに指先で触れることでユーザは所望の商品の触感を体感できる。 In Patent Document 1, an icon described as "tactile sensation" is displayed on a web page generated by the server device, and the user can present the tactile sensation from the server device by clicking the icon from a consumer terminal such as a smartphone. You can download the control parameters of the device. The consumer terminal and the tactile sensation presenting device are connected by wire or wirelessly, the downloaded control parameters are applied to the tactile sensation presenting device, and the user can experience the tactile sensation of the desired product by touching the touch panel of the tactile sensation presenting device with a fingertip.

特開2019-128738号公報Japanese Unexamined Patent Publication No. 2019-128738

Keita Watanabe Michiaki Yasumura, VisualHaptics: Generating Haptic Sensation Using Only Visual Cues,ACE '08: Proceedings of the 2008 International Conference on Advances in Computer Entertainment TechnologyKeita Watanabe Michiaki Yasumura, VisualHaptics: Generating Haptic Sensation Using Only Visual Cues, ACE '08: Proceedings of the 2008 International Conference on Advances in Computer Entertainment Technology

非特許文献1のように、カーソル位置の触感を当該カーソルの表示形態により表現する方式ではマウス等のポインティングデバイスが必要となる。このため、スマートフォンやタブレットなどへの適用が困難であった。また、非特許文献1では触感を表現するカーソルを矢印の形状に限定しており、多種多様な触感を表現するのに適していなかった。 As in Non-Patent Document 1, a pointing device such as a mouse is required in the method of expressing the tactile sensation of the cursor position by the display form of the cursor. Therefore, it has been difficult to apply it to smartphones and tablets. Further, in Non-Patent Document 1, the cursor expressing the tactile sensation is limited to the shape of an arrow, and it is not suitable for expressing a wide variety of tactile sensations.

特許文献1の装置は、オンラインショッピングにおいて触感をユーザに提供する用途に最適化されている。非特許文献1も、予め用意した物体の触感を提示するシステムである。このため、任意の場面において、任意の物体の触感をユーザに視覚的、直感的に提供する装置を構成する際、以下の点が技術的な課題となる。 The device of Patent Document 1 is optimized for use in providing a tactile sensation to a user in online shopping. Non-Patent Document 1 is also a system that presents the tactile sensation of an object prepared in advance. Therefore, the following points are technical issues when configuring a device that visually and intuitively provides the user with the tactile sensation of an arbitrary object in an arbitrary scene.

第1に、物体に紐づく触感パラメータを事前に準備する必要があるため、触感を体感させる対象物体の点数の増大に伴い、触感パラメータのセッティング回数が増大し、時間的コストが生じる。 First, since it is necessary to prepare the tactile parameter associated with the object in advance, the number of times the tactile parameter is set increases as the number of points of the target object for which the tactile sensation is experienced increases, resulting in a time cost.

第2に、一つの物品に対して一つの触感パラメータを設定しているため、同一場面において複数の物体の触感を同時に再現できない。例えば、キッチンの場面ではコップやフライパンといった様々な物体が存在する。そのような場面において、コップの触感やフライパンの触感を同時に視覚的、直感的に表現することができない。 Secondly, since one tactile parameter is set for one article, the tactile sensation of a plurality of objects cannot be reproduced at the same time in the same scene. For example, in the kitchen scene, there are various objects such as cups and frying pans. In such a scene, the tactile sensation of a cup and the tactile sensation of a frying pan cannot be visually and intuitively expressed at the same time.

本発明の目的は、上記の技術課題を解決し、ディスプレイに表示されている物体について、ユーザが要求した物体の様々な触感を、マウス等のポインティングデバイスを用いることなく視覚的、直感的に提示できる触感提示方法、システムおよびプログラムを提供することにある。 An object of the present invention is to solve the above technical problems and visually and intuitively present various tactile sensations of an object displayed on a display, without using a pointing device such as a mouse. The purpose is to provide a tactile presentation method, system and program that can be performed.

上記の目的を達成するために、本発明は、タッチ操作されたディスプレイに表示される物体の触感を視覚的に提示する触感提示システムにおいて、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention is characterized in that it has the following configuration in a tactile sensation presentation system that visually presents the tactile sensation of an object displayed on a touch-operated display.

(1) 物体の種別ごとに触感パラメータを保持する触感記憶手段と、タッチ操作されたディスプレイの触感要求位置に対応した物品の触感パラメータを触感記憶手段から取得する手段と、取得した触感パラメータに基づいて前記物品の触感を視覚的に表現する触感インジケータを表示する手段とを具備した。 (1) Based on the tactile memory means for holding the tactile parameters for each type of object, the means for acquiring the tactile parameters of the article corresponding to the tactile required position of the touch-operated display from the tactile memory means, and the acquired tactile parameters. A means for displaying a tactile indicator that visually expresses the tactile sensation of the article is provided.

(2) 触感インジケータが物体の背景領域の全域に複数表示されるようにした。 (2) Multiple tactile indicators are displayed over the entire background area of an object.

(3) ディスプレイに表示される物体の種別および位置を識別する手段と、物体の種別および位置の識別結果ならびに前記触感記憶手段に基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段と、触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段とを更に具備した。 (3) Tactile information that associates each position on the display with a tactile parameter based on the means for identifying the type and position of the object displayed on the display, the identification result of the type and position of the object, and the tactile memory means. The means for generating the tactile sensation and the means for acquiring the tactile sensation parameter corresponding to the tactile sensation request position based on the tactile sensation information are further provided.

(4) 触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化するようにした。 (4) When the tactile sensation required position slides, the tactile sensation indicator changes according to the tactile sensation of each slide position.

(5) 触感要求位置のスライドに応じて触感インジケータの表示位置が移動するようにした。 (5) The display position of the tactile indicator moves according to the slide of the tactile required position.

(6) 今回のフレーム画像に基づいて生成した触感情報を、前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正する手段を具備した。 (6) A means for correcting the tactile sensation information generated based on the current frame image based on each tactile sensation information generated based on each frame image before the previous time is provided.

(7) 今回フレームの全てのピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正する手段を具備した。 (7) A means for correcting the type of all pixels or tactile sensation request positions of this frame by the distance between each pixel or tactile sensation request position and each pixel of each frame image before the previous time and a weighted linear sum based on the type. Equipped with.

(8) フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正する手段を適用しないようにした。 (8) A type histogram was created for each frame, and the above-mentioned correction means was not applied between frames in which the change of the type histogram exceeded a predetermined threshold value.

(1) ディスプレイに表示される物体にタッチすると、当該タッチ位置に表示されている物品の触感パラメータが取得されて触感がインジケータで表現されるので、ユーザはマウス等のポインティングデバイスを用いることなく、ディスプレイに表示される任意の物体の触感を視覚的、直感的に得られるようになる。 (1) When an object displayed on the display is touched, the tactile sensation parameter of the article displayed at the touch position is acquired and the tactile sensation is expressed by an indicator, so that the user does not need to use a pointing device such as a mouse. You will be able to visually and intuitively obtain the tactile sensation of any object displayed on the display.

(2) 触感インジケータが物体の背景領域の全域に表示されるので、触感を得たい物品の表示を妨げることなく、当該物品の様々な触感を余すことなく表現できるようになる。 (2) Since the tactile indicator is displayed over the entire background area of the object, it is possible to fully express various tactile sensations of the article without interfering with the display of the article for which the tactile sensation is desired.

(3) ディスプレイに表示される物体の種別および位置が識別され、ユーザが触感を体感したい物体の表示位置にタッチすると、当該タッチ位置に表示されている物品の識別結果に基づいてその触感パラメータが取得されて触感がインジケータで表現されるので、ディスプレイに表示される任意の物体の触感を視覚的、直感的に提示できるようになる。 (3) The type and position of the object displayed on the display are identified, and when the user touches the display position of the object for which he / she wants to experience the tactile sensation, the tactile parameter is changed based on the identification result of the article displayed at the touch position. Since the tactile sensation is acquired and expressed by an indicator, the tactile sensation of any object displayed on the display can be visually and intuitively presented.

その結果、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を視覚的に経験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。 As a result, it becomes possible to realize movies with tactile sensations and online shopping where products can be selected while visually experiencing the tactile sensations of each product contained in an image. In addition, since processing can be performed in real time, a telecommunications system with a tactile sensation can be realized. Furthermore, by identifying a fictitious character and giving it a tactile sensation, it becomes possible to create a more realistic application such as a manga book or animation that allows the character to be touched.

(4) 触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化するので、触感が位置に応じて変化する物品の触感も漏れなく視覚的に表現できるようになる。 (4) When the tactile sensation required position slides, the tactile sensation indicator changes according to the tactile sensation of each slide position, so that the tactile sensation of the article whose tactile sensation changes according to the position can be visually expressed without omission.

(5) 触感要求位置のスライドに応じて触感インジケータの表示位置が移動するので、異なる物品間の質感の違いを視覚的にダイナミックに表現できるようになる。 (5) Since the display position of the tactile indicator moves according to the slide of the tactile required position, the difference in texture between different articles can be visually and dynamically expressed.

(6) 今回のフレーム画像に基づいて生成した触感情報を前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正することができるので、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。 (6) Since the tactile information generated based on the current frame image can be corrected based on each tactile information generated based on each frame image before the previous time, even if the type of the object cannot be correctly identified. The correct tactile sensation of the object can be presented to the user.

(7) 今回フレームの各ピクセルまたは触感要求位置の種別を、当該各ピクセルまたは触感要求位置と前回以前の各フレーム画像の各ピクセルとの距離およびその種別に基づく重み付き線形和で修正するので、種別の推定結果を時間的、空間的に抽象化できる。したがって、種別の推定において一時的あるいは部分的な誤認識が生じたとしても、触感表現への影響を軽減できるようになる。 (7) Since the type of each pixel or tactile request position of this frame is corrected by the distance between each pixel or tactile request position and each pixel of each frame image before the previous time and the weighted linear sum based on the type. The estimation result of the type can be abstracted temporally and spatially. Therefore, even if a temporary or partial misrecognition occurs in the type estimation, the influence on the tactile expression can be reduced.

(8) フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正を適用しないようにしたので、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。 (8) A type histogram was created for each frame, and the above correction was not applied between frames in which the change in the type histogram exceeded a predetermined threshold value, so that the tactile information before the image changed significantly changed significantly. This makes it possible to prevent erroneous corrections that would be made based on later tactile information.

本発明を適用した触感提示システムの機能ブロック図である。It is a functional block diagram of the tactile sensation presentation system to which this invention is applied. 触感情報の例を示した図である。It is a figure which showed the example of the tactile sensation information. 触覚の要求方法を説明した図である。It is a figure explaining the request method of the tactile sensation. 本発明の第1実施形態に係る触覚インジケータの表示方法を示した図である。It is a figure which showed the display method of the tactile indicator which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る触覚インジケータの表示方法を示した図である。It is a figure which showed the display method of the tactile indicator which concerns on 2nd Embodiment of this invention. 触感インジケータの形状で触感を表現する例を示した図である。It is a figure which showed the example which expresses the tactile sensation by the shape of the tactile sensation indicator. 針鼠の触覚を触感インジケータの形状で表現する例を示した図である。It is a figure which showed the example which expresses the tactile sensation of a hedgehog by the shape of the tactile indicator. 触感インジケータの大きさで触感を表現する例を示した図である。It is a figure which showed the example which expresses the tactile sensation by the size of the tactile sensation indicator. 人顔の頬部分の触感を触感インジケータの大きさで表現した図である。It is the figure which expressed the tactile sensation of the cheek part of a human face by the size of the tactile sensation indicator. 温度を触感インジケータの色で表現する例を示した図である。It is a figure which showed the example which expresses the temperature by the color of a tactile indicator. 滑らかさを触感インジケータの動きで表現する例を示した図である。It is a figure which showed the example which expresses the smoothness by the movement of a tactile indicator. タッチ操作のスライド位置の触感をインジケータの動きで表現する例を示した図である。It is a figure which showed the example which expresses the tactile sensation of the slide position of a touch operation by the movement of an indicator. タッチ操作を直線的にスライドされたときの触感をインジケータがスライド方向の左右に変位することで表現する例を示した図である。It is a figure which showed the example which expresses the tactile sensation when a touch operation is linearly slid by the indicator is displaced to the left and right in the slide direction. タッチ操作のスライドに同期して背景領域の触感インジケータを移動させ、更にその形状等をスライド位置の触感に応じて変化させる例を示した図である。It is a figure which showed the example which moves the tactile indicator of a background area in synchronization with the slide of a touch operation, and further changes the shape and the like according to the tactile sensation of a slide position. タッチ操作の位置がスライドされたときに触感が変化する過程で触感インジケータの表示を部分的に切り替える例を示した図である。It is a figure which showed the example which partially switches the display of the tactile sensation indicator in the process of changing the tactile sensation when the position of a touch operation is slid. タッチ位置が触覚の異なる物品間でスライドされる場合の触感インジケーの表示切替方法を模式的に示した図である。It is a figure which showed typically the display switching method of the tactile sensation indicator when the touch position is slid between articles having different tactile sensations. 本発明を適用した触感提示方法のフローチャートである。It is a flowchart of the tactile sensation presentation method to which this invention is applied. 触感提示システムをローカル端末及びサーバ装置で構成した実施形態の機能ブロック図である。It is a functional block diagram of an embodiment in which a tactile sensation presentation system is composed of a local terminal and a server device. 図18に示した触感提示システムのシーケンスフローである。It is a sequence flow of the tactile sensation presentation system shown in FIG. 触感提示システムをローカル端末及びサーバ装置で構成した実施形態の機能ブロック図である。It is a functional block diagram of an embodiment in which a tactile sensation presentation system is composed of a local terminal and a server device. 図20に示した触感提示システムのシーケンスフローである。It is a sequence flow of the tactile sensation presentation system shown in FIG. 触感提示システムをローカル端末で構成した実施形態の機能ブロック図である。It is a functional block diagram of the embodiment which configured the tactile sensation presentation system by a local terminal. マップ修正部を備えた触感提示システムの機能ブロック図である。It is a functional block diagram of a tactile presentation system provided with a map correction part. マップ修正部の機能を説明した図である。It is a figure explaining the function of the map correction part. マップ修正部をローカル端末に備えた触感提示システムの機能ブロック図である。It is a functional block diagram of a tactile presentation system equipped with a map correction part in a local terminal. 今回フレームの触感要求位置の種別を修正する方法を模式的に示した図である。It is the figure which showed typically the method of correcting the type of the tactile sensation request position of a frame this time. カメラの切替わりや物体の入替わりを検知する方法を模式的に示した図である。It is the figure which showed typically the method of detecting the change of a camera and the change of an object. マップ修正部をサーバ装置に備えた触感提示システムの機能ブロック図である。It is a functional block diagram of the tactile presentation system provided with the map correction part in the server device.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用した触感提示システム10の機能ブロック図である。本発明の触感提示システム10は、複数の物体を表示するディスプレイ上でユーザが指定した物体の触感情報を当該ディスプレイ上に視覚的に表現することでユーザへの触感提示を実現する。なお、以下の実施形態は本発明を具体化した一例であって、本発明の技術的範囲を限定するものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram of a tactile presentation system 10 to which the present invention is applied. The tactile presentation system 10 of the present invention realizes tactile presentation to the user by visually expressing the tactile information of the object specified by the user on the display displaying a plurality of objects. The following embodiments are examples that embody the present invention, and do not limit the technical scope of the present invention.

映像取得部100は、被写体として物体を含む静止画像または動画映像(以下、映像またはフレーム画像で代表する)をネットワーク経由またはローカルに取得し、タッチ操作を検知できるタッチパネル102aを備えたディスプレイ102に表示する。触感情報管理部200は、ディスプレイ102に表示される物体の触感パラメータを保持する。 The image acquisition unit 100 acquires a still image or a moving image (hereinafter, represented by an image or a frame image) including an object as a subject via a network or locally, and displays it on a display 102 provided with a touch panel 102a capable of detecting a touch operation. do. The tactile information management unit 200 holds the tactile parameters of the object displayed on the display 102.

本実施形態では、前記触感情報管理部200が物体識別部101、触感データベース(DB)103および触感情報生成部104を含むが、触感情報管理部200の構成はこれのみに限定されない。 In the present embodiment, the tactile information management unit 200 includes an object identification unit 101, a tactile database (DB) 103, and a tactile information generation unit 104, but the configuration of the tactile information management unit 200 is not limited to this.

前記物体識別部101は、種別識別部101aおよび位置識別部101bを含み、タッチパネルディスプレイ102に表示される物体の種別および位置座標をそれぞれ識別する。位置座標は、平面的な2D位置座標であっても良いし、奥行き情報(z軸方向)を加えた立体的な3D位置座標であっても良い。 The object identification unit 101 includes a type identification unit 101a and a position identification unit 101b, and identifies the type and position coordinates of an object displayed on the touch panel display 102, respectively. The position coordinates may be two-dimensional 2D position coordinates or three-dimensional 3D position coordinates to which depth information (z-axis direction) is added.

前記種別識別部101aとしては、矩形領域として二次元の位置座標を推定するYOLO、あるいは自由形状の領域として二次元の位置座標を推定するDeepLabなどのアルゴリズムを使用できる。奥行き情報を推定するアルゴリズムとしてはPlaneNetなどを使用できる。また、TOF (Time of Flight) センサ等により物体の奥行き情報を取得している場合はその値を用いてもよい。 As the type identification unit 101a, an algorithm such as YOLO that estimates two-dimensional position coordinates as a rectangular area or DeepLab that estimates two-dimensional position coordinates as a free-form area can be used. PlaneNet or the like can be used as an algorithm for estimating depth information. Further, when the depth information of the object is acquired by the TOF (Time of Flight) sensor or the like, the value may be used.

触感データベース(DB)103には、物体の種別ごとに、後に詳述する触感パラメータが保持されている。触感パラメータには、物体ごとに固有の「ヤング率」、「表面粗さ」あるいは「熱伝導率」といった物質特性に対応するパラメータ、および/または「硬さ感」、「粗さ感」あるいは「ひんやり感」といった触感の知覚強度に対応するパラメータが含まれる。 The tactile sensation database (DB) 103 holds tactile sensation parameters described in detail later for each type of object. Tactile parameters include parameters corresponding to material properties such as "Young's modulus", "surface roughness" or "thermal conductivity" that are unique to each object, and / or "hardness", "roughness" or "roughness". Parameters corresponding to the perceived intensity of tactile sensation such as "cool feeling" are included.

触感情報生成部104は、物体識別部101から取得した各物体の種別に対応した触感パラメータを前記触感データベース103から取得し、図2に一例を示したように、認識物体マップd1と触感データサブセットd2とから構成される触感情報Dを生成する。認識物体マップd1は、タッチパネルディスプレイ102における各物体の位置座標を定義する。触感データサブセットd2は、各物体の種別と触感パラメータとを対応付ける。 The tactile information generation unit 104 acquires tactile parameters corresponding to the types of each object acquired from the object identification unit 101 from the tactile database 103, and as shown in FIG. 2, the recognized object map d1 and the tactile data subset. Generates tactile information D composed of d2. The recognized object map d1 defines the position coordinates of each object on the touch panel display 102. The tactile data subset d2 associates the type of each object with the tactile parameters.

触感要求検知部105は、位置検知部105aおよび触り方検知部105bを含む。位置検知部105aは、物体を表示しているタッチパネルディスプレイ102のタッチパネル102aに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知する。触り方検知部105bは、前記タッチ操作に基づいて、タッチ速度やタッチ圧の時系列変化を"触り方Q"として検知する。 The tactile request detection unit 105 includes a position detection unit 105a and a tactile sensation detection unit 105b. The position detection unit 105a detects the position of the object for which the user is requesting a tactile sensation as the tactile sensation request position P based on the user's touch operation on the touch panel 102a of the touch panel display 102 displaying the object. The touch method detection unit 105b detects a time-series change in touch speed and touch pressure as "touch method Q" based on the touch operation.

触感パラメータ取得部106は、触感情報管理部200から触感要求位置Pに基づいて当該ユーザが触感を要求した物体の触感パラメータを取得する。触感インジケータ生成部107は、前記触感要求位置P,触り方Qおよび触感パラメータを、予め学習した所定のモデル式に適用して触感インジケータを生成する。触感インジケータ表示部108は、触感インジケータを前記フレーム画像に重畳表示する。 The tactile parameter acquisition unit 106 acquires the tactile parameter of the object for which the user has requested the tactile sensation from the tactile sensation information management unit 200 based on the tactile sensation request position P. The tactile indicator generation unit 107 applies the tactile sensation request position P, the tactile sensation Q, and the tactile sensation parameter to a predetermined model formula learned in advance to generate the tactile sensation indicator. The tactile indicator display unit 108 superimposes and displays the tactile indicator on the frame image.

図3,4,5は、本発明による触覚インジケータInの表示方法を示した図であり、図3に示したように、車、人および犬が表示されている画面においてオペレータが人顔の頬部分にタッチ操作等して触感要求を行うと、当該触覚要求位置Pの触覚パラメータが取得される。 FIGS. 3, 4 and 5 are views showing a method of displaying the tactile indicator In according to the present invention, and as shown in FIG. When a tactile sensation request is made by touching a portion, the tactile parameter of the tactile sensation request position P is acquired.

図4は、本発明の第1実施形態に係る触覚インジケータInの表示方法を示した図である。本実施形態では、触覚要求位置Pを中心に、当該触覚要求位置Pの触感を視覚的に表現する所定形状の触感インジケータInが重畳表示される。 FIG. 4 is a diagram showing a display method of the tactile indicator In according to the first embodiment of the present invention. In the present embodiment, the tactile indicator In having a predetermined shape that visually expresses the tactile sensation of the tactile request position P is superimposed and displayed around the tactile request position P.

図5は、本発明の第2実施形態に係る触覚インジケータの表示方法を示した図である。本実施形態では、触覚要求位置Pの物品以外の背景領域(車領域および犬領域を含む)に、触覚要求位置Pの触覚を視覚的に表現する多数の触感インジケータInが離散的かつ規則的な配列で重畳表示される。このとき、触感インジケータInを見易くするために、触感を要求されていない物品の表示色を薄くし、あるいは淡くするようにしても良い。 FIG. 5 is a diagram showing a display method of a tactile indicator according to a second embodiment of the present invention. In the present embodiment, a large number of tactile indicators In that visually represent the tactile sensation of the tactile request position P are discrete and regular in the background area (including the vehicle area and the dog area) other than the article at the tactile request position P. It is superimposed and displayed as an array. At this time, in order to make the tactile indicator In easier to see, the display color of the article for which the tactile sensation is not required may be lightened or lightened.

前記インジケータInは、その形状、色、大きさ、動き等で触覚要求位置Pの触感を視覚的に表現できる。図6は触感インジケータInの形状で触感を表現する例を示した図であり、触感インジケータInは触感が十分に滑らかであれば、その滑らかさを直感的に表現する円形状であるが、触感が粗くなるにつれてその円周上に突起物が出現し、さらに突起物の形状が先鋭化して表面の粗さを直感的に表現する形状となる。 The indicator In can visually express the tactile sensation of the tactile sensation request position P by its shape, color, size, movement, and the like. FIG. 6 is a diagram showing an example in which the tactile sensation is expressed by the shape of the tactile sensation indicator In. If the tactile sensation is sufficiently smooth, the tactile sensation indicator In is a circular shape that intuitively expresses the smoothness. As the roughness becomes rougher, protrusions appear on the circumference of the protrusions, and the shape of the protrusions becomes sharper to intuitively express the roughness of the surface.

図7は、第2実施形態において、針鼠の体表部分に対して触覚要求した場合の触覚の視覚化例を示した図であり、背景領域に表示された触感インジケータInの外周部に先鋭化した多数の突起が出現している。 FIG. 7 is a diagram showing an example of visualizing the tactile sensation when a tactile sensation is requested for the body surface portion of the hedgehog in the second embodiment, and is sharpened to the outer peripheral portion of the tactile sensation indicator In displayed in the background area. A large number of protrusions have appeared.

図8は、触覚要求位置Pの硬さを触感インジケータInの大きさで表現する例を示している。タッチパネルセンサ102aが接触圧を検知できるよう構成されている場合、本実施形態では、タッチ操作時の押し込み圧力が大きいほど、また触感が柔らかいほど、触感インジケータInのサイズが大きくなる。図9は、人顔の頬部分の硬さを触感インジケータInの大きさで表現した図であり、図5に比べて触感インジケータInが大きく表示され、触感がより柔らかいことを表現している。 FIG. 8 shows an example in which the hardness of the tactile sensation request position P is expressed by the size of the tactile sensation indicator In. When the touch panel sensor 102a is configured to be able to detect the contact pressure, in the present embodiment, the larger the pressing pressure at the time of touch operation and the softer the tactile sensation, the larger the size of the tactile sensation indicator In. FIG. 9 is a diagram showing the hardness of the cheek portion of the human face by the size of the tactile indicator In, and the tactile indicator In is displayed larger than that of FIG. 5, indicating that the tactile sensation is softer.

図10は、触覚要求位置Pの温度を触感インジケータInで表現する例を示した図であり、触感情報が温度情報を有する場合、温度の違いが触感インジケータInの色で視覚化される。本実施形態では、最も冷たい触感を紫色で表現し、温度が高くなるにつれて色が藍、青、緑、黄、橙、赤へと変化する。 FIG. 10 is a diagram showing an example in which the temperature of the tactile sensation request position P is expressed by the tactile sensation indicator In, and when the tactile sensation information has the temperature information, the difference in temperature is visualized by the color of the tactile sensation indicator In. In this embodiment, the coldest tactile sensation is expressed in purple, and the color changes to indigo, blue, green, yellow, orange, and red as the temperature rises.

図11は、触覚要求位置Pの滑らかさを触感インジケータInの動きで表現する例を示した図であり、触覚要求位置Pの滑らかさが触感インジケータInの振幅および/または振動数で表現される。本実施形態では、触覚要求位置Pの触感が粗いほど、触感インジケータInを大きな振幅/低い振動数で動かすようにしている。なお、触感インジケータInの振幅および/または振動数が触感要求位置Pからの距離に応じて変化するようにしても良い。例えば、触感要求位置Pから離れた触感インジケータInほど、その振幅および/または振動数が抑制されるようにすることができる。また、触感要求位置Pまでの距離に応じて振動に時間遅れをもたせることでゴムのような弾性や軟性を表現する事もできる。 FIG. 11 is a diagram showing an example in which the smoothness of the tactile request position P is expressed by the movement of the tactile indicator In, and the smoothness of the tactile request position P is expressed by the amplitude and / or frequency of the tactile indicator In. .. In the present embodiment, the coarser the tactile sensation at the tactile sensation request position P, the larger the amplitude / lower frequency of the tactile indicator In. The amplitude and / or frequency of the tactile indicator In may be changed according to the distance from the tactile sensation request position P. For example, the amplitude and / or frequency of the tactile indicator In, which is farther from the tactile sensation request position P, can be suppressed. In addition, it is possible to express elasticity and softness like rubber by giving a time delay to vibration according to the distance to the tactile sensation required position P.

なお、上記の実施形態では触感インジケータInが触感に応じて形状、色、大きさおよび動きのいずれか一つで表現されるものとして説明したが、本発明はこれのみに限定されるものではなく、例えば触覚要求位置Pの滑らかさ、温度および柔らかさを、触感インジケータInの形状、色および大きさの組み合わせで表現するようにしても良い。 In the above embodiment, the tactile indicator In has been described as being represented by any one of shape, color, size and movement according to the tactile sensation, but the present invention is not limited to this. For example, the smoothness, temperature and softness of the tactile required position P may be expressed by a combination of the shape, color and size of the tactile indicator In.

さらに、上記の実施形態では物品の一か所が固定的にタッチ操作された場合を例にして触感の視覚的な表現方法を説明したが、タッチ操作の位置がタッチ状態を維持したままスライドされると、各スライド位置の触感に応じてのインジケータInの形状等を連続的に変化させるようにしても良い。 Further, in the above embodiment, the visual expression method of the tactile sensation has been described by taking as an example the case where one part of the article is fixedly touch-operated, but the position of the touch operation is slid while maintaining the touch state. Then, the shape of the indicator In may be continuously changed according to the tactile sensation of each slide position.

図12は、タッチ操作の位置がスライドされたときに、スライド位置の触感に応じてインジケータInの動きをスライド操作に同期させなくすることで触感を表現する例を示した図である。本実施形態では、スライド位置の触感が十分に滑らかであると、同図(a)に示したように、タッチ位置のスライド動作とインジケータInの動きとが同期する。これに対して、スライド位置の触感が滑らかでないと、同図(b)に示したように、インジケータInの動きに引っ掛かりが発生してタッチ位置のスライド動作とインジケータInの動きとが同期しなくなる。 FIG. 12 is a diagram showing an example in which when the position of the touch operation is slid, the movement of the indicator In is not synchronized with the slide operation according to the tactile sensation of the slide position to express the tactile sensation. In the present embodiment, when the tactile sensation of the slide position is sufficiently smooth, the slide operation of the touch position and the movement of the indicator In are synchronized as shown in FIG. On the other hand, if the tactile sensation of the slide position is not smooth, as shown in FIG. ..

図13は、タッチ操作の位置が直線的にスライドされたときに、スライド位置の触感に応じてインジケータInがスライド方向の左右に変位しながら移動する例を示した図である。本実施形態では、スライド位置の触感が粗いほど左右への変位量が大きくなる。 FIG. 13 is a diagram showing an example in which when the position of the touch operation is slid linearly, the indicator In moves while being displaced to the left and right in the slide direction according to the tactile sensation of the slide position. In the present embodiment, the coarser the tactile sensation of the slide position, the larger the amount of displacement to the left and right.

図14は、タッチ操作の位置がスライドされたときに、その動きに同期して背景領域の触感インジケータInをスライド方向と同一方向または逆方向に移動させ、さらには移動する触感インジケータInの形状、大きさ、色等をスライド位置の触感に応じて変化させる例を示した図である。 FIG. 14 shows the shape of the tactile indicator In, which moves the tactile indicator In in the background area in the same direction as or in the opposite direction to the slide direction in synchronization with the movement of the tactile indicator In when the position of the touch operation is slid. It is a figure which showed the example which changes the size, color, etc. according to the tactile sensation of a slide position.

図15は、タッチ操作の位置がスライドされたときに、触感が変化する過程で触感インジケータInの表示を部分的に切り替える例を示した図であり、ここでは、人物の髪の毛から犬の体表面へスライド操作する場合を例にして説明する。 FIG. 15 is a diagram showing an example in which the display of the tactile indicator In is partially switched in the process of changing the tactile sensation when the position of the touch operation is slid. The case of sliding to is described as an example.

初めに人物の髪の毛部分に対するタッチ操作が検知されると、同図(a)に示したように、滑らかな触感を視覚化した丸形状の触感インジケータInが背景領域の全面に表示される。次いで、タッチ位置が正面右方向へスライドし、同図(b)に示したように、髪の毛および犬の体表面に跨る位置に達すると、髪の毛部分に対応する画面左側の背景には"滑らか"を視覚化した触感インジケータInが表示される一方、犬の体表部分に対応する画面右側の背景には"粗さ"を視覚化した触感インジケータInが表示される。 When a touch operation on a person's hair is first detected, a round tactile indicator In that visualizes a smooth tactile sensation is displayed on the entire surface of the background area, as shown in FIG. Then, when the touch position slides to the front right and reaches the position that straddles the hair and the dog's body surface as shown in Fig. (B), the background on the left side of the screen corresponding to the hair part is "smooth". While the tactile indicator In that visualizes the "roughness" is displayed in the background on the right side of the screen corresponding to the body surface of the dog, the tactile indicator In that visualizes "roughness" is displayed.

タッチ位置が更に右側方向へ進んで犬の体表部に達すると、同図(c)に示したように、犬以外の背景領域に表示される全ての触感インジケータInの形状や色が犬の体表部の触感に対応した形状および色に変化する。 When the touch position advances further to the right and reaches the dog's body surface, as shown in Fig. (C), all the shapes and colors of the tactile indicator In displayed in the background area other than the dog are the dog's. It changes to a shape and color that corresponds to the tactile sensation of the body surface.

図16は、タッチ位置が触覚の異なる物品間でスライドされる場合の触感インジケーInの表示切替方法を模式的に示した図である。 FIG. 16 is a diagram schematically showing a display switching method of the tactile sensation indicator In when the touch position is slid between articles having different tactile sensations.

本実施形態では、触感要求位置近傍の触感情報Dについて、各触感インジケータInの位置に対応した微小な矩形領域に分割し、各矩形領域の触感に応じて各触感インジケータInの形状や色が決定される。本実施形態では、左3列の各矩形領域の触感は「髪の毛」であり、右3列の各矩形領域の触感は「犬」なので、それぞれ「髪の毛」および「犬」に対応した触感インジケータInが表示される。 In the present embodiment, the tactile information D near the tactile sensation request position is divided into minute rectangular regions corresponding to the positions of the tactile indicator In, and the shape and color of each tactile indicator In are determined according to the tactile sensation of each rectangular region. Will be done. In the present embodiment, the tactile sensation of each rectangular area in the left three columns is "hair", and the tactile sensation of each rectangular area in the right three columns is "dog". Is displayed.

これに対して、中央の1列ついては「髪の毛」および「犬」が混在しているが、「犬」の面積が「髪の毛」の面積よりも大きいので「犬」に対応した触感インジケータInが表示される。 On the other hand, "hair" and "dog" are mixed in the center row, but since the area of "dog" is larger than the area of "hair", the tactile indicator In corresponding to "dog" is displayed. Will be done.

図17は、前記触感提示システムの動作を示したフローチャートであり、ステップS1では、物体を被写体とする映像が前記映像取得部100によりネットワーク経由または内蔵メモリ等からフレーム単位で取得される。 FIG. 17 is a flowchart showing the operation of the tactile sensation presenting system. In step S1, an image of an object as a subject is acquired by the image acquisition unit 100 via a network or from a built-in memory in frame units.

ステップS2では、前記映像がディスプレイ102に表示され、これと並行または前後して、ステップS3では前記識別部101がフレーム画像から抽出した各物体の種別を種別識別部101aが識別し、ステップS4では、位置識別部101bが各物体のディスプレイ102上での位置座標を識別し、ステップS5では、前記触感情報生成部104が物体の種別および位置の識別結果ならびに触感データベース103に基づいて触感情報Dを生成する。 In step S2, the image is displayed on the display 102, and in parallel with or before and after this, in step S3, the type identification unit 101a identifies the type of each object extracted from the frame image by the identification unit 101, and in step S4. , The position identification unit 101b identifies the position coordinates of each object on the display 102, and in step S5, the tactile information generation unit 104 generates the tactile information D based on the identification result of the type and position of the object and the tactile database 103. Generate.

ステップS6では、前記触感要求検知部105により、ユーザがディスプレイ102にタッチ操作したか否かが判断される。タッチ操作が検知されると、触感要求検知部105がその位置を触感要求位置Pと認識し、さらに触り方Qを検知してステップS7へ進む。ステップS7では前記触感情報Dを参照し、認識物体マップd1上での触感要求位置Pと対応付けられた触感パラメータが触感データサブセットd2から取得される。 In step S6, the tactile request detection unit 105 determines whether or not the user has touched the display 102. When the touch operation is detected, the tactile sensation request detection unit 105 recognizes the position as the tactile sensation request position P, further detects the touch method Q, and proceeds to step S7. In step S7, the tactile sensation information D is referred to, and the tactile sensation parameter associated with the tactile sensation request position P on the recognized object map d1 is acquired from the tactile sensation data subset d2.

ステップS8では、前記触感要求位置P、触り方Qおよび触感パラメータがモデル式に適用されて触感インジケータInが生成される。ステップS9では、前記触感インジケータInがフレーム画像に重畳表示されてユーザに提示される。したがって、ユーザはディスプレイに表示される任意の物体の触感を視覚的、直感的に体感できるようになる。 In step S8, the tactile sensation request position P, the tactile sensation Q, and the tactile sensation parameter are applied to the model formula to generate the tactile sensation indicator In. In step S9, the tactile indicator In is superimposed and displayed on the frame image and presented to the user. Therefore, the user can visually and intuitively experience the tactile sensation of any object displayed on the display.

本実施形態によれば、ユーザはタッチパネルディスプレイに表示される任意の物体の触感を視覚的に体感できるので、触感を伴った映画や、画像中に含まれる商品のそれぞれの触感を体験しながら商品選択できるオンラインショッピングなどを実現できるようになる。また、リアルタイムに処理を行うことができるため、触感を伴ったテレコミュニケーションシステムを実現できる。更に、架空のキャラクターを識別して触感を付与することで、登場キャラクターに触ることができる漫画書籍やアニメーション等の製作等、より臨場感のあるアプリケーションを製作できるようになる。 According to the present embodiment, the user can visually experience the tactile sensation of any object displayed on the touch panel display, so that the product can be experienced while experiencing the tactile sensation of a movie with the tactile sensation or the tactile sensation of the product contained in the image. It will be possible to realize online shopping that can be selected. In addition, since processing can be performed in real time, a telecommunications system with a tactile sensation can be realized. Furthermore, by identifying a fictitious character and giving it a tactile sensation, it becomes possible to create a more realistic application such as a manga book or animation that allows the character to be touched.

図18は、触感提示システムを構成する各機能の第1の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態では、触感提示システム10の各機能が、スマートフォンに代表されるローカル端末1とネットワーク上のサーバ装置2とに分散配置され、各機能が連携動作することで触感提示が実現される点に特徴がある。 FIG. 18 is a functional block diagram showing a first dispersion example of each function constituting the tactile sensation presentation system, and the same reference numerals as those above represent the same or equivalent parts, and thus the description thereof will be omitted. In the present embodiment, each function of the tactile sensation presentation system 10 is distributed and arranged in a local terminal 1 represented by a smartphone and a server device 2 on a network, and the tactile sensation presentation is realized by the cooperative operation of each function. There is a feature in.

ローカル端末1において、触感情報取得部104aは、映像取得部100が取得した映像の情報をサーバ装置2へ送信し、前記物体識別マップd1および触感データセットd2から構成される触感情報Dを当該サーバ装置2から取得する。 In the local terminal 1, the tactile information acquisition unit 104a transmits the image information acquired by the image acquisition unit 100 to the server device 2, and transmits the tactile information D composed of the object identification map d1 and the tactile data set d2 to the server. Obtained from device 2.

図19は、第1の分散例の動作を示したシーケンスフローであり、時刻t1では、ローカル端末1の映像取得部100が物体のフレーム画像を取得する。時刻t2では、触感情報取得部104aがフレーム画像の情報を含む触感情報要求をネットワーク経由でサーバ装置2へ送信する。時刻t3では、前記フレーム画像がタッチパネルディスプレイ102に表示される。 FIG. 19 is a sequence flow showing the operation of the first dispersion example, and at time t1, the video acquisition unit 100 of the local terminal 1 acquires a frame image of an object. At time t2, the tactile information acquisition unit 104a transmits a tactile information request including frame image information to the server device 2 via the network. At time t3, the frame image is displayed on the touch panel display 102.

サーバ装置2は、前記触感情報要求を受信すると、時刻t4において、識別部101がフレーム画像から物体を抽出し、更に各物体の種別および位置座標を識別する。時刻t5では、サーバ装置2から触感DB103へ、前記物体の種別を記述したパラメータ要求が送信される。触感DB103は、時刻t6において前記物体種別に対応した触感パラメータをサーバ装置2へ応答する。 When the server device 2 receives the tactile information request, the identification unit 101 extracts an object from the frame image at time t4, and further identifies the type and position coordinates of each object. At time t5, a parameter request describing the type of the object is transmitted from the server device 2 to the tactile DB 103. The tactile DB 103 responds to the server device 2 with tactile parameters corresponding to the object type at time t6.

サーバ装置2は、時刻t7において、取得した各物体の触感パラメータおよび位置座標に基づいて、前記図2を参照して説明した触感情報Dを生成し、時刻t8において当該触感情報Dをローカル端末1へ応答する。 At time t7, the server device 2 generates the tactile information D described with reference to FIG. 2 based on the acquired tactile parameters and position coordinates of each object, and at time t8, the tactile information D is generated by the local terminal 1. Respond to.

これと並行して、時刻t9では、ローカル端末1の触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて、当該ユーザが触感を要求している物体の位置を触感要求位置Pとして検知し、さらにタッチ速度やタッチ圧の時系列変化を触り方Qとして検知する。 In parallel with this, at time t9, the tactile request detection unit 105 of the local terminal 1 sets the position of the object for which the user is requesting tactile sensation to the tactile sensation request position P based on the user's touch operation on the touch panel unit 102b. And further, the time-series changes in touch speed and touch pressure are detected as touch Q.

ローカル端末1では、時刻t10において、触感パラメータ取得部106が前記触感情報Dから触感要求位置Pに基づいて前記ユーザが要求した物体の触感パラメータを取得する。時刻t11では、前記触感インジケータ生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感インジケータInを生成する。時刻t12では、前記触感インジケータ表示部108が前記触感インジケータInを現在のフレーム画像に重畳表示する。 At the local terminal 1, at time t10, the tactile parameter acquisition unit 106 acquires the tactile parameter of the object requested by the user from the tactile information D based on the tactile request position P. At time t11, the tactile indicator generation unit 107 generates the tactile indicator In by applying the tactile request position P, the tactile Q, and the tactile parameters to the model formula. At time t12, the tactile indicator display unit 108 superimposes and displays the tactile indicator In on the current frame image.

本実施形態によれば、触感提示に要する複数の機能をローカル端末1およびサーバ装置2に分散できるので、処理能力の低いローカル端末にも視覚的な触感提示機能を付与できるようになる。 According to the present embodiment, since a plurality of functions required for tactile presentation can be distributed to the local terminal 1 and the server device 2, it is possible to provide a visual tactile presentation function even to a local terminal having a low processing capacity.

図20は、触感提示システムを構成する各機能の第2の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。本実施形態は第1の分散例と比較して、識別部101がローカル端末1に実装された点に特徴がある。 FIG. 20 is a functional block diagram showing a second dispersion example of each function constituting the tactile sensation presentation system, and the same reference numerals as those described above represent the same or equivalent parts, and thus the description thereof will be omitted. This embodiment is characterized in that the identification unit 101 is mounted on the local terminal 1 as compared with the first dispersion example.

図21は、第2の分散例の動作を示したシーケンスフローであり、時刻t21では、ローカル端末1の映像取得部100がフレーム画像を取得し、時刻t22においてタッチパネルディスプレイ102に表示する。時刻t23では、識別部101が前記フレーム画像から物体を抽出し、各物体の種別およびディスプレイ102上での位置座標を識別する。 FIG. 21 is a sequence flow showing the operation of the second dispersion example. At time t21, the video acquisition unit 100 of the local terminal 1 acquires a frame image and displays it on the touch panel display 102 at time t22. At time t23, the identification unit 101 extracts an object from the frame image and identifies the type of each object and the position coordinates on the display 102.

時刻t24では前記物体の種別が記述された触感情報要求がローカル端末1からサーバ装置2へ送信される。時刻t25では、前記触感情報要求に記述されている物体種別を含むパラメータ要求がサーバ装置2から触感DB103へ送信される。時刻t26では、前記パラメータ要求に対して前記物体種別に対応した触感パラメータが触感DB3からサーバ装置2へ応答される。時刻t27では、サーバ装置2の触感情報生成部104により、取得した触感パラメータおよび物体の位置座標に基づいて、前記物体識別マップd1および触感データセットd2から構成される触感情報Dが生成される。 At time t24, a tactile information request describing the type of the object is transmitted from the local terminal 1 to the server device 2. At time t25, the parameter request including the object type described in the tactile information request is transmitted from the server device 2 to the tactile DB 103. At time t26, the tactile parameter corresponding to the object type is returned from the tactile DB3 to the server device 2 in response to the parameter request. At time t27, the tactile information generation unit 104 of the server device 2 generates tactile information D composed of the object identification map d1 and the tactile data set d2 based on the acquired tactile parameters and the position coordinates of the object.

これと並行して、時刻t29では、ローカル端末1の前記触感要求検知部105が、タッチパネル部102bに対するユーザのタッチ操作に基づいて触感要求位置Pおよび触り方Qを検知する。時刻t30では、前記触感パラメータ取得部106が、前記触感情報Dから触感要求位置Pに基づいて触感パラメータを取得する。 In parallel with this, at time t29, the tactile request detection unit 105 of the local terminal 1 detects the tactile request position P and the touch method Q based on the user's touch operation on the touch panel unit 102b. At time t30, the tactile parameter acquisition unit 106 acquires tactile parameters from the tactile information D based on the tactile request position P.

時刻t31では、前記触感インジケータ生成部107が前記触感要求位置P、触り方Qおよび触感パラメータをモデル式に適用して触感提示信号を生成する。時刻t32では、前記触感インジケータInがフレーム画像に重畳表示される。 At time t31, the tactile indicator generation unit 107 applies the tactile sensation request position P, the tactile sensation Q, and the tactile sensation parameter to the model formula to generate the tactile sensation presentation signal. At time t32, the tactile indicator In is superimposed and displayed on the frame image.

本実施形態によれば、第1の分散例との比較で、触感提示に係るローカル端末1の処理負荷は増えるが、ローカル端末1とサーバ装置2との間のトラヒック量を低減できるようになる。 According to the present embodiment, the processing load of the local terminal 1 related to the tactile sensation presentation increases as compared with the first distributed example, but the traffic amount between the local terminal 1 and the server device 2 can be reduced. ..

図22は、触感提示システムを構成する各機能の第3の分散例を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているのでその説明は省略する。本実施形態は、触感提示システム10の全ての機能をローカル端末1に実装した点に特徴がある。 FIG. 22 is a functional block diagram showing a third dispersion example of each function constituting the tactile sensation presentation system, and the same reference numerals as those described above represent the same or equivalent parts, and thus the description thereof will be omitted. The present embodiment is characterized in that all the functions of the tactile presentation system 10 are implemented in the local terminal 1.

図23は、触感提示システム10の他の構成を示した機能ブロック図であり、触感情報生成部104が生成した認識物体マップd1を修正するマップ修正部109を具備した点に特徴がある。 FIG. 23 is a functional block diagram showing another configuration of the tactile sensation presentation system 10, and is characterized in that it includes a map correction unit 109 that modifies the perceptible object map d1 generated by the tactile sensation information generation unit 104.

触感情報生成部104は、映像が動画であれば識別部101による識別結果に基づいてフレーム単位で認識物体マップd1を生成する。このとき識別部101aの識別精度、画像中の光陰、映像ノイズ等の影響により、図24に示したように、フレーム間で一時的かつ部分的に物体の種別が誤認識され、認識物体マップd1の一部に誤りが生じることがある。このような誤認識は、特に自由形状に基づいて物体の種別を推定する識別アルゴリズムにおいて顕著に発生する。 If the video is a moving image, the tactile information generation unit 104 generates the perceptible object map d1 on a frame-by-frame basis based on the identification result by the identification unit 101. At this time, as shown in FIG. 24, the type of the object is temporarily and partially erroneously recognized between the frames due to the influence of the identification accuracy of the identification unit 101a, the shade in the image, the image noise, and the like, and the recognition object map d1 An error may occur in a part of. Such misrecognition occurs remarkably especially in the identification algorithm that estimates the type of the object based on the free shape.

誤認識された領域が触感要求位置Pとして指定されると、誤った触感パラメータに基づいて誤った触感が提示され、さらに次フレームで正しい触感パラメータに基づいて正しい触感が提示されると、短時間での触感変化がノイズの要因となり、提示触感のクオリティが著しく低下する。 When the misrecognized area is designated as the tactile request position P, the wrong tactile sensation is presented based on the erroneous tactile parameter, and when the correct tactile sensation is presented based on the correct tactile parameter in the next frame, a short time The change in the tactile sensation in the above causes noise, and the quality of the presented tactile sensation is significantly deteriorated.

マップ修正部109は、物体の種別が誤認識されて認識物体マップd1の一部に誤りが生じることに起因した提示触感のクオリティ低下を防止するために、今回フレームの認識物体マップd1を過去の複数フレーム分の認識物体マップd1に基づいて修正する。これにより、物体の種別を正しく識別できなかった場合でも当該物体の正しい触感をユーザに提示できるようになる。 In order to prevent the quality of the presented tactile sensation from deteriorating due to an error in a part of the recognized object map d1 due to an erroneous recognition of the object type, the map correction unit 109 uses the recognized object map d1 of the frame in the past. Modify based on the perceptible object map d1 for multiple frames. As a result, even if the type of the object cannot be correctly identified, the correct tactile sensation of the object can be presented to the user.

図25は、前記マップ修正部109の機能を備えた触感提示システムにおける各機能の分散例を示した機能ブロック図であり、ローカル端末102にマップ修正部109aが実装された点に特徴がある。 FIG. 25 is a functional block diagram showing a distribution example of each function in the tactile presentation system having the function of the map correction unit 109, and is characterized in that the map correction unit 109a is mounted on the local terminal 102.

マップ修正部109aは、今回フレームの認識物体マップd1に加えて、過去nフレーム分(本実施形態では、過去4フレーム分)の認識物体マップd1を保持し、図26に示したように、触感要求位置Pが検知されると、当該触感要求位置Pの座標を中心に、例えば5ピクセル四方、併せて125ピクセル分の識別結果を各認識物体マップd1から抽出する。そして、触感要求位置Pの座標を起点に過去フレームのピクセルごとに時間的あるいはピクセル間距離に基づくタグIDの重み付き線形和を計算する。ここで、タグIDは各物体の識別結果に固有の識別子である。 In addition to the perceptible object map d1 of the frame this time, the map correction unit 109a holds the perceptible object map d1 for the past n frames (in the present embodiment, the past 4 frames), and as shown in FIG. 26, the tactile sensation. When the requested position P is detected, the identification results for, for example, 5 pixels square, 125 pixels in total, centered on the coordinates of the tactile demanded position P, are extracted from each perceptible object map d1. Then, the weighted linear sum of the tag IDs based on the time or the inter-pixel distance is calculated for each pixel of the past frame starting from the coordinates of the tactile sensation request position P. Here, the tag ID is an identifier unique to the identification result of each object.

本実施形態では、今回フレームの認識物体マップd1における触感要求位置Pの位置座標を(xt, yt)とし、fフレーム前の認識物体マップd1における各ピクセルの位置座標(x, y)に対応したタグIDをvxyfとし、過去kフレームに遡って、(2N+1)ピクセル×(2M+1)ピクセルの矩形領域を対象にタグIDを抽出して線形和を求める。タグID (T)についての線形和E (T)は次式(1)で表すことができる。ただし、wxyfは今回フレームにおける触感要求位置P(xt, yt)からfフレーム前の認識物体マップj1における各ピクセル座標(x, y)までの線形和重みであり、f=0は現在のフレームを表す。 In this embodiment, the position coordinates of the tactile sensation request position P in the perceptible object map d1 of the frame this time are set to (xt, yt), and the position coordinates (x, y) of each pixel in the perceptible object map d1 before the f frame are supported. Let the tag ID be vxyf, go back to the past k frames, extract the tag ID for the rectangular area of (2N + 1) pixels × (2M + 1) pixels, and obtain the linear sum. The linear sum E (T) for the tag ID (T) can be expressed by the following equation (1). However, wxyf is the linear sum weight from the tactile sensation request position P (xt, yt) in the frame to each pixel coordinate (x, y) in the perceptible object map j1 before the f frame, and f = 0 is the current frame. show.

Figure 2021135656
Figure 2021135656

そして、各タグIDについて求められた線形和のうち、最も値が大きい線形和、およびそれに対応するタグIDを選出し、その線形和が一定の閾値より大きければ、触感要求位置Pの位置座標(xt, yt)を、選出されたタグIDの領域と判断する。これに対して、線形和が閾値より小さければ、その位置座標(xt, yt)を背景領域と判断する。 Then, among the linear sums obtained for each tag ID, the linear sum having the largest value and the corresponding tag ID are selected, and if the linear sum is larger than a certain threshold value, the position coordinates of the tactile sensation request position P ( xt, yt) is judged to be the area of the selected tag ID. On the other hand, if the linear sum is smaller than the threshold value, the position coordinates (xt, yt) are judged to be the background area.

本実施形態によれば、推定結果を時間的、空間的に抽象化するため、触感情報生成部104において一時的あるいは部分的な誤認識が生じたとしても、視覚的な触感提示への影響を軽減できる。 According to the present embodiment, since the estimation result is abstracted temporally and spatially, even if a temporary or partial erroneous recognition occurs in the tactile information generation unit 104, it has an influence on the visual tactile sensation presentation. Can be reduced.

ただし、映像中にカメラ視点の切り替えや、映像中の物体の入れ替わりが発生した場合、マップ修正部109が過去のフレームに遡って重み付き線形和を算出すると、正しい推定結果が得られない可能性がある。 However, if the camera viewpoint is switched or the objects in the image are replaced during the image, the map correction unit 109 may not be able to obtain the correct estimation result if the weighted linear sum is calculated by going back to the past frame. There is.

ここで、図27に示したように、認識物体マップj1において物体の識別結果(タグID)を画素データとしてヒストグラムを作成すると、このヒストグラムは、そのフレーム画像においてどの物体がどの程度の領域を占めているかを示す。そのため、「人」,「犬」,「車」が映っていたフレーム画像が、「人」のみが映ったフレーム画像に切り替わると、図示の通りヒストグラムが大きく変化する。 Here, as shown in FIG. 27, when a histogram is created using the object identification result (tag ID) as pixel data in the recognized object map j1, which object occupies what area in the frame image. Indicates whether it is. Therefore, when the frame image in which "people", "dogs", and "cars" are shown is switched to the frame image in which only "people" are shown, the histogram changes significantly as shown in the figure.

そこで、本実施形態ではタグIDについてのヒストグラムの値を過去数フレーム分保持して起き、今回フレームのヒストグラムと過去の各フレーム画像のヒストグラムとを比較することでカメラの切り替わりや物体の入れ替わりを検出する。 Therefore, in the present embodiment, the histogram value for the tag ID is held for the past several frames, and the histogram of the current frame is compared with the histogram of each past frame image to detect the change of the camera or the change of the object. do.

例えば、タグIDごとに過去フレームと今回フレームとの間の変動率を算出し、さらにタグID間の変動率の平均値を算出する。算出した平均値が閾値を超えていた場合は、カメラの切り替えや物体の入れ替えが起こったと判断できる。 For example, the volatility between the past frame and the current frame is calculated for each tag ID, and the average value of the volatility between the tag IDs is calculated. If the calculated average value exceeds the threshold value, it can be determined that the camera has been switched or the object has been replaced.

ただし、ヒストグラムの対象領域をフレーム全体にしていた場合はフレームの部分的な変動に対応できない。このため、実際には1つのフレーム画像を部分区画に区切り、区画ごとにヒストグラムを算出することで各区画におけるカメラの切り替わりや物体の入れ替わりを検出することが望ましい。 However, if the target area of the histogram is the entire frame, it is not possible to deal with partial fluctuations in the frame. For this reason, it is actually desirable to divide one frame image into subsections and calculate a histogram for each section to detect camera changes and object changes in each section.

上記手法により、ある領域においてカメラの切り替わりや物体の入れ替わりを検出したとき、ユーザがその領域の部分にタッチしていた場合には、検出以前のフレームを線形和の重みを再度設定しなおして、タッチ位置における物体の種別を再度判断する。これにより、カメラの切り替わりや物体の入れ替わりが起こるような映像においても、物体の誤認識の影響を軽減した視覚的な触感提示が可能になる。 When the user touches a part of the area when the camera change or the object change is detected in a certain area by the above method, the weight of the linear sum is reset again in the frame before the detection. Determine the type of object at the touch position again. As a result, it is possible to present a visual tactile sensation that reduces the influence of erroneous recognition of an object even in an image in which cameras are switched or objects are replaced.

本実施形態によれば、映像が大きく変化する前の触感情報が、大きく変化した後の触感情報に基づいて修正されてしまうような、誤った修正を防止できるようになる。また、本実施形態によれば、感触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正するので計算量を減じることができる。したがって、一般的に計算能力の低いローカル端末1への実装を実現できる。 According to the present embodiment, it is possible to prevent erroneous correction such that the tactile information before the image is significantly changed is corrected based on the tactile information after the large change. Further, according to the present embodiment, only the tag ID of the pixel corresponding to the tactile sensation request position P is corrected based on the tactile sensation information map M of the past frame, so that the amount of calculation can be reduced. Therefore, it is possible to implement the implementation on the local terminal 1 which generally has low computing power.

図28は、前記マップ修正部109の機能を備えた触感提示システムにおける各機能の他の分散例を示した機能ブロック図であり、前記マップ修正部109の機能をサーバ装置2において実現するマップ修正部109bが実装された点に特徴がある。 FIG. 28 is a functional block diagram showing another distribution example of each function in the tactile presentation system having the function of the map correction unit 109, and is a map correction that realizes the function of the map correction unit 109 in the server device 2. The feature is that the part 109b is mounted.

本実施形態では、触感要求位置Pが検知されると、当該触感要求位置Pに対応したピクセルのタグIDのみを過去フレームの触感情報マップMに基づいて修正したが、サーバ装置2にとって触感要求位置Pは未知である。そこで、マップ修正部109bが今回フレームに関して生成した認識物体マップの全てのピクセルに関して、予め上記と同様の手順を繰り返すことで認識物体マップd1を修正する。 In the present embodiment, when the tactile sensation request position P is detected, only the tag ID of the pixel corresponding to the tactile sensation request position P is modified based on the tactile sensation information map M of the past frame. P is unknown. Therefore, the map correction unit 109b corrects the recognized object map d1 by repeating the same procedure as above for all the pixels of the recognized object map generated for the frame this time.

本実施形態によれば、一般的に処理負荷の高い認識物体マップd1の修正処理をサーバ装置に負担させることができるので、ローカル端末1の処理負荷を軽減できるようになる。 According to the present embodiment, since the server device can bear the correction processing of the perceptible object map d1 which generally has a high processing load, the processing load of the local terminal 1 can be reduced.

1…ローカル端末,2…サーバ装置,10…触感提示システム,100…映像取得部,101…物体識別部,101a…種別識別部,101b…位置識別部,102…タッチパネルディスプレイ,103…触感データベース(DB),104…触感情報生成部,105…触感要求検知部,106…触感パラメータ取得部,107…触感インジケータ生成部,108…触感インジケータ表示部,109,109a,109b…マップ修正部,200…触感情報管理部 1 ... local terminal, 2 ... server device, 10 ... tactile presentation system, 100 ... image acquisition unit, 101 ... object identification unit, 101a ... type identification unit, 101b ... position identification unit, 102 ... touch panel display, 103 ... tactile database ( DB), 104 ... Tactile information generation unit, 105 ... Tactile request detection unit, 106 ... Tactile parameter acquisition unit, 107 ... Tactile indicator generation unit, 108 ... Tactile indicator display unit, 109, 109a, 109b ... Map correction unit, 200 ... Tactile information management department

Claims (18)

タッチ操作を検知できるディスプレイに表示される物体の触感を視覚的に提示する触感提示システムにおいて、
物体の種別ごとに触感パラメータを保持する触感記憶手段と、
タッチ操作されたディスプレイの触感要求位置に対応した物品の触感パラメータを触感記憶手段から取得する手段と、
取得した触感パラメータに基づいて前記物品の触感を視覚的に表現する触感インジケータを表示する手段とを具備したことを特徴とする触感提示システム。
In a tactile presentation system that visually presents the tactile sensation of an object displayed on a display that can detect touch operations.
Tactile memory means that holds tactile parameters for each type of object,
A means for acquiring the tactile sensation parameter of an article corresponding to the tactile sensation required position of the touch-operated display from the tactile sensation storage means, and a means for acquiring the tactile sensation parameter.
A tactile presentation system comprising a means for displaying a tactile indicator that visually expresses the tactile sensation of the article based on the acquired tactile sensation parameters.
前記触感インジケータが前記触感要求位置に表示されることを特徴とする請求項1に記載の触感提示システム。 The tactile sensation presentation system according to claim 1, wherein the tactile sensation indicator is displayed at the tactile sensation request position. 前記触感インジケータが前記物体の背景領域の全域に複数表示されることを特徴とする請求項1に記載の触感提示システム。 The tactile presentation system according to claim 1, wherein a plurality of tactile indicators are displayed over the entire background area of the object. ディスプレイに表示される物体の種別および位置を識別する手段と、
前記物体の種別および位置の識別結果ならびに前記触感記憶手段に基づいて、前記ディスプレイ上の各位置と触感パラメータとを対応付ける触感情報を生成する手段と、
前記触感要求位置に対応した触感パラメータを前記触感情報に基づいて取得する手段とを更に具備したことを特徴とする請求項1ないし3のいずれかに記載の触感提示システム。
A means of identifying the type and position of an object displayed on a display,
A means for generating tactile information that associates each position on the display with a tactile parameter based on the identification result of the type and position of the object and the tactile memory means.
The tactile sensation presentation system according to any one of claims 1 to 3, further comprising a means for acquiring a tactile sensation parameter corresponding to the tactile sensation required position based on the tactile sensation information.
触感要求位置がスライドすると各スライド位置の触感に応じて触感インジケータが変化することを特徴とする請求項1ないし4のいずれかに記載の触感提示システム。 The tactile sensation presentation system according to any one of claims 1 to 4, wherein when the tactile sensation required position slides, the tactile sensation indicator changes according to the tactile sensation of each slide position. 前記触感要求位置のスライドに応じて触感インジケータの表示位置が移動することを特徴とする請求項5に記載の触感提示システム。 The tactile sensation presentation system according to claim 5, wherein the display position of the tactile sensation indicator moves according to the slide of the tactile sensation request position. 触感インジケータの表示位置が各スライド位置の触感に応じて、前記触感要求位置のスライドと非同期に移動することを特徴とする請求項6に記載の触感提示システム。 The tactile sensation presentation system according to claim 6, wherein the display position of the tactile sensation indicator moves asynchronously with the slide at the tactile sensation request position according to the tactile sensation of each slide position. 前記触感インジケータの形状が触感に応じて変化することを特徴とする請求項1ないし7のいずれかに記載の触感提示システム。 The tactile sensation presentation system according to any one of claims 1 to 7, wherein the shape of the tactile sensation indicator changes according to the tactile sensation. 前記触感インジケータの表示色が触感に応じて変化することを特徴とする請求項1ないし8のいずれかに記載の触感提示システム。 The tactile sensation presentation system according to any one of claims 1 to 8, wherein the display color of the tactile sensation indicator changes according to the tactile sensation. 前記触感インジケータが触感に応じた振幅および/または振動数で振動することを特徴とする請求項1ないし9のいずれかに記載の触感提示システム。 The tactile presentation system according to any one of claims 1 to 9, wherein the tactile indicator vibrates with an amplitude and / or a frequency corresponding to the tactile sensation. 前記振幅および/または振動数が触感要求位置からの距離に応じて変化することを特徴とする請求項10に記載の触感提示システム。 The tactile presentation system according to claim 10, wherein the amplitude and / or frequency changes according to a distance from a tactile required position. 前記触感インジケータの大きさが触感およびタッチ操作の押し込み圧力に応じて変化することを特徴とする請求項1ないし11のいずれかに記載の触感提示システム。 The tactile presentation system according to any one of claims 1 to 11, wherein the size of the tactile indicator changes according to the tactile sensation and the pressing pressure of the touch operation. 前記映像が動画の各フレーム画像であり、
今回のフレーム画像に基づいて生成した触感情報を前回以前の各フレーム画像に基づいて生成した各触感情報に基づいて修正する手段を更に具備したことを特徴とする請求項1ないし12のいずれかに記載の触感提示システム。
The video is each frame image of the moving image.
According to any one of claims 1 to 12, the tactile sensation information generated based on the current frame image is further provided with a means for correcting the tactile sensation information generated based on the tactile sensation information generated based on each frame image before the previous time. Described tactile presentation system.
前記修正する手段は、今回フレームの触感要求位置の種別を、当該触感要求位置と前回以前の各フレーム画像の各位置との距離およびその種別に基づく重み付き線形和で修正することを特徴とする請求項13に記載の触感提示システム。 The correction means is characterized in that the type of the tactile sensation request position of the frame this time is corrected by the distance between the tactile sensation request position and each position of each frame image before the previous time and the weighted linear sum based on the type. The tactile presentation system according to claim 13. 前記修正する手段は、フレームごとに種別ヒストグラムを作成し、種別ヒストグラムの変化が所定の閾値を超えるフレーム間には前記修正を適用しないことを特徴とする請求項14に記載の触感提示システム。 The tactile presentation system according to claim 14, wherein the correction means creates a type histogram for each frame, and does not apply the correction between frames in which the change of the type histogram exceeds a predetermined threshold value. 前記タッチ操作に基づいて前記ディスプレイへの触り方を検知する手段を更に具備し、
前記触感インジケータを表示する手段は、前記取得した触感パラメータおよび触り方に基づいて触感インジケータを表示することを特徴とする請求項1ないし15のいずれかに記載の触感提示システム。
Further provided with means for detecting how to touch the display based on the touch operation.
The tactile presentation system according to any one of claims 1 to 15, wherein the means for displaying the tactile indicator displays the tactile indicator based on the acquired tactile parameters and the tactile sensation.
コンピュータが、タッチ操作を検知できるディスプレイに表示される物体の触感を視覚的に提示する触感提示方法において、
タッチ操作されたディスプレイの触感要求位置に対応した物品の触感パラメータを、物体の種別ごとに触感パラメータを保持する触感記憶手段から取得し、
取得した触感パラメータに基づいて前記物品の触感を視覚的に表現する触感インジケータを表示することを特徴とする触感提示方法。
In a tactile presentation method in which a computer visually presents the tactile sensation of an object displayed on a display capable of detecting a touch operation.
The tactile parameter of the article corresponding to the tactile required position of the touch-operated display is acquired from the tactile memory means that holds the tactile parameter for each type of object.
A tactile sensation presentation method comprising displaying a tactile sensation indicator that visually expresses the tactile sensation of the article based on the acquired tactile sensation parameters.
タッチ操作を検知できるディスプレイに表示される物体の触感を視覚的に提示する触感提示プログラムにおいて、
タッチ操作されたディスプレイの触感要求位置に対応した物品の触感パラメータを、物体の種別ごとに触感パラメータを保持する触感記憶手段から取得する手順と、
取得した触感パラメータに基づいて前記物品の触感を視覚的に表現する触感インジケータを表示する手順と、
をコンピュータに実行させる触感提示プログラム。
In a tactile presentation program that visually presents the tactile sensation of an object displayed on a display that can detect touch operations.
A procedure for acquiring the tactile parameter of an article corresponding to the tactile required position of a touch-operated display from a tactile memory means that holds the tactile parameter for each type of object, and
A procedure for displaying a tactile indicator that visually expresses the tactile sensation of the article based on the acquired tactile sensation parameters, and
A tactile presentation program that causes a computer to execute.
JP2020030376A 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program Active JP7252916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020030376A JP7252916B2 (en) 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030376A JP7252916B2 (en) 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program

Publications (3)

Publication Number Publication Date
JP2021135656A true JP2021135656A (en) 2021-09-13
JP2021135656A5 JP2021135656A5 (en) 2022-02-22
JP7252916B2 JP7252916B2 (en) 2023-04-05

Family

ID=77661231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030376A Active JP7252916B2 (en) 2020-02-26 2020-02-26 Haptic sensation presentation method, system and program

Country Status (1)

Country Link
JP (1) JP7252916B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006024147A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science Background image generating method and device
WO2008111245A1 (en) * 2007-03-14 2008-09-18 Japan Science And Technology Agency Virtual sense presenting device
JP2010286488A (en) * 2009-06-09 2010-12-24 Samsung Electronics Co Ltd Image processor and method
WO2013108595A1 (en) * 2012-01-17 2013-07-25 パナソニック株式会社 Electronic device
JP2014182717A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Information processor, information processing system and program
WO2015163169A1 (en) * 2014-04-23 2015-10-29 ソニー株式会社 Image processing device and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006024147A (en) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science Background image generating method and device
WO2008111245A1 (en) * 2007-03-14 2008-09-18 Japan Science And Technology Agency Virtual sense presenting device
JP2010286488A (en) * 2009-06-09 2010-12-24 Samsung Electronics Co Ltd Image processor and method
WO2013108595A1 (en) * 2012-01-17 2013-07-25 パナソニック株式会社 Electronic device
JP2014182717A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Information processor, information processing system and program
WO2015163169A1 (en) * 2014-04-23 2015-10-29 ソニー株式会社 Image processing device and method

Also Published As

Publication number Publication date
JP7252916B2 (en) 2023-04-05

Similar Documents

Publication Publication Date Title
US10761612B2 (en) Gesture recognition techniques
LaViola Jr et al. 3D user interfaces: theory and practice
CN105190477B (en) Head-mounted display apparatus for user's interaction in augmented reality environment
Seo et al. Direct hand touchable interactions in augmented reality environments for natural and intuitive user experiences
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
CN110476142A (en) Virtual objects user interface is shown
CN110070556A (en) Use the structural modeling of depth transducer
CN108431734A (en) Touch feedback for non-touch surface interaction
Park et al. Design evaluation of information appliances using augmented reality-based tangible interaction
Jimeno-Morenilla et al. Augmented and virtual reality techniques for footwear
US11209903B2 (en) Rendering of mediated reality content
CN107735758A (en) Synchronous digital ink strokes are presented
EP3549127A1 (en) A system for importing user interface devices into virtual/augmented reality
US20150033157A1 (en) 3d displaying apparatus and the method thereof
CN105829948A (en) Wearable Display Input System
Hernoux et al. A seamless solution for 3D real-time interaction: design and evaluation
Rasool et al. Real-time haptic interaction with RGBD video streams
CN107526441A (en) 3D virtual interacting methods and system
JP7252916B2 (en) Haptic sensation presentation method, system and program
JP7235689B2 (en) Haptic sensation presentation method, system and program
Kim et al. Haptic interaction with objects in a picture based on pose estimation
JP7345387B2 (en) Tactile sensation presentation system, local terminal and server device of the tactile sensation presentation system, tactile sensation presentation method, and tactile sensation presentation program
Shumaker et al. Virtual, Augmented and Mixed Reality
CN114578956A (en) Equipment control method and device, virtual wearable equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230324

R150 Certificate of patent or registration of utility model

Ref document number: 7252916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150