JP2014142869A - Information processor, information processing method, program and recording medium - Google Patents

Information processor, information processing method, program and recording medium Download PDF

Info

Publication number
JP2014142869A
JP2014142869A JP2013011931A JP2013011931A JP2014142869A JP 2014142869 A JP2014142869 A JP 2014142869A JP 2013011931 A JP2013011931 A JP 2013011931A JP 2013011931 A JP2013011931 A JP 2013011931A JP 2014142869 A JP2014142869 A JP 2014142869A
Authority
JP
Japan
Prior art keywords
content
housing
vibration
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013011931A
Other languages
Japanese (ja)
Inventor
Jun Kobayashi
準 小林
Tatsuyuki Shintani
龍行 新谷
Michio Nagai
道生 永井
Takeharu Kitagawa
丈晴 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013011931A priority Critical patent/JP2014142869A/en
Publication of JP2014142869A publication Critical patent/JP2014142869A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to perceive a feeling synchronized with the change of content at one or more points on the surface of a casing.SOLUTION: The information processor includes: a casing 130; output means 140 disposed in the casing 130 for outputting content; a plurality of oscillation means 150 disposed at different positions in the casing 130 for giving oscillation to the casing; and control means 110 disposed in the casing 130 for controlling the output means 140 and the plurality of oscillation means 150. The control means 110 includes: a content output part for outputting content consisting of one or more elements and scenarios defining the movement of the elements to the output means 140; and an oscillation means control part for controlling the plurality of oscillation means 150 to oscillate one or more points on the surface of the casing in synchronization with the change of the content output by the content output part.

Description

本発明は、情報処理装置、情報処理方法、プログラム及び記録媒体に関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and a recording medium.

触覚や力覚は、人間の皮膚や筋肉で感じられる感覚であり、体に直接接触しているものの形状や表面の材質、あるいは、動きを知覚することができる。また、皮膚には、痛点、温点といった感覚点があり、痛みや温度を感じることができる。   Tactile sensation and force sensation are sensations that can be sensed by human skin and muscles, and can sense the shape, surface material, or movement of what is in direct contact with the body. In addition, the skin has sensory points such as pain points and warm points, and can feel pain and temperature.

マルチメディアにおいては、表現法やインターフェース技術が多様化していくことによって、視覚や聴覚だけでなく、触覚や力覚も重要なものとなってきた。触覚や力覚は、眼や耳だけでは伝えられない情報、又は伝え難い情報を、受信者の体で直接感じてもらうことができる。例えば、キーボードのホームポジションであるFやJのキーには、他と違って突起や凹みが付けられている。これは、指先の触覚によって違いを分からせることを利用した例である。   In multimedia, as expression methods and interface technologies diversify, not only visual and auditory senses, but also tactile and force sensations have become important. The tactile sensation and the force sensation can be directly felt by the recipient's body with information that cannot be conveyed with eyes or ears or that is difficult to convey. For example, the F and J keys, which are the home position of the keyboard, have protrusions and dents unlike others. This is an example using the fact that the difference can be recognized by the sense of touch of the fingertip.

触覚は、仮想環境においても重要な要素である。触覚を利用した技術としては、仮想物体からのフォースフィードバックを得るような機器、手の動きを測定する機器等が提案されている。例えば、フライトシミュレータに用いられるジョイスティックは、実際の操縦桿と同じような操作感を実現している。   Tactile sensation is an important element even in a virtual environment. As a technique using tactile sensation, a device that obtains force feedback from a virtual object, a device that measures hand movement, and the like have been proposed. For example, a joystick used in a flight simulator realizes an operational feeling similar to an actual control stick.

このような背景に関連する技術としては、様々なものが知られている(例えば、特許文献1、2参照。)。   Various techniques relating to such a background are known (see, for example, Patent Documents 1 and 2).

例えば、特許文献1には、画像データ、文字データ、及び画像データ又は文字データの表示特性を示す付随情報のうち少なくとも1つを含む複数の表示用データから構成されたデジタルコンテンツの再生を行うコンテンツ再生方法が記載されている。より具体的に説明すると、この方法は、画像データ、文字データ及び付随情報のうち少なくとも1つを、表示用データで出力するイベント動作を特定するためのイベント特定情報として抽出する。そして、この方法は、イベント特定情報とイベント動作との対応を示すイベント対応情報を記憶手段から読み出す。そして、この方法は、イベント特定情報とイベント対応情報とに基づいて、表示データを再生する際に出力するイベント動作を決定する。このようにして、この方法によっては、イベント動作の情報を持たないデジタルコンテンツを再生する際に、再生するデジタルコンテンツの内容に応じた適切なイベント動作を出力することができる。   For example, Patent Literature 1 discloses content that reproduces digital content composed of a plurality of display data including at least one of image data, character data, and accompanying information indicating display characteristics of image data or character data. A playback method is described. More specifically, this method extracts at least one of image data, character data, and accompanying information as event specifying information for specifying an event operation to be output as display data. In this method, event correspondence information indicating the correspondence between the event identification information and the event operation is read from the storage unit. In this method, the event operation to be output when the display data is reproduced is determined based on the event specifying information and the event correspondence information. In this way, depending on this method, when playing back digital content that does not have event action information, an appropriate event action according to the content of the digital content to be played back can be output.

また、例えば、特許文献2には、テキストコンテンツに対してより簡便に臨場感を付与することが可能な情報処理方法が記載されている。より具体的に説明すると、この方法は、テキストコンテンツの少なくとも一部の特徴を表す特徴キーワードを認識する。そして、この方法は、認識された特徴キーワードに応じて、テキストコンテンツの外部からテキストコンテンツに関連する付加情報を取得する。そして、この方法は、取得した付加情報がテキストコンテンツの一部と共に出力されるように制御する。このようにして、この方法によっては、テキストコンテンツに対してより簡便に臨場感を付与することが可能となる。   In addition, for example, Patent Document 2 describes an information processing method that can easily add a sense of reality to text content. More specifically, this method recognizes feature keywords that represent at least some features of text content. Then, according to the recognized feature keyword, this method acquires additional information related to the text content from the outside of the text content. In this method, the acquired additional information is controlled so as to be output together with a part of the text content. In this way, depending on this method, it is possible to more easily add a sense of reality to the text content.

特開2007−241942号公報JP 2007-241942 A 特開2011−216071号公報JP 2011-216071 A

特許文献1、2に記載の技術は、コンテンツの内容に応じて、振動を知覚させる。しかしながら、特許文献1、2に記載の技術によっては、例えば、装置を両手で把持しているような場合に、コンテンツの内容がどのように変化しても、ユーザが左右の手でそれぞれ知覚する振動の感触は一様なものとなる。そのため、特許文献1、2に記載の技術によっては、例えば、装置を両手で把持しているような場合に、コンテンツを構成する要素が変化しても、その変化をリアルに体感できるような感触をユーザの左右の手にそれぞれ知覚させることはできない。   The techniques described in Patent Documents 1 and 2 cause vibration to be perceived according to the content. However, depending on the technologies described in Patent Documents 1 and 2, for example, when the device is held with both hands, the user perceives with the left and right hands no matter how the content changes. The feel of vibration is uniform. For this reason, depending on the technologies described in Patent Documents 1 and 2, for example, when the device is held with both hands, even if the elements that make up the content change, it is possible to feel the change realistically. Cannot be perceived by the left and right hands of the user.

本発明の目的は、上述した課題を解決する情報処理装置、情報処理方法、プログラム及び記録媒体を提供することにある。   The objective of this invention is providing the information processing apparatus, the information processing method, program, and recording medium which solve the subject mentioned above.

上記課題を解決するために、本発明の第1の形態によると、情報処理装置であって、筐体と、筐体に設けられて、コンテンツを出力するための出力手段と、筐体内の異なる位置にそれぞれ設けられて、筐体に対して振動を与える複数の振動手段と、筐体内に設けられて、出力手段及び複数の振動手段を制御する制御手段とを備え、制御手段は、一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、出力手段へ出力するコンテンツ出力部と、コンテンツ出力部が出力したコンテンツの変化に同期させて、筐体の表面上の一以上の点を振動させるべく、複数の振動手段をそれぞれ制御する振動手段制御部とを有する。   In order to solve the above-described problem, according to the first aspect of the present invention, there is provided an information processing apparatus, a housing, an output means provided in the housing and outputting content, and different in the housing A plurality of vibration means provided at each position for applying vibration to the housing; and a control means provided in the housing for controlling the output means and the plurality of vibration means. And a content output unit that outputs a scenario that defines the movement of the element to the output unit, and one or more on the surface of the housing in synchronization with a change in the content output by the content output unit In order to vibrate the point, there is provided a vibration means controller that controls each of the plurality of vibration means.

本発明の第2の形態によると、情報処理方法であって、一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、筐体に設けられて、コンテンツを出力するための出力手段へ出力するコンテンツ出力段階と、コンテンツ出力段階において出力されたコンテンツの変化に同期させて、筐体の表面上の一以上の点を振動させるべく、筐体内の異なる位置にそれぞれ設けられて、筐体に対して振動を与える複数の振動手段をそれぞれ制御する振動手段制御段階とを備える。   According to the second aspect of the present invention, there is provided an information processing method for providing content including one or more elements and a scenario defining the movement of the elements in a casing and outputting the contents. In order to vibrate one or more points on the surface of the housing in synchronization with the content output stage to be output to the means and the change of the content output in the content output stage, respectively, provided at different positions in the housing, A vibration means control stage for controlling a plurality of vibration means for applying vibration to the housing.

本発明の第3の形態によると、プログラムであって、コンピュータを、一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、筐体に設けられて、コンテンツを出力するための出力手段へ出力するコンテンツ出力部、コンテンツ出力部が出力したコンテンツの変化に同期させて、筐体の表面上の一以上の点を振動させるべく、筐体内の異なる位置にそれぞれ設けられて、筐体に対して振動を与える複数の振動手段をそれぞれ制御する振動手段制御部として機能させる。   According to a third aspect of the present invention, there is provided a program for outputting content by providing a computer with content including a scenario that defines one or more elements and movement of the elements. In order to vibrate one or more points on the surface of the housing in synchronism with changes in content output from the content output unit and the content output unit output to the output means, It is made to function as a vibration means control unit for controlling a plurality of vibration means for applying vibration to the body.

本発明の第4の形態によると、記録媒体であって、コンピュータを、一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、筐体に設けられて、コンテンツを出力するための出力手段へ出力するコンテンツ出力部、コンテンツ出力部が出力したコンテンツの変化に同期させて、筐体の表面上の一以上の点を振動させるべく、筐体内の異なる位置にそれぞれ設けられて、筐体に対して振動を与える複数の振動手段をそれぞれ制御する振動手段制御部として機能させるプログラムを記録した。   According to a fourth aspect of the present invention, there is provided a recording medium for outputting content by providing a computer with content including a scenario that defines one or more elements and movement of the elements. In order to vibrate one or more points on the surface of the housing in synchronism with changes in the content output by the content output unit that outputs to the output means, the content output unit is provided at different positions in the housing, A program that functions as a vibration unit control unit that controls a plurality of vibration units that apply vibration to the casing was recorded.

なおまた、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となり得る。   The above summary of the invention does not enumerate all necessary features of the present invention. Also, a sub-combination of these feature groups can also be an invention.

以上の説明から明らかなように、この発明によっては、例えば、装置を両手で把持しているような場合に、コンテンツを構成する要素が変化すれば、その変化をリアルに体感できるような感触をユーザの左右の手にそれぞれ知覚させることができる。   As is apparent from the above description, according to the present invention, for example, when the device is held with both hands, if the elements constituting the content change, the touch can be felt realistically. The user's left and right hands can perceive each other.

一実施形態に係るタブレット端末100の構成の一例を示す図である。It is a figure which shows an example of a structure of the tablet terminal 100 which concerns on one Embodiment. CPU110のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of CPU110. 第1の実施形態に係るコンテンツの一例を示す図である。It is a figure which shows an example of the content which concerns on 1st Embodiment. 第1の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the tablet terminal 100 in the case of outputting the content which concerns on 1st Embodiment. 第2の実施形態に係るコンテンツの一例を示す図である。It is a figure which shows an example of the content which concerns on 2nd Embodiment. 第2の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the tablet terminal 100 in the case of outputting the content which concerns on 2nd Embodiment. 第3の実施形態に係るコンテンツの一例を示す図である。It is a figure which shows an example of the content which concerns on 3rd Embodiment. 第3の実施形態に係るコンテンツの一例を示す図である。It is a figure which shows an example of the content which concerns on 3rd Embodiment. 第3の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the tablet terminal 100 in the case of outputting the content which concerns on 3rd Embodiment. 第4の実施形態に係るコンテンツの一例を示す図である。It is a figure which shows an example of the content which concerns on 4th Embodiment. 第4の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the tablet terminal 100 in the case of outputting the content which concerns on 4th Embodiment. 第5の実施形態に係るコンテンツの一例を示す図である。It is a figure which shows an example of the content which concerns on 5th Embodiment. 第5の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the tablet terminal 100 in the case of outputting the content which concerns on 5th Embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are described below. However, this is not always essential for the solution of the invention.

以下の実施形態において、コンテンツは、一以上の要素と、シナリオとから構成される。ここで、要素とは、コンテンツにおいて動きのある仮想物体や、変化する情報等である。また、シナリオとは、要素の変化や動きを定義する情報である。例えば、物体が移動する動画のコンテンツにおいては、移動する物体が要素であり、物体が移動する軌跡等を定義する情報がシナリオである。   In the following embodiment, the content is composed of one or more elements and a scenario. Here, the elements are virtual objects that move in the content, changing information, and the like. A scenario is information that defines a change or movement of an element. For example, in moving image content in which an object moves, the moving object is an element, and information that defines a trajectory or the like that the object moves is a scenario.

図1は、一実施形態に係るタブレット端末100の構成の一例を示す。タブレット端末100は、コンピュータの分類の一つで、板状の筐体の片面が触れて操作できるタッチパネルになっており、ほとんどの操作を画面に触れて行うタイプの端末である。なおまた、タブレット端末100は、この発明における「情報処理装置」の一例であってよい。   FIG. 1 shows an exemplary configuration of a tablet terminal 100 according to an embodiment. The tablet terminal 100 is one type of computer, is a touch panel that can be operated by touching one side of a plate-shaped housing, and is a type of terminal that performs most operations by touching the screen. The tablet terminal 100 may be an example of the “information processing apparatus” in the present invention.

タブレット端末100は、CPU(Central Processing Unit)110、筐体130、タッチパネル140、複数のピエゾ素子150a〜d(以下、ピエゾ素子150と総称する。)、偏心モーター160及びジャイロスコープ170を備える。なおまた、CPU110は、この発明における「制御手段」の一例であってよい。また、タッチパネル140は、この発明における「出力手段」の一例であってよい。また、ピエゾ素子150及び偏心モーター160は、この発明における「振動手段」の一例であってよい。また、タッチパネル140及びジャイロスコープ170は、この発明における「入力手段」の一例であってよい。   The tablet terminal 100 includes a CPU (Central Processing Unit) 110, a housing 130, a touch panel 140, a plurality of piezo elements 150a to 150d (hereinafter collectively referred to as piezo elements 150), an eccentric motor 160, and a gyroscope 170. The CPU 110 may be an example of the “control unit” in the present invention. The touch panel 140 may be an example of the “output unit” in the present invention. The piezo element 150 and the eccentric motor 160 may be an example of the “vibrating unit” in the present invention. The touch panel 140 and the gyroscope 170 may be an example of “input means” in the present invention.

筐体130は、タブレット端末100を動作させるのに必要な機能を有する部品を中に収めた箱である。より具体的に説明すると、筐体130は、タブレット端末100のフレームを含めた外装である。   The housing 130 is a box in which components having functions necessary to operate the tablet terminal 100 are housed. More specifically, the housing 130 is an exterior including the frame of the tablet terminal 100.

タッチパネル140は、指先や専用のペンで画面に触れることで入力を行う装置である。より具体的に説明すると、タッチパネル140は、表示装置と入力装置が一体化したもので、指が触れた位置をセンサーで検知して、どの表示要素が指定されたかを特定し、対応する動作を行う。タッチパネル140は、筐体130に設けられて、CPU110と電気的に接続されており、コンテンツを出力する。   The touch panel 140 is a device that performs input by touching the screen with a fingertip or a dedicated pen. More specifically, the touch panel 140 is an integrated display device and input device, detects a position touched by a finger with a sensor, specifies which display element is specified, and performs a corresponding operation. Do. The touch panel 140 is provided in the housing 130 and is electrically connected to the CPU 110 to output content.

ピエゾ素子150は、電界を印加すると機械的に伸び縮みして振動を発生させるアクチュエータである。より具体的に説明すると、ピエゾ素子150a〜dは、それぞれ筐体130内の異なる位置に設けられて、CPU110と電気的に接続されており、筐体130に対して振動を与える。本実施形態においては、ピエゾ素子150aとピエゾ素子150dとは、タブレット端末100を平面視した場合において、筐体130の対角線上にそれぞれ設けられている。同様に、ピエゾ素子150bとピエゾ素子cとは、タブレット端末100を平面視した場合において、筐体130の対角線上にそれぞれ設けられている。   The piezo element 150 is an actuator that mechanically expands and contracts to generate vibration when an electric field is applied. More specifically, the piezo elements 150 a to 150 d are provided at different positions in the housing 130 and are electrically connected to the CPU 110, and give vibration to the housing 130. In the present embodiment, the piezo element 150a and the piezo element 150d are respectively provided on the diagonal line of the housing 130 when the tablet terminal 100 is viewed in plan. Similarly, the piezo element 150b and the piezo element c are provided on diagonal lines of the housing 130 when the tablet terminal 100 is viewed in plan.

偏心モーター160は、形状に偏りがある重りをモーターの軸に取り付け、それを回転させることで振動を発生させるアクチュエータである。より具体的に説明すると、偏心モーター160は、ピエゾ素子150とは異なる位置に設けられて、CPU110と電気的に接続されており、筐体130に対して振動を与える。本実施形態においては、偏心モーター160は、タブレット端末100を平面視した場合において、筐体130の中央付近に設けられている。   The eccentric motor 160 is an actuator that generates vibration by attaching a weight having a deviation in shape to the shaft of the motor and rotating the weight. More specifically, the eccentric motor 160 is provided at a position different from that of the piezo element 150, is electrically connected to the CPU 110, and applies vibration to the housing 130. In the present embodiment, the eccentric motor 160 is provided near the center of the housing 130 when the tablet terminal 100 is viewed in plan.

ジャイロスコープ170は、タブレット端末100の角度や角速度を検出する計測器である。より具体的に説明すると、ジャイロスコープ170は、筐体130内に設けられて、CPU110と電気的に接続されている。   The gyroscope 170 is a measuring instrument that detects the angle and angular velocity of the tablet terminal 100. More specifically, the gyroscope 170 is provided in the housing 130 and is electrically connected to the CPU 110.

CPU110は、タブレット端末100を構成する部品の一つで、各装置の制御やデータの計算及び加工を行う装置である。より具体的に説明すると、CPU110は、筐体130内に設けられて、タッチパネル140、ピエゾ素子150、偏心モーター160及びジャイロスコープ170とそれぞれ電気的に接続されている。そして、CPU110は、タッチパネル140、ピエゾ素子150、偏心モーター160及びジャイロスコープ170をそれぞれ制御する。   The CPU 110 is one of the components constituting the tablet terminal 100, and is a device that controls each device and calculates and processes data. More specifically, the CPU 110 is provided in the housing 130 and is electrically connected to the touch panel 140, the piezo element 150, the eccentric motor 160, and the gyroscope 170, respectively. Then, the CPU 110 controls the touch panel 140, the piezo element 150, the eccentric motor 160, and the gyroscope 170, respectively.

なおまた、本実施形態においては、説明が煩雑になることを防ぐことを目的として、タブレット端末100が一のCPU110、タッチパネル140、偏心モーター160及びジャイロスコープ170を備える構成について説明する。しかしながら、タブレット端末100は、複数のCPU110、タッチパネル140、偏心モーター160及びジャイロスコープ170を備えてよい。   In the present embodiment, a configuration in which the tablet terminal 100 includes one CPU 110, touch panel 140, eccentric motor 160, and gyroscope 170 will be described for the purpose of preventing the description from becoming complicated. However, the tablet terminal 100 may include a plurality of CPUs 110, a touch panel 140, an eccentric motor 160, and a gyroscope 170.

図2は、CPU110のブロック構成の一例を示す。CPU110は、命令受付部111、コンテンツ出力部112及び振動手段制御部113を有する。   FIG. 2 shows an example of a block configuration of the CPU 110. The CPU 110 includes a command receiving unit 111, a content output unit 112, and a vibration unit control unit 113.

命令受付部111は、タッチパネル140やジャイロスコープ170によって検出された入力操作を、コンテンツを変化させる旨の命令として受け付ける。例えば、命令受付部111は、タッチパネル140やジャイロスコープ170によって検出された入力操作を、要素を変化させる旨の命令として受け付ける。また、例えば、命令受付部111は、タッチパネル140やジャイロスコープ170によって検出された入力操作を、コンテンツのシナリオを変化させる旨の命令として受け付ける。   The command receiving unit 111 receives an input operation detected by the touch panel 140 or the gyroscope 170 as a command to change the content. For example, the command receiving unit 111 receives an input operation detected by the touch panel 140 or the gyroscope 170 as a command for changing an element. Further, for example, the command receiving unit 111 receives an input operation detected by the touch panel 140 or the gyroscope 170 as a command to change the content scenario.

コンテンツ出力部112は、コンテンツを、タッチパネル140へ出力する。例えば、コンテンツ出力部112は、所定のシナリオにおいて、要素が変化するコンテンツを出力する。また、例えば、コンテンツ出力部112は、命令受付部111が受け付けた命令に応じて変化するシナリオにおいて、要素が変化するコンテンツを出力する。また、例えば、コンテンツ出力部112は、所定のシナリオにおいて、命令受付部111が受け付けた命令に応じて要素が変化するコンテンツを出力する。また、例えば、コンテンツ出力部112は、命令受付部111が受け付けた命令に応じて変化するシナリオにおいて、命令受付部111が受け付けた命令に応じて要素が変化するコンテンツを出力する。   The content output unit 112 outputs the content to the touch panel 140. For example, the content output unit 112 outputs content whose elements change in a predetermined scenario. In addition, for example, the content output unit 112 outputs content whose elements change in a scenario that changes according to the command received by the command receiving unit 111. Further, for example, the content output unit 112 outputs content whose elements change according to the command received by the command receiving unit 111 in a predetermined scenario. For example, the content output unit 112 outputs content whose elements change according to the command received by the command receiving unit 111 in a scenario that changes according to the command received by the command receiving unit 111.

振動手段制御部113は、コンテンツ出力部112が出力したコンテンツの変化に同期させて、筐体130の表面上の一以上の点を振動させるべく、ピエゾ素子150や偏心モーター160をそれぞれ制御する。   The vibration means control unit 113 controls the piezo element 150 and the eccentric motor 160 in order to vibrate one or more points on the surface of the housing 130 in synchronization with the change of the content output by the content output unit 112.

図3は、第1の実施形態に係るコンテンツの一例を示す。図4は、第1の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す。この動作フローにおいては、第1の実施形態に係るコンテンツとして、車C1が画面の左上から右下へ移動する動画を出力する処理について詳述する。なおまた、この動作フローの説明においては、図1から図3を共に参照する。また、第1の実施形態に係るコンテンツは、この発明における「所定のシナリオにおいて、一の要素が変化するコンテンツ」の一例であってよい。また、車C1は、この発明における「一の要素」の一例であってよい。   FIG. 3 shows an example of content according to the first embodiment. FIG. 4 shows an example of an operation flow of the tablet terminal 100 when outputting content according to the first embodiment. In this operation flow, a process of outputting a moving image in which the car C1 moves from the upper left to the lower right of the screen will be described in detail as the content according to the first embodiment. In the description of this operation flow, both FIGS. 1 to 3 are referred to. The content according to the first embodiment may be an example of “content in which one element changes in a predetermined scenario” in the present invention. The vehicle C1 may be an example of “one element” in the present invention.

コンテンツ出力部112は、動画をタッチパネル140へ出力するにあたり、その動画の所定のシナリオを示すデータを、振動手段制御部113へ送る。例えば、所定のシナリオを示すデータには、動画が出力され始めてから経過した時間に対応する車C1の画面上の座標の情報等が含まれる。   When the moving image is output to the touch panel 140, the content output unit 112 sends data indicating a predetermined scenario of the moving image to the vibration unit control unit 113. For example, the data indicating the predetermined scenario includes information on coordinates on the screen of the car C1 corresponding to the time elapsed since the start of output of the moving image.

そして、コンテンツ出力部112は、動画の出力を開始すると(S101)、その旨を示すデータを、振動手段制御部113へ送る。   Then, when the content output unit 112 starts outputting the moving image (S101), the content output unit 112 sends data indicating that to the vibration means control unit 113.

振動手段制御部113は、コンテンツ出力部112から送られたデータをそれぞれ受け取ると、車C1の動きに同期させて、筐体130の表面上の一以上の点を振動させるべく、ピエゾ素子150a、dをそれぞれ制御する(S102)。例えば、振動手段制御部113は、動画が再生されてから経過した時間に対応する車C1の画面上の座標の情報と、動画の出力が開始されてから実際に経過した時間とを参照して、車C1の画面上の座標を特定する。そして、振動手段制御部113は、ピエゾ素子150a、dのうち、車C1の画面上の座標と各ピエゾ素子150の位置とを比較して、その座標に近い方のピエゾ素子150をより大きく振動させて、その座標に遠い方のピエゾ素子150をより小さく振動させるように制御する。   Upon receiving the data sent from the content output unit 112, the vibration means control unit 113 synchronizes with the movement of the car C1 to vibrate one or more points on the surface of the housing 130. Each d is controlled (S102). For example, the vibration means control unit 113 refers to the coordinate information on the screen of the car C1 corresponding to the time that has elapsed since the moving image was reproduced and the time that has actually elapsed since the output of the moving image was started. The coordinates on the screen of the car C1 are specified. Then, the vibration means control unit 113 compares the coordinates on the screen of the car C1 of the piezo elements 150a and 150d with the position of each piezo element 150, and vibrates the piezo element 150 closer to the coordinates more greatly. Thus, control is performed so that the piezo element 150 farther away from the coordinates is vibrated to a smaller extent.

このようにして、車C1が左上付近にある場合には、ピエゾ素子150aがピエゾ素子150dよりも大きく振動する。そして、車C1が右下へ移動する過程においては、ピエゾ素子150aの振動が徐々に小さくなり、ピエゾ素子150dの振動が徐々に大きくなる。   In this way, when the vehicle C1 is near the upper left, the piezo element 150a vibrates more greatly than the piezo element 150d. In the process of moving the vehicle C1 to the lower right, the vibration of the piezo element 150a gradually decreases, and the vibration of the piezo element 150d gradually increases.

その結果、例えば、ユーザがタブレット端末100のP1付近を左手で持ち、P2付近を右手で把持している場合、そのユーザは、車C1の移動に伴って、左手側から右手側に物体が移動したかのような感触を知覚することになる。   As a result, for example, when the user holds the vicinity of P1 of the tablet terminal 100 with the left hand and holds the vicinity of P2 with the right hand, the user moves the object from the left hand side to the right hand side as the car C1 moves. You will perceive the feeling as if you did it.

また、ピエゾ素子150aとピエゾ素子150dとを、タブレット端末100を平面視した場合において、筐体130の対角線上にそれぞれ設けているので、ユーザは、タブレット端末100の四辺のいずれを上にして持った場合でも同様に振動を知覚することになる。   In addition, since the piezoelectric element 150a and the piezoelectric element 150d are provided on the diagonal line of the housing 130 when the tablet terminal 100 is viewed in plan, the user holds any one of the four sides of the tablet terminal 100 upward. Even in the case of vibration, the vibration is perceived in the same way.

図5は、第2の実施形態に係るコンテンツの一例を示す。図6は、第2の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す。この動作フローにおいては、第2の実施形態に係るコンテンツとして、雷C2や爆発C3が表示される動画を出力する処理について詳述する。なおまた、この動作フローの説明においては、図1、図2及び図5を共に参照する。また、第2の実施形態に係るコンテンツは、この発明における「所定のシナリオにおいて、複数の要素が変化するコンテンツ」の一例であってよい。また、雷C2や爆発C3は、この発明における「複数の要素」の一例であってよい。   FIG. 5 shows an example of content according to the second embodiment. FIG. 6 shows an example of the operation flow of the tablet terminal 100 when outputting content according to the second embodiment. In this operation flow, a process of outputting a moving image in which lightning C2 and explosion C3 are displayed as the content according to the second embodiment will be described in detail. In the description of this operation flow, both FIG. 1, FIG. 2 and FIG. 5 are referred to. The content according to the second embodiment may be an example of “content in which a plurality of elements change in a predetermined scenario” in the present invention. The lightning C2 and the explosion C3 may be an example of “a plurality of elements” in the present invention.

コンテンツ出力部112は、動画をタッチパネル140へ出力するにあたり、その動画の所定のシナリオを示すデータを、振動手段制御部113へ送る。例えば、所定のシナリオを示すデータには、動画が出力され始めてからの雷C2や爆発C3が表示されるまでの時間や、画面上の表示位置の座標の情報等が含まれる。   When the moving image is output to the touch panel 140, the content output unit 112 sends data indicating a predetermined scenario of the moving image to the vibration unit control unit 113. For example, the data indicating the predetermined scenario includes the time from when the moving image starts to be output until the lightning C2 or explosion C3 is displayed, information on the coordinates of the display position on the screen, and the like.

そして、コンテンツ出力部112は、動画の出力を開始すると(S201)、その旨を示すデータを、振動手段制御部113へ送る。   Then, when the content output unit 112 starts outputting the moving image (S201), the content output unit 112 sends data indicating that to the vibration unit control unit 113.

振動手段制御部113は、コンテンツ出力部112から送られたデータをそれぞれ受け取ると、雷C2や爆発C3が表示されることに同期させて、筐体130の表面上の一以上の点を振動させるべく、ピエゾ素子150a、d及び偏心モーター160をそれぞれ制御する(S202)。例えば、振動手段制御部113は、動画が出力され始めてからの雷C2や爆発C3が表示されるまでの時間や、画面上の表示位置の座標の情報と、動画の出力が開始されてから実際に経過した時間とを参照して、雷C2や爆発C3が表示されている場合、その画面上の表示位置の座標を特定する。その結果、雷C2が表示されている場合、振動手段制御部113は、ピエゾ素子150a、dのうち、雷C2が表示されている画面上の座標と各ピエゾ素子150の位置とを比較して、その座標に近い方のピエゾ素子150を、高周波で振動させる。また、爆発C3が表示されている場合、振動手段制御部113は、ピエゾ素子150a、dのうち、爆発C3が表示されている画面上の座標と各ピエゾ素子150の位置とを比較して、その座標に近い方のピエゾ素子150を、振幅大小織り交ぜて振動させると共に、偏心モーター160を振動させる。   When receiving the data sent from the content output unit 112, the vibration means control unit 113 vibrates one or more points on the surface of the housing 130 in synchronization with the display of the lightning C2 and the explosion C3. Accordingly, the piezoelectric elements 150a and 150d and the eccentric motor 160 are controlled (S202). For example, the vibration means control unit 113 actually performs the time from when the moving image starts to be output until the lightning C2 or explosion C3 is displayed, the information on the coordinates of the display position on the screen, and the actual output of the moving image. When the lightning C2 or the explosion C3 is displayed with reference to the time elapsed in the above, the coordinates of the display position on the screen are specified. As a result, when the lightning C2 is displayed, the vibration means control unit 113 compares the coordinates on the screen where the lightning C2 is displayed and the position of each piezoelectric element 150 among the piezoelectric elements 150a and 150d. The piezo element 150 closer to the coordinates is vibrated at a high frequency. When the explosion C3 is displayed, the vibration means control unit 113 compares the coordinates on the screen where the explosion C3 is displayed and the position of each piezoelectric element 150 among the piezoelectric elements 150a and 150d. The piezo element 150 closer to the coordinates is vibrated with a large and small amplitude, and the eccentric motor 160 is vibrated.

このようにして、雷C2が表示される場合には、その表示位置に近い方のピエゾ素子150が高周波で振動する。一方、爆発C3が表示される場合には、その発生位置に近い方のピエゾ素子150が振幅大小織り交ぜて振動すると共に、偏心モーター160が振動する。   Thus, when the lightning C2 is displayed, the piezo element 150 closer to the display position vibrates at a high frequency. On the other hand, when the explosion C3 is displayed, the piezo element 150 closer to the generation position vibrates with a large and small amplitude, and the eccentric motor 160 vibrates.

その結果、例えば、ユーザがタブレット端末100のP1付近を左手で持ち、P2付近を右手で持っている場合、そのユーザは、雷C2が表示されれば、その表示位置に近い方の手に雷が落ちたような硬い感触を知覚し、爆発C3が表示されれば、その表示位置に近い方の手に、雷C2が表示されるときの感触とは異なる爆発のような感触を知覚することになる。   As a result, for example, when the user holds the vicinity of P1 of the tablet terminal 100 with the left hand and the vicinity of P2 with the right hand, if the user displays the thunder C2, the user will place the thunder in the hand closer to the display position. If the explosion C3 is displayed when the explosion C3 is displayed, a sense of an explosion different from that when the lightning C2 is displayed is perceived in the hand closer to the display position. become.

図7及び図8は、第3の実施形態に係るコンテンツの一例を示す。図9は、第3の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す。この動作フローにおいては、第3の実施形態に係るコンテンツとして、軟らかい土の地面と、硬いコンクリートの地面とのうち、ユーザによって選択された地面の上でボールC4がバウンドする動画を出力する処理について詳述する。なおまた、この動作フローの説明においては、図1、図2、図7及び図8を共に参照する。また、第3の実施形態に係るコンテンツは、この発明における「命令に応じて変化するシナリオにおいて、要素が変化するコンテンツ」の一例であってよい。また、ボールC4は、この発明における「要素」の一例であってよい。   7 and 8 show an example of content according to the third embodiment. FIG. 9 shows an example of the operation flow of the tablet terminal 100 when outputting content according to the third embodiment. In this operation flow, as the content according to the third embodiment, a process of outputting a movie in which the ball C4 bounces on the ground selected by the user among the soft soil ground and the hard concrete ground. Detailed description. In the description of this operation flow, FIGS. 1, 2, 7, and 8 are referred to. The content according to the third embodiment may be an example of “content whose elements change in a scenario that changes according to a command” in the present invention. The ball C4 may be an example of the “element” in the present invention.

ユーザは、動画を視聴するにあたり、軟らかい土の地面と、硬いコンクリートの地面とのうち、ボールC4をバウンドさせる所望の地面を、例えば、タッチパネル140に表示されている地面切替ボタンBをタップして選択操作する。   When viewing the video, the user taps the desired ground that bounces the ball C4 out of the soft soil ground and the hard concrete ground, for example, by tapping the ground switching button B displayed on the touch panel 140. Select operation.

このような入力操作が検出されると、命令受付部111は、コンテンツのシナリオを、軟らかい土の地面の上でボールC4をバウンドさせるモードに切り替える命令、又は硬いコンクリートの地面の上でボールC4をバウンドさせるモードに切り替える命令として受け付ける(S301)。そして、命令受付部111は、コンテンツのシナリオを変化させるよう指示する旨を示すデータを、コンテンツ出力部112へ送る。   When such an input operation is detected, the command receiving unit 111 commands the content scenario to switch to a mode in which the ball C4 bounces on the soft earth ground or the ball C4 on the hard concrete ground. Accepted as a command to switch to the bounce mode (S301). Then, the command receiving unit 111 sends data indicating that the content scenario is to be changed to the content output unit 112.

コンテンツ出力部112は、命令受付部111から送られたデータを受け取ると、そのデータによって示される指示に応じて、コンテンツのシナリオを切り替える。そして、コンテンツ出力部112は、切り替えた後のシナリオを示すデータを、振動手段制御部113へ送る。例えば、シナリオを示すデータには、選択された地面の種類の情報や、動画が出力され始めてから経過した時間に対応するボールC4の画面上の座標の情報等が含まれる。   When the content output unit 112 receives the data sent from the command receiving unit 111, the content output unit 112 switches the content scenario in accordance with an instruction indicated by the data. Then, the content output unit 112 sends data indicating the switched scenario to the vibration means control unit 113. For example, the data indicating the scenario includes information on the type of the selected ground, information on coordinates on the screen of the ball C4 corresponding to the time that has elapsed since the start of output of the moving image, and the like.

そして、コンテンツ出力部112は、動画の出力を開始すると(S302)、その旨を示すデータを、振動手段制御部113へ送る。例えば、ボールC4は、ユーザによってコンクリートの地面が選択されている場合(図8)、土の地面が選択されている場合(図7)よりも、大きくバウンドする。   Then, when the content output unit 112 starts outputting the moving image (S302), the content output unit 112 sends data indicating that to the vibration unit control unit 113. For example, the ball C4 bounces larger than when the concrete ground is selected by the user (FIG. 8) and when the soil ground is selected (FIG. 7).

振動手段制御部113は、コンテンツ出力部112から送られたデータをそれぞれ受け取ると、ボールC4の動きに同期させて、筐体130の表面上の一以上の点を振動させるべく、ピエゾ素子150a、dをそれぞれ制御する(S303)。例えば、振動手段制御部113は、動画が再生されてから経過した時間に対応するボールC4の画面上の座標の情報と、動画の出力が開始されてから実際に経過した時間とを参照して、ボールC4の画面上の座標を特定する。そして、振動手段制御部113は、ピエゾ素子150a、dのうち、ボールC4の画面上の座標と各ピエゾ素子150の位置とを比較して、ボールC4の座標が地面の座標に達したときに、その座標に近い方のピエゾ素子150をより大きく振動させて、その座標に遠い方のピエゾ素子150をより小さく振動させるように制御する。その際、ユーザによって選択された地面の種類が土の地面であれば、振動手段制御部113は、低周波が出力されるように、ピエゾ素子150a、dを制御する。一方、ユーザによって選択された地面の種類がコンクリートの地面であれば、振動手段制御部113は、高周波の振動が出力されるように、ピエゾ素子150a、dを制御する。   Upon receiving the data sent from the content output unit 112, the vibration means control unit 113 synchronizes with the movement of the ball C4 to vibrate one or more points on the surface of the housing 130, so as to vibrate. Each d is controlled (S303). For example, the vibration means control unit 113 refers to the coordinate information on the screen of the ball C4 corresponding to the time that has elapsed since the moving image was reproduced, and the time that has actually elapsed since the output of the moving image was started. The coordinates on the screen of the ball C4 are specified. Then, the vibration means control unit 113 compares the coordinates of the ball C4 on the screen of the piezo elements 150a and 150d with the position of each piezo element 150, and when the coordinates of the ball C4 reach the coordinates of the ground. The piezoelectric element 150 closer to the coordinates is vibrated more greatly, and the piezoelectric element 150 farther to the coordinates is controlled to vibrate smaller. At this time, if the type of the ground selected by the user is a soil ground, the vibration means control unit 113 controls the piezo elements 150a and 150d so that a low frequency is output. On the other hand, if the type of ground selected by the user is concrete ground, the vibration means control unit 113 controls the piezo elements 150a and 150d so that high-frequency vibration is output.

このようにして、ボールC4が地面にバウンドするときには、そのバウンドする座標に近い方のピエゾ素子150が他方のピエゾ素子150よりも大きく振動する。その際、ユーザによって選択された地面の種類が土の地面であれば、ピエゾ素子150は、低周波の振動を出力する。一方、ユーザによって選択された地面の種類がコンクリートの地面であれば、ピエゾ素子150は、高周波の振動を出力する。   In this way, when the ball C4 bounces to the ground, the piezo element 150 closer to the bound coordinate vibrates more greatly than the other piezo element 150. At this time, if the type of the ground selected by the user is a soil ground, the piezo element 150 outputs a low-frequency vibration. On the other hand, if the type of ground selected by the user is concrete ground, the piezo element 150 outputs high-frequency vibration.

その結果、例えば、ユーザがタブレット端末100のP1付近を左手で持ち、P2付近を右手で把持している場合、そのユーザは、ボールC4が地面にバウンドするときに、その位置に近い方の手により大きい感触を知覚することになる。その際、ユーザは、土の地面を選択していれば、あたかもボールが土の地面にボールがバウンドしているかのような鈍い感触を知覚することになり、コンクリートの地面を選択していれば、あたかもコンクリートの地面にボールがバウンドしているかのような鋭い感触を知覚することになる。   As a result, for example, when the user holds the vicinity of P1 of the tablet terminal 100 with the left hand and grips the vicinity of P2 with the right hand, when the user bounces the ball C4 to the ground, the user has the hand closest to that position. You will perceive a greater feel. At that time, if the user selects the soil ground, the user will perceive a dull feeling as if the ball is bouncing on the soil ground. If the user selects the concrete ground, You will perceive a sharp feel as if the ball is bouncing on the concrete ground.

図10は、第4の実施形態に係るコンテンツの一例を示す。図11は、第4の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す。この動作フローにおいては、第4の実施形態に係るコンテンツとして、ページC5をめくる操作が成された場合にページC5が捲られる電子書籍を出力する処理について詳述する。なおまた、この動作フローの説明においては、図1、図2及び図10を共に参照する。また、第4の実施形態に係るコンテンツは、この発明における「所定のシナリオにおいて、命令に応じて要素が変化するコンテンツ」の一例であってよい。また、ページC5は、この発明における「要素」の一例であってよい。   FIG. 10 shows an example of content according to the fourth embodiment. FIG. 11 shows an example of an operation flow of the tablet terminal 100 when outputting content according to the fourth embodiment. In this operation flow, a process of outputting an electronic book in which the page C5 is turned when the operation of turning the page C5 is performed as the content according to the fourth embodiment will be described in detail. In the description of this operation flow, both FIG. 1, FIG. 2, and FIG. 10 are referred to. In addition, the content according to the fourth embodiment may be an example of “content whose elements change according to a command in a predetermined scenario” in the present invention. The page C5 may be an example of “element” in the present invention.

ユーザは、電子書籍の左側のページC5を右側へめくろうとするにあたり、タッチパネル140に表示されている電子書籍の左側のページC5の隅をタップしたまま、右側のページの方向へドラッグする。   In order to turn the page C5 on the left side of the electronic book to the right side, the user drags in the direction of the right page while tapping the corner of the page C5 on the left side of the electronic book displayed on the touch panel 140.

このような入力操作が成されると、命令受付部111は、コンテンツの要素であるページC5を変化させる命令として受け付ける(S401)。そして、命令受付部111は、要素を変化させるよう指示する旨を示すデータを、コンテンツ出力部112へ送る。   When such an input operation is performed, the command receiving unit 111 receives a command to change the page C5 that is a content element (S401). Then, the instruction receiving unit 111 sends data indicating that the element is to be changed to the content output unit 112.

コンテンツ出力部112は、命令受付部111から送られたデータを受け取ると、タッチパネル140のタップされている座標の位置に、電子書籍のページC5の端部を移動させる(S402)。その際、コンテンツ出力部112は、ページC5の端部の表示位置の座標を示すデータを、逐次、振動手段制御部113へ送る。   Upon receiving the data sent from the command receiving unit 111, the content output unit 112 moves the end of the page C5 of the electronic book to the position of the tapped coordinate on the touch panel 140 (S402). At that time, the content output unit 112 sequentially sends data indicating the coordinates of the display position of the end of the page C5 to the vibration means control unit 113.

振動手段制御部113は、コンテンツ出力部112から送られたデータを受け取る度に、ページC5の動きに同期させて、筐体130の表面上の一以上の点を振動させるべく、ピエゾ素子150a、b及び偏心モーター160をそれぞれ制御する(S403)。例えば、振動手段制御部113は、最初、ページC5の端部の表示位置の座標に近い方のピエゾ素子150を大きく振動させ、ページC5の端部の表示位置の座標が右側へ移動するにつれて、ピエゾ素子150aを徐々に小さく振動させる。そして、ある程度ページC5がめくられた後、タッチパネル140から指が離れて、そこから自動的にページC5がめくられるような表現の出力がなされると、完全にページC5がめくられるまで、ピエゾ素子150dを徐々に大きく振動させる。そして、ページC5が完全にめくられた瞬間に、振動手段制御部113は、偏心モーター160を振動させる。   Each time the vibration means control unit 113 receives data sent from the content output unit 112, the piezo element 150a, the vibration element control unit 113 vibrates one or more points on the surface of the housing 130 in synchronization with the movement of the page C5. b and the eccentric motor 160 are respectively controlled (S403). For example, the vibration unit control unit 113 first vibrates the piezo element 150 closer to the coordinates of the display position of the end of the page C5 greatly, and as the coordinates of the display position of the end of the page C5 move to the right side. The piezoelectric element 150a is gradually vibrated small. Then, after the page C5 is turned to some extent, when the finger is removed from the touch panel 140 and an expression is output so that the page C5 is automatically turned from there, the piezo element is kept until the page C5 is completely turned. 150d is gradually vibrated greatly. The vibration means control unit 113 vibrates the eccentric motor 160 at the moment when the page C5 is completely turned.

このようにして、この例においては、ある程度の位置までページC5の端部がめくられていくにつれて、ピエゾ素子150aの振動が徐々に小さくなる。そして、この例においては、ある程度ページC5がめくられた後、タッチパネル140から指が離れて、そこから自動的にページC5がめくられるような表現の出力がなされると、完全にページC5がめくられるまで、ピエゾ素子150dの振動が徐々に大きくなる。そして、この例においては、ページC5が完全にめくられた瞬間に、偏心モーター160が振動する。   In this way, in this example, the vibration of the piezo element 150a gradually decreases as the end of the page C5 is turned to a certain position. In this example, after the page C5 is turned to some extent, when the finger is removed from the touch panel 140 and an expression is output so that the page C5 is automatically turned from there, the page C5 is completely turned. The vibration of the piezoelectric element 150d gradually increases until it is applied. In this example, the eccentric motor 160 vibrates at the moment when the page C5 is completely turned.

その結果、例えば、ユーザがタブレット端末100のP1付近を左手で持って、電子書籍の左側のページC5を右側へめくるような入力操作を右手で行った場合、そのユーザは、ページC5がめくられているような感触を知覚すると共に、完全にページC5がめくられた瞬間に、紙同士が触れたような感触を知覚することになる。   As a result, for example, when the user holds the vicinity of P1 of the tablet terminal 100 with the left hand and performs an input operation with the right hand to turn the page C5 on the left side of the electronic book with the right hand, the user turns the page C5. As well as at the moment when the page C5 is completely turned, the user feels the touch as if the sheets were touching each other.

図12は、第5の実施形態に係るコンテンツの一例を示す。図13は、第5の実施形態に係るコンテンツを出力する場合のタブレット端末100の動作フローの一例を示す。この動作フローにおいては、第5の実施形態に係るコンテンツとして、キャラクターC6を移動させる入力操作が成なされた場合に、キャラクターC6の移動に伴ってシナリオも変化するゲームを出力する処理について詳述する。なおまた、この動作フローの説明においては、図1、図2及び図12を共に参照する。また、第5の実施形態に係るコンテンツは、この発明における「命令に応じて変化するシナリオにおいて、命令に応じて要素が変化するコンテンツ」の一例であってよい。また、キャラクターC6は、この発明における「要素」の一例であってよい。   FIG. 12 shows an example of content according to the fifth embodiment. FIG. 13 shows an example of the operation flow of the tablet terminal 100 when outputting content according to the fifth embodiment. In this operation flow, as the content according to the fifth embodiment, when an input operation for moving the character C6 is performed, a process for outputting a game in which a scenario also changes as the character C6 moves is described in detail. . In the description of this operation flow, both FIG. 1, FIG. 2 and FIG. 12 are referred to. Further, the content according to the fifth embodiment may be an example of “content whose elements change according to a command in a scenario that changes according to a command” in the present invention. Character C6 may be an example of an “element” in the present invention.

ユーザは、キャラクターC6を移動させるにあたり、例えば、キャラクターC6を移動させたい方向へ、タブレット端末100を傾ける。例えば、キャラクターC6を右側へ移動させたい場合、ユーザは、タブレット端末100を右側へ傾ける。また、キャラクターC6をジャンプさせたい場合、ユーザは、タブレット端末100を上側へ傾ける。   When moving the character C6, the user tilts the tablet terminal 100 in a direction in which the character C6 is to be moved, for example. For example, when moving the character C6 to the right side, the user tilts the tablet terminal 100 to the right side. Further, when the user wants to jump the character C6, the user tilts the tablet terminal 100 upward.

このような入力操作が成されると、命令受付部111は、コンテンツの要素とシナリオとを変化させる命令として受け付ける(S501)。そして、命令受付部111は、コンテンツの要素とシナリオとを変化させるよう指示する旨のデータを、コンテンツ出力部112へ送る。   When such an input operation is performed, the command receiving unit 111 receives a command to change the content element and the scenario (S501). Then, the command receiving unit 111 sends data to the content output unit 112 to instruct to change the content element and the scenario.

コンテンツ出力部112は、命令受付部111から送られたデータを受け取ると、ジャイロスコープ170によって検出されたタブレット端末100の角度や角速度の変化に基づいて、ゲームの要素であるキャラクターC6が移動する方向や速さを算出する。また、キャラクターC6は、その動きに応じて、例えば、地面や他のキャラクター等のゲーム内の他の要素に接触することになる。その際、キャラクターC6は、ゲーム内の他の要素との接触により、その動きが変化することがある。例えば、キャラクターC6がジャンプして、トランポリンのような他の要素の上に着地した場合、キャラクターC6は、そこから更にジャンプすることになる。そこで、コンテンツ出力部112は、命令によって変化するキャラクターC6の動きや、その動きに伴い、ゲーム内の他の要素との関係において変化するキャラクターC6の動き等を定義するシナリオを、逐次算出する。そして、コンテンツ出力部112は、算出したこれらの情報に基づいて、キャラクターC6を移動させる映像の出力を開始すると(S502)、キャラクターC6が表示されている画面上の座標や、キャラクターC6が接している他の要素等の情報を示すデータを、逐次、振動手段制御部113へ送る。   When the content output unit 112 receives the data sent from the command receiving unit 111, the direction in which the character C6, which is an element of the game, moves based on the change in the angle and angular velocity of the tablet terminal 100 detected by the gyroscope 170. Calculate the speed. Further, the character C6 comes into contact with other elements in the game such as the ground and other characters, for example, according to the movement. At that time, the movement of the character C6 may change due to contact with other elements in the game. For example, if character C6 jumps and lands on another element such as a trampoline, character C6 will jump further from there. Therefore, the content output unit 112 sequentially calculates a scenario that defines the movement of the character C6 that changes according to the command and the movement of the character C6 that changes in relation to other elements in the game along with the movement. Then, when the content output unit 112 starts outputting the video for moving the character C6 based on the calculated information (S502), the content output unit 112 touches the coordinates on the screen on which the character C6 is displayed, or the character C6 comes into contact. Data indicating information such as other elements are sequentially sent to the vibration means control unit 113.

振動手段制御部113は、コンテンツ出力部112から送られたデータを受け取る度に、キャラクターC6の動きに同期させて、筐体130の表面上の一以上の点を振動させるべく、ピエゾ素子150a〜d及び偏心モーター160をそれぞれ制御する(S503)。例えば、振動手段制御部113は、キャラクターC6が表示されている画面上の座標や、キャラクターC6が接しているゲーム内の他の要素等の情報に基づいて、ピエゾ素子150や偏心モーター160を適宜振動させる。   Each time the vibration means control unit 113 receives data sent from the content output unit 112, the vibration means control unit 113 synchronizes with the movement of the character C6 to vibrate one or more points on the surface of the housing 130. d and the eccentric motor 160 are respectively controlled (S503). For example, the vibration means control unit 113 appropriately controls the piezo element 150 and the eccentric motor 160 based on information such as coordinates on the screen where the character C6 is displayed and other elements in the game with which the character C6 is in contact. Vibrate.

このようにして、この例においては、例えば、キャラクターC6がアスファルトの道を移動している場合と、砂利道を移動している場合とで、ピエゾ素子150及び偏心モーター160の振動が異なる。   In this way, in this example, for example, the vibration of the piezo element 150 and the eccentric motor 160 is different when the character C6 is moving on the asphalt road and when the character C6 is moving on the gravel road.

その結果、例えば、ユーザがタブレット端末100のP1付近を左手で持ち、P2付近を右手で持っている場合、そのユーザは、キャラクターC6が移動している場所に応じて、異なる感触を知覚することになる。   As a result, for example, when the user holds the vicinity of P1 of the tablet terminal 100 with the left hand and the vicinity of P2 with the right hand, the user perceives a different feel depending on the location where the character C6 is moving. become.

以上、説明したように、タブレット端末100は、筐体130を備える。また、タブレット端末100は、筐体130に設けられて、コンテンツを出力するためのタッチパネル140を備える。また、タブレット端末100は、筐体130内の異なる位置にそれぞれ設けられて、筐体130に対して振動を与える複数のピエゾ素子150及び偏心モーター160を備える。また、タブレット端末100は、タッチパネル140、複数のピエゾ素子150及び偏心モーター160を制御するCPU110を備える。そして、CPU110は、一以上の要素、及びその要素の動きを定義するシナリオから成るコンテンツを、タッチパネル140へ出力する。そして、CPU110は、出力したコンテンツの変化に同期させて、筐体130の表面上の一以上の点を振動させるべく、複数のピエゾ素子150及び偏心モーター160をそれぞれ制御する。   As described above, the tablet terminal 100 includes the housing 130. The tablet terminal 100 includes a touch panel 140 that is provided in the housing 130 and outputs content. The tablet terminal 100 includes a plurality of piezo elements 150 and an eccentric motor 160 that are provided at different positions in the housing 130 and apply vibration to the housing 130. The tablet terminal 100 includes a CPU 110 that controls the touch panel 140, the plurality of piezo elements 150, and the eccentric motor 160. Then, the CPU 110 outputs to the touch panel 140 content including one or more elements and a scenario that defines the movement of the elements. Then, the CPU 110 controls each of the plurality of piezoelectric elements 150 and the eccentric motor 160 so as to vibrate one or more points on the surface of the housing 130 in synchronization with the change of the output content.

このようにして、タブレット端末100によっては、例えば、装置を両手で把持しているような場合に、コンテンツを構成する要素が変化すれば、その変化をリアルに体感できるような感触をユーザの左右の手にそれぞれ知覚させることができる。   In this way, depending on the tablet terminal 100, for example, when the device is held with both hands, if the elements that make up the content change, the user's left and right touches can be felt realistically. Each hand can be perceived.

また、タブレット端末100によっては、コンテンツが複数の要素を含む場合、その各要素の変化に対して、それぞれ異なる感触を知覚させることができる。   Further, depending on the tablet terminal 100, when the content includes a plurality of elements, it is possible to perceive a different touch with respect to the change of each element.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更、又は改良を加えることが可能であることが当業者に明らかである。そのような変更、又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various changes or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書及び図面中において示したシステム、方法、装置、プログラム及び記録媒体における動作、手順、ステップ及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現し得ることに留意すべきである。特許請求の範囲、明細書及び図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operations, procedures, steps, and stages in the system, method, apparatus, program, and recording medium shown in the claims, the description, and the drawings is particularly “before” and “prior to It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for the sake of convenience, it means that it is essential to carry out in this order. is not.

100 タブレット端末
110 CPU
111 命令受付部
112 コンテンツ出力部
113 振動手段制御部
130 筐体
140 タッチパネル
150 ピエゾ素子
160 偏心モーター
170 ジャイロスコープ
100 Tablet terminal 110 CPU
111 Command Accepting Unit 112 Content Output Unit 113 Vibration Means Control Unit 130 Case 140 Touch Panel 150 Piezo Element 160 Eccentric Motor 170 Gyroscope

Claims (8)

筐体と、
前記筐体に設けられて、コンテンツを出力するための出力手段と、
前記筐体内の異なる位置にそれぞれ設けられて、前記筐体に対して振動を与える複数の振動手段と、
前記筐体内に設けられて、前記出力手段及び複数の前記振動手段を制御する制御手段と
を備え、
前記制御手段は、
一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、前記出力手段へ出力するコンテンツ出力部と、
前記コンテンツ出力部が出力したコンテンツの変化に同期させて、前記筐体の表面上の一以上の点を振動させるべく、複数の前記振動手段をそれぞれ制御する振動手段制御部と
を有する情報処理装置。
A housing,
Output means provided in the housing for outputting content;
A plurality of vibration means respectively provided at different positions in the housing and imparting vibration to the housing;
A control means provided in the housing for controlling the output means and the plurality of vibration means;
The control means includes
A content output unit that outputs content including one or more elements and a scenario that defines the movement of the elements to the output unit;
An information processing apparatus comprising: a vibration unit control unit that controls each of the plurality of vibration units to vibrate one or more points on the surface of the housing in synchronization with a change in content output by the content output unit. .
前記コンテンツ出力部は、所定のシナリオにおいて、前記要素が変化するコンテンツを出力する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the content output unit outputs content in which the element changes in a predetermined scenario.
前記筐体に設けられて、コンテンツに対する入力操作を検出する入力手段
を更に備え、
前記制御手段は、
前記入力手段によって検出された入力操作を、前記コンテンツを変化させる旨の命令として受け付ける命令受付部
を更に有し、
前記コンテンツ出力部は、前記命令受付部が受け付けた命令に応じて変化するコンテンツを出力する
請求項1に記載の情報処理装置。
An input unit provided in the housing for detecting an input operation on the content;
The control means includes
A command receiving unit that receives an input operation detected by the input means as a command to change the content;
The information processing apparatus according to claim 1, wherein the content output unit outputs content that changes according to a command received by the command receiving unit.
前記命令受付部は、前記入力手段によって検出された入力操作を、前記要素を変化させる旨の命令として受け付け、
前記コンテンツ出力部は、前記命令受付部が受け付けた命令に応じて前記要素が変化するコンテンツを出力する
請求項3に記載の情報処理装置。
The command receiving unit receives the input operation detected by the input means as a command to change the element,
The information processing apparatus according to claim 3, wherein the content output unit outputs content in which the element changes according to a command received by the command reception unit.
前記命令受付部は、前記入力手段によって検出された入力操作を、前記コンテンツのシナリオを変化させる旨の命令として受け付け、
前記コンテンツ出力部は、前記命令受付部が受け付けた命令に応じて変化するシナリオにおいて、前記要素が変化するコンテンツを出力する
請求項3又は4に記載の情報処理装置。
The command receiving unit receives the input operation detected by the input unit as a command to change the scenario of the content;
The information processing apparatus according to claim 3, wherein the content output unit outputs content in which the element changes in a scenario that changes in accordance with a command received by the command reception unit.
一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、筐体に設けられて、コンテンツを出力するための出力手段へ出力するコンテンツ出力段階と、
前記コンテンツ出力段階において出力されたコンテンツの変化に同期させて、前記筐体の表面上の一以上の点を振動させるべく、前記筐体内の異なる位置にそれぞれ設けられて、前記筐体に対して振動を与える複数の振動手段をそれぞれ制御する振動手段制御段階と
を備える情報処理方法。
A content output step of outputting content comprising one or more elements and a scenario defining the movement of the elements to an output means provided in the housing and outputting the content;
In synchronism with the change of the content output in the content output stage, one or more points on the surface of the housing are vibrated at different positions in the housing, respectively, An information processing method comprising: a vibration means control step for respectively controlling a plurality of vibration means for applying vibration.
コンピュータを、
一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、筐体に設けられて、コンテンツを出力するための出力手段へ出力するコンテンツ出力部、
前記コンテンツ出力部が出力したコンテンツの変化に同期させて、前記筐体の表面上の一以上の点を振動させるべく、前記筐体内の異なる位置にそれぞれ設けられて、前記筐体に対して振動を与える複数の振動手段をそれぞれ制御する振動手段制御部
として機能させるプログラム。
Computer
A content output unit configured to output content including one or more elements and a scenario defining the movement of the elements to an output unit provided in the housing and outputting the content;
In order to vibrate one or more points on the surface of the housing in synchronization with a change in content output by the content output unit, vibrations are provided to the housing at different positions in the housing. A program that functions as a vibration unit control unit that controls a plurality of vibration units that respectively provide the vibration.
コンピュータを、
一以上の要素、及び当該要素の動きを定義するシナリオから成るコンテンツを、筐体に設けられて、コンテンツを出力するための出力手段へ出力するコンテンツ出力部、
前記コンテンツ出力部が出力したコンテンツの変化に同期させて、前記筐体の表面上の一以上の点を振動させるべく、前記筐体内の異なる位置にそれぞれ設けられて、前記筐体に対して振動を与える複数の振動手段をそれぞれ制御する振動手段制御部
として機能させるプログラムを記録した記録媒体。
Computer
A content output unit configured to output content including one or more elements and a scenario defining the movement of the elements to an output unit provided in the housing and outputting the content;
In order to vibrate one or more points on the surface of the housing in synchronization with a change in content output by the content output unit, vibrations are provided to the housing at different positions in the housing. The recording medium which recorded the program which functions as a vibration means control part which controls the some vibration means which gives each.
JP2013011931A 2013-01-25 2013-01-25 Information processor, information processing method, program and recording medium Pending JP2014142869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013011931A JP2014142869A (en) 2013-01-25 2013-01-25 Information processor, information processing method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013011931A JP2014142869A (en) 2013-01-25 2013-01-25 Information processor, information processing method, program and recording medium

Publications (1)

Publication Number Publication Date
JP2014142869A true JP2014142869A (en) 2014-08-07

Family

ID=51424086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013011931A Pending JP2014142869A (en) 2013-01-25 2013-01-25 Information processor, information processing method, program and recording medium

Country Status (1)

Country Link
JP (1) JP2014142869A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019017475A (en) * 2017-07-12 2019-02-07 任天堂株式会社 Game system, game program, game device and game processing method
WO2021168900A1 (en) * 2020-02-25 2021-09-02 瑞声声学科技(深圳)有限公司 Method and apparatus for achieving dynamic tactile vibration effect and storage medium
JP7000683B2 (en) 2017-01-20 2022-01-19 富士フイルムビジネスイノベーション株式会社 Information processing system and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7000683B2 (en) 2017-01-20 2022-01-19 富士フイルムビジネスイノベーション株式会社 Information processing system and program
JP2019017475A (en) * 2017-07-12 2019-02-07 任天堂株式会社 Game system, game program, game device and game processing method
WO2021168900A1 (en) * 2020-02-25 2021-09-02 瑞声声学科技(深圳)有限公司 Method and apparatus for achieving dynamic tactile vibration effect and storage medium

Similar Documents

Publication Publication Date Title
US10338681B2 (en) Systems and methods for multi-output electrostatic haptic effects
JP6526760B2 (en) System and method for interface featuring surface-based haptic effects
KR102224434B1 (en) Systems and methods for performing haptic conversion
US9606625B2 (en) Haptically-enabled deformable device with rigid component
KR200258353Y1 (en) Haptic feedback for touchpads and other touch controls
EP2923251B1 (en) System and method for providing mode or state awareness using a programmable surface texture
KR102104463B1 (en) Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US9983672B2 (en) Electrostatic haptic actuator and user interface with an electrostatic haptic actuator
TWI591518B (en) Contextual haptic feedback
JP2019050003A (en) Simulation of tangible user interface interactions and gestures using array of haptic cells
US10474238B2 (en) Systems and methods for virtual affective touch
JP2011501298A (en) 3D object simulation using audio, visual and tactile feedback
EP3333674A1 (en) Systems and methods for compliance simulation with haptics
KR20170059368A (en) Haptically enabled flexible devices
WO2019038888A1 (en) Vibration control device
CN108319361A (en) A kind of feedback method and device
JP6205043B1 (en) Keyboard, information processing apparatus, feedback method, and program
JP2014142869A (en) Information processor, information processing method, program and recording medium
EP3367216A1 (en) Systems and methods for virtual affective touch
KR20200129454A (en) A virtual reality or game controller capable of providing travelling vibrotactile wave, a control method, and virtual reality system having the same
JP2018045491A (en) Controller and control method