JP2013030143A - Operation support device, mobile body information communication terminal, imaging device, and information processor - Google Patents

Operation support device, mobile body information communication terminal, imaging device, and information processor Download PDF

Info

Publication number
JP2013030143A
JP2013030143A JP2011240693A JP2011240693A JP2013030143A JP 2013030143 A JP2013030143 A JP 2013030143A JP 2011240693 A JP2011240693 A JP 2011240693A JP 2011240693 A JP2011240693 A JP 2011240693A JP 2013030143 A JP2013030143 A JP 2013030143A
Authority
JP
Japan
Prior art keywords
information
operation support
posture
support apparatus
tactile information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011240693A
Other languages
Japanese (ja)
Inventor
Masatake Harashima
正豪 原島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011240693A priority Critical patent/JP2013030143A/en
Publication of JP2013030143A publication Critical patent/JP2013030143A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an operation support device capable of supporting an operator to intuitively modify a posture of an operation object in a desired posture, and a mobile body information communication terminal, an imaging device, and an information processor having the operation support device.SOLUTION: An operation support device comprises: posture information detection means for detecting posture information of an operation object; information conversion means for converting a difference between the posture information detected by the posture information detection means and preset target posture information into tactile information; and tactile information transmission means for transmitting the tactile information converted by the information conversion means to an operation body operating the operation object.

Description

本発明は、操作対象物に対して操作者が行う操作を支援する操作支援装置、並びに、その操作支援装置を備えた移動体情報通信端末、撮影装置及び情報処理装置に関するものである。   The present invention relates to an operation support device that supports an operation performed by an operator on an operation target, and a mobile information communication terminal, an imaging device, and an information processing device that include the operation support device.

近年、操作者が保持して操作する操作対象物である携帯電話やデジタルカメラなどの携帯端末においては、操作者が携帯端末に対して行う操作を支援する情報を、携帯端末から操作者に提示するものが知られている(特許文献1など)。例えば、携帯端末の姿勢情報を操作者に提示して、携帯端末の姿勢を所望の姿勢に修正する操作を操作者が行う際に、携帯端末の姿勢情報として、携帯端末の所望の姿勢に対する傾き度合を画面上に表示するものや、携帯端末の姿勢が所望の姿勢になると音を発して操作者に知らせるものなどがある。これらは、携帯端末の姿勢情報を、操作者の感覚のうち聴覚あるいは視覚の情報に変換して、携帯端末から操作者に提示し、操作者による携帯端末の姿勢を所望の姿勢に修正する操作を支援している。   In recent years, in mobile terminals such as mobile phones and digital cameras that are objects to be held and operated by an operator, information that supports operations performed by the operator on the mobile terminal is presented from the mobile terminal to the operator. Is known (Patent Document 1, etc.). For example, when the operator performs the operation of presenting the attitude information of the portable terminal to the operator and correcting the attitude of the portable terminal to the desired attitude, the inclination with respect to the desired attitude of the portable terminal is used as the attitude information of the portable terminal. There are those that display the degree on the screen and those that emit a sound to inform the operator when the posture of the mobile terminal becomes a desired posture. These are operations that convert the attitude information of the mobile terminal into auditory or visual information of the operator's senses, present it to the operator from the mobile terminal, and correct the attitude of the mobile terminal by the operator to a desired attitude Is supporting.

しかしながら、操作者が携帯端末の画面を見ることができなかったり、携帯端末から発せられる音が周囲の騒音にかき消されたりすると、聴覚情報や視覚情報に基づいて操作者は携帯端末の姿勢を把握することが困難となる。そのため、携帯端末から操作者に提示された視覚情報や聴覚情報に基づいて、操作者が直感的に携帯端末を所望の姿勢に修正する操作を行えなくなるといった問題が生じる。   However, when the operator cannot see the screen of the mobile device or the sound emitted from the mobile device is drowned out by the surrounding noise, the operator grasps the posture of the mobile device based on auditory information and visual information. Difficult to do. Therefore, there arises a problem that the operator cannot intuitively correct the portable terminal to a desired posture based on visual information or auditory information presented to the operator from the portable terminal.

本発明は以上の問題点に鑑みなされたものであり、その目的は、操作者が直感的に操作対象物を所望の姿勢に修正する操作を支援できる操作支援装置、並びに、その操作支援装置を備えた移動体情報通信端末、撮影装置及び情報処理装置を提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an operation support apparatus that can assist an operator to intuitively correct an operation target to a desired posture, and an operation support apparatus thereof. It is to provide a mobile information communication terminal, a photographing apparatus, and an information processing apparatus.

上記目的を達成するために、請求項1の発明は、操作対象物の姿勢情報を検出する姿勢情報検出手段と、前記姿勢情報検出手段により検出された前記姿勢情報と予め設定された目標姿勢情報との差を触覚情報に変換する情報変換手段と、前記情報変換手段により変換された前記触覚情報を、前記操作対象物を操作する操作体に伝達する触覚情報伝達手段とを備えることを特徴とするものである。   In order to achieve the above-described object, the invention of claim 1 is directed to posture information detection means for detecting posture information of an operation target, the posture information detected by the posture information detection means, and preset target posture information. And a tactile information transmission unit that transmits the tactile information converted by the information conversion unit to an operating body that operates the operation target. To do.

本発明においては、姿勢情報検出手段によって検出された操作対象物の姿勢情報を情報変換手段で触覚情報に変換し、その触覚情報を触覚情報伝達手段により操作体に提示する。これにより、操作対象物の姿勢情報を操作者の感覚のうち触覚の情報として操作対象物に接している操作体に提示し、操作者による操作対象物の姿勢を所望の姿勢に修正する操作を支援することができる。よって、操作者の感覚のうち視覚あるいは聴覚の情報を用いて操作対象物の姿勢情報を提示する場合よりも、操作者は触覚情報伝達手段から操作体に提示された触覚情報に基づいて直感的に操作対象物の姿勢を所定の姿勢に修正する操作を行うことができる。   In the present invention, the posture information of the operation target detected by the posture information detecting means is converted into tactile information by the information converting means, and the tactile information is presented to the operating body by the tactile information transmitting means. Thus, the operation object's posture information is presented to the operating body in contact with the operation object as tactile information among the operator's senses, and the operation by the operator to correct the operation object's posture to a desired posture is performed. Can help. Therefore, the operator is more intuitive based on the tactile information presented to the operating body from the tactile information transmission means than when the posture information of the operation target is presented using visual or auditory information among the senses of the operator. In addition, an operation for correcting the posture of the operation target to a predetermined posture can be performed.

以上、本発明によれば、操作者が直感的に操作対象物を所望の姿勢に修正する操作を支援できるという優れた効果がある。   As described above, according to the present invention, there is an excellent effect that an operator can support an operation for intuitively correcting an operation target object to a desired posture.

操作支援装置の制御にかかるブロック図。The block diagram concerning control of an operation assistance apparatus. 各種機器への触覚情報伝達手段の搭載例を示す図。The figure which shows the example of mounting of the tactile information transmission means to various apparatuses. 操作対象物の内部構成の一例を示す図。The figure which shows an example of the internal structure of an operation target object. コントローラの内部構成の一例を示す図。The figure which shows an example of the internal structure of a controller. プロセッサ内部の処理例を示す図。The figure which shows the process example inside a processor. (a)デジタルカメラの姿勢の説明図、(b)スマートフォンの姿勢の説明図、(c)ビデオカメラの姿勢の説明図。(A) Explanatory drawing of posture of digital camera, (b) Explanatory drawing of posture of smartphone, (c) Explanatory drawing of posture of video camera. 操作対象物の操作支援制御に係る全体のフローを示す図。The figure which shows the whole flow which concerns on the operation assistance control of the operation target object. プロセッサ内部の処理例を示す図。The figure which shows the process example inside a processor. 操作対象物の操作支援制御に係る全体のフローを示す図。The figure which shows the whole flow which concerns on the operation assistance control of the operation target object. プロセッサ内部の処理例を示す図。The figure which shows the process example inside a processor. 操作対象物の操作支援制御に係る全体のフローを示す図。The figure which shows the whole flow which concerns on the operation assistance control of the operation target object. (a)感度を弱めた触覚情報変換関数の例を示す図、(b)感度をより弱めた触覚情報変換関数の例を示す図、(c)感度を強めた触覚情報変換関数の例を示す図、(d)感度を強めた触覚情報変換関数の例を示す図、(e)感度を弱めた触覚情報変換関数の例を示す図。(A) The figure which shows the example of the haptic information conversion function which weakened the sensitivity, (b) The figure which shows the example of the haptic information conversion function which weakened the sensitivity, (c) The example of the haptic information conversion function which strengthened the sensitivity FIG. 4D is a diagram illustrating an example of a haptic information conversion function with increased sensitivity, and FIG. 5E is a diagram illustrating an example of a haptic information conversion function with decreased sensitivity. 時系列の目標位置姿勢にあるビデオカメラの説明図。Explanatory drawing of the video camera in a time-series target position and orientation. (a)法線方向の力による触覚情報伝達を行う触覚情報伝達手段の例を示す図、(b)接線方向の力による触覚情報伝達を行う触覚情報伝達手段の例を示す図、(c)接線方向の力による触覚情報伝達を行う触覚情報伝達手段の例を示す図、(d)接線方向の力による触覚情報伝達を行う触覚情報伝達手段の例を示す図。(A) The figure which shows the example of the tactile information transmission means which performs tactile information transmission by the force of a normal direction, (b) The figure which shows the example of the tactile information transmission means which performs the tactile information transmission by the force of a tangential direction, (c) The figure which shows the example of the tactile information transmission means which performs tactile information transmission by the force of a tangential direction, (d) The figure which shows the example of the tactile information transmission means which performs the tactile information transmission by the force of a tangential direction. 振動刺激による触覚情報伝達を行う触覚情報伝達手段の例を示す図。The figure which shows the example of the tactile information transmission means which performs tactile information transmission by a vibration stimulus. 電気刺激による触覚情報伝達を行う触覚情報伝達手段の例を示す図。The figure which shows the example of the tactile information transmission means which performs tactile information transmission by electrical stimulation. (a)触覚情報伝達手段の接触部がスマートフォンのタッチパネルの一部である場合の説明図、(b)触覚情報伝達手段の接触部がパッド型パーソナルコンピュータのタッチパネルの一部である場合の説明図。(A) Explanatory diagram when the contact part of the tactile information transmission means is a part of the touch panel of the smartphone, (b) Explanatory diagram when the contact part of the tactile information transmission means is a part of the touch panel of the pad type personal computer . タッチパネルの内部断面構造を示す断面図。Sectional drawing which shows the internal cross-section of a touchscreen. 触覚情報伝達手段の可動部がデジタルカメラのシャッターボタンである場合の説明図。Explanatory drawing when the movable part of a tactile information transmission means is a shutter button of a digital camera. 筐体から一部が外部に突出したシャッターボタンの周辺のデジタルカメラの内部断面構造を示す断面図。Sectional drawing which shows the internal cross-section of the digital camera of the periphery of the shutter button which one part protruded outside from the housing | casing.

図1に操作支援装置の制御にかかるブロック図を示す。
操作対象物101は、操作者107が保持して操作可能な携帯端末である。姿勢情報検出手段102は、操作対象物101の姿勢情報を検出し、姿勢情報を出力する機能をもつ。情報変換手段103は、姿勢情報検出手段102によって検出された姿勢情報と予め設定された目標姿勢情報100との差を、触覚情報106に変換する機能をもつ。触覚情報伝達手段104は、情報変換手段103によって変換された触覚情報106を操作者107の指先109に伝達して作用させる機能をもつ。
FIG. 1 is a block diagram related to the control of the operation support apparatus.
The operation target 101 is a portable terminal that can be held and operated by the operator 107. The posture information detection unit 102 has a function of detecting posture information of the operation target object 101 and outputting posture information. The information conversion unit 103 has a function of converting the difference between the posture information detected by the posture information detection unit 102 and the preset target posture information 100 into the tactile information 106. The tactile information transmission unit 104 has a function of transmitting the tactile information 106 converted by the information conversion unit 103 to the fingertip 109 of the operator 107 to act.

操作対象物101としては、例えば、携帯型の撮像装置であるデジタルカメラ、移動体情報通信端末である携帯電話やスマートフォン、及び、携帯型の情報処理装置であるラップトップ型パーソナルコンピュータやパッド型パーソナルコンピュータなどが挙げられる。   Examples of the operation object 101 include a digital camera that is a portable imaging device, a mobile phone or smartphone that is a mobile information communication terminal, and a laptop personal computer or a pad personal that is a portable information processing device. A computer etc. are mentioned.

操作者107は、指先109に与えられた触覚情報を元に、上肢108で支持及び把持している操作対象物101に対して操作出力105をおこなう。   Based on the tactile information given to the fingertip 109, the operator 107 performs an operation output 105 on the operation object 101 supported and held by the upper limb 108.

なお、図中の指先109は、操作者107の手の触覚受容器が存在する部位であって手のひらなどでも良い。また、上肢108は、操作者107の腕、肘、肩、手首、指関節などであって、さらに可動させることができる部位であれば身体のどこでも良い。   Note that the fingertip 109 in the figure is a part where the tactile receptor of the hand of the operator 107 exists, and may be a palm or the like. The upper limb 108 may be any part of the body as long as it is a part that can be moved further, such as the arm, elbow, shoulder, wrist, and finger joint of the operator 107.

姿勢情報検出手段102としては、例えば、慣性センサを用いることができる。これにより、環境とは独立に操作対象物101を非接地、非拘束の状態で操作対象物101の動きを検出することができる。   For example, an inertial sensor can be used as the posture information detection unit 102. Thereby, the movement of the operation target object 101 can be detected in a state where the operation target object 101 is not grounded and unconstrained independently of the environment.

慣性センサとしては、平行な面内で互いに直交するX軸方向及びY軸方向に向かう加速度を検出するための2軸のセンサや、平行な面内で互いに直交するX軸方向及びY軸方向に向かう加速度と、その面の法線方向であるZ軸方向に向かう加速度とを検出する3軸のセンサなどである加速度センサを用いることができる。加速度センサを用いることにより、重力加速度の各軸での成分から操作対象物101の姿勢を算出することができる。   Inertial sensors include two-axis sensors for detecting accelerations in the X-axis direction and Y-axis direction orthogonal to each other in a parallel plane, and in the X-axis direction and Y-axis direction orthogonal to each other in a parallel plane. An acceleration sensor such as a three-axis sensor that detects the heading acceleration and the heading acceleration in the Z-axis direction that is the normal direction of the surface can be used. By using the acceleration sensor, the posture of the operation target object 101 can be calculated from the components on each axis of gravity acceleration.

また、慣性センサとしては、ジャイロセンサに代表される角速度センサを用いても良い。これにより、基準姿勢と時間積分とにより操作対象物101の姿勢を算出することができる。   Further, as the inertial sensor, an angular velocity sensor represented by a gyro sensor may be used. Thereby, the attitude of the operation target object 101 can be calculated by the reference attitude and the time integration.

姿勢情報検出手段102の他の例としては、磁界の存在する環境で、X軸、Y軸からなる2次元座標上における磁界の強度を検知したり、X軸、Y軸、Z軸からなる3次元座標上における磁界の強度を検知したりする磁気センサを用いても良い。この場合、磁気マーカなどを環境に設置しても良いし、地磁気を利用した地磁気センサを用いても良い。これにより、磁気センサによって検知された各軸の磁界の強さから操作対象物101の姿勢を算出することができる。   As another example of the posture information detecting means 102, the strength of a magnetic field on a two-dimensional coordinate composed of an X axis and a Y axis is detected in an environment where a magnetic field exists, or 3 composed of an X axis, a Y axis, and a Z axis. You may use the magnetic sensor which detects the intensity | strength of the magnetic field on a dimensional coordinate. In this case, a magnetic marker or the like may be installed in the environment, or a geomagnetic sensor using geomagnetism may be used. Thereby, the attitude | position of the operation target object 101 is computable from the intensity | strength of the magnetic field of each axis | shaft detected by the magnetic sensor.

姿勢情報検出手段102のさらに他の例としては、画像センサを用いても良い。操作対象物101あるいは環境に画像センサを設置し、得られた画像データを画像処理することにより操作対象物101の姿勢を算出することができる。   As yet another example of the posture information detection unit 102, an image sensor may be used. The attitude of the operation target 101 can be calculated by installing an image sensor on the operation target 101 or the environment and performing image processing on the obtained image data.

触覚情報伝達手段104は、図2に示すように各種携帯端末(携帯電話30、スマートフォン40、デジタルカメラ50、ラップトップ型パーソナルコンピュータ60、パッド型パーソナルコンピュータ70)の操作者107の指先109が接触し得る所定のスペース(図中斜線部など)にモジュール化されて配置されたり埋め込まれたりして搭載される。   As shown in FIG. 2, the tactile information transmission means 104 is in contact with the fingertip 109 of the operator 107 of various portable terminals (mobile phone 30, smartphone 40, digital camera 50, laptop personal computer 60, pad personal computer 70). It is mounted in a predetermined space (indicated by hatching in the figure) arranged in a modular manner or embedded.

図3に操作対象物101の内部構成の一例を示す。
姿勢情報検出手段102は姿勢センサ202であり、情報変換手段103はコントローラ203であり、触覚情報伝達手段104はアクチュエータ204である。
FIG. 3 shows an example of the internal configuration of the operation target 101.
The posture information detection unit 102 is a posture sensor 202, the information conversion unit 103 is a controller 203, and the tactile information transmission unit 104 is an actuator 204.

図4は、コントローラ203の内部構成の一例を示す図である。図4に示すようにコントローラ203内には、センサ信号をデジタル化するA/D変換部301、情報処理をおこなうプロセッサ302、計算結果をアナログ化するD/A変換部303、アクチュエータ204を駆動する回路であるアクチュエータドライバ304が設けられている。   FIG. 4 is a diagram illustrating an example of the internal configuration of the controller 203. As shown in FIG. 4, in the controller 203, an A / D converter 301 that digitizes sensor signals, a processor 302 that performs information processing, a D / A converter 303 that analogizes calculation results, and an actuator 204 are driven. An actuator driver 304 that is a circuit is provided.

A/D変換部301は姿勢センサ202のアナログ出力信号をデジタル変換する機能をもつ。プロセッサ302は、変換されたセンサ信号と、予め設定された目標姿勢情報との差を計算し、触覚情報に変換する演算処理をおこなう機能をもつ。D/A変換部303は触覚情報をアナログ信号に変換する機能をもつ。アクチュエータドライバ304は、前記アナログ信号を指令値としてアクチュエータ204を駆動する機能をもつ。   The A / D conversion unit 301 has a function of digitally converting the analog output signal of the attitude sensor 202. The processor 302 has a function of performing a calculation process of calculating a difference between the converted sensor signal and preset target posture information and converting it into tactile information. The D / A conversion unit 303 has a function of converting tactile information into an analog signal. The actuator driver 304 has a function of driving the actuator 204 using the analog signal as a command value.

プロセッサ302の内部で行われる処理について、図5を用いて説明する。プロセッサ302には、姿勢算出部401と触覚情報変換部402とが設けられている。姿勢算出部401は、姿勢センサ202のセンサ信号から姿勢情報(ロール、ピッチ、ヨーなどの角度)を算出する機能をもつ。また、触覚情報変換部402は、姿勢算出部401で算出された操作対象物101の姿勢情報と目標姿勢情報100との差を触覚情報に変換する機能をもつ。   Processing performed inside the processor 302 will be described with reference to FIG. The processor 302 is provided with an attitude calculation unit 401 and a tactile information conversion unit 402. The posture calculation unit 401 has a function of calculating posture information (an angle such as roll, pitch, yaw) from the sensor signal of the posture sensor 202. The tactile information conversion unit 402 has a function of converting a difference between the posture information of the operation target 101 calculated by the posture calculation unit 401 and the target posture information 100 into tactile information.

図6(a)はデジタルカメラ50の姿勢の説明図であり、図6(b)はスマートフォン40の姿勢の説明図であり、図6(b)はビデオカメラ500の姿勢の説明図である。姿勢算出部401は、A/D変換部301によりデジタル化されたセンサ信号から操作対象物の姿勢情報を算出する。算出する操作対象物の姿勢情報としては、例えば、図6(a)や図6(b)や図6(c)に示すように直交した3軸の物理量から操作対象物101であるデジタルカメラ50やスマートフォン40やビデオカメラ500のロール角、ピッチ角、ヨー角などの角度である。   6A is an explanatory view of the posture of the digital camera 50, FIG. 6B is an explanatory view of the posture of the smartphone 40, and FIG. 6B is an explanatory view of the posture of the video camera 500. The posture calculation unit 401 calculates posture information of the operation target from the sensor signal digitized by the A / D conversion unit 301. As the posture information of the operation target to be calculated, for example, the digital camera 50 that is the operation target 101 from three orthogonal physical quantities as shown in FIG. 6 (a), FIG. 6 (b), or FIG. 6 (c). And the roll angle, pitch angle, yaw angle, etc. of the smartphone 40 or the video camera 500.

操作対象物101の姿勢情報としては、ロール角とピッチ角とヨー角とのいずれかの少なくとも一つの角度から求めることができるが、ここでは操作対象物101の姿勢情報としてロール角に着目した場合について説明する。姿勢算出部401で算出したロール角をθIN、目標姿勢をθ、その差をΔθ=θIN−θとし、触覚情報変換部402でΔθに対して所定の触覚情報変換関数f(Δθ)を用いた変換をほどこして触覚情報xを得る。そして、この触覚情報xを元にプロセッサ302からアクチュエータ204へ指令を出す。 The posture information of the operation target object 101 can be obtained from at least one of the roll angle, the pitch angle, and the yaw angle, but here, when the roll angle is focused as the posture information of the operation target object 101 Will be described. The roll angle calculated by the posture calculation unit 401 is θ IN , the target posture is θ 0 , the difference is Δθ = θ IN −θ 0 , and the tactile information conversion unit 402 performs a predetermined tactile information conversion function f (Δθ) with respect to Δθ. ) To obtain the tactile information x. Then, a command is issued from the processor 302 to the actuator 204 based on the tactile information x.

例えば、デジタルカメラ50による撮影で水平出しの操作を考えると、Δθ=0はデジタルカメラ50の姿勢が水平になっている状態に相当する。   For example, when considering a leveling operation in photographing with the digital camera 50, Δθ = 0 corresponds to a state in which the posture of the digital camera 50 is horizontal.

図7に操作対象物101の操作支援制御に係る全体のフローを示す。
操作支援の制御を開始すると、まず操作対象物101の目標姿勢θを設定する(S1)。次に、操作対象物101の姿勢を姿勢センサ202で検出し、姿勢センサ202から出力されたアナログ出力信号をA/D変換部301によってデジタル変換する(S2)。このようにA/D変換部301でデジタル化されたセンサ信号から、姿勢算出部401によって操作対象物101の姿勢θINを算出する(S3)。そして、姿勢算出部401で算出した姿勢をθIN、目標姿勢をθ、その差をΔθ=θIN−θとし、触覚情報変換部402でΔθに対して所定の触覚情報変換関数f(Δθ)を用いて変換をほどこして触覚情報xを算出する(S4)。このように算出した触覚情報xに対してD/A変換部303によりD/A変換を実行し、指令値としてアクチュエータドライバ304に送り、その指令値に応じて予め設定された動きをするようにアクチュエータ204を駆動させる(S5)。そして、操作支援を継続して行う場合には(S6でYES)、姿勢センサ202による読み出しへ戻って再度一連の制御を実行する。一方、操作支援を継続して行わない場合には(S6でNO)、一連の制御を終えて操作支援を終了する。
FIG. 7 shows an overall flow relating to the operation support control of the operation object 101.
When the operation support control is started, first, a target posture θ 0 of the operation target 101 is set (S1). Next, the posture of the operation target 101 is detected by the posture sensor 202, and the analog output signal output from the posture sensor 202 is digitally converted by the A / D conversion unit 301 (S2). From the sensor signal digitized by the A / D conversion unit 301 in this way, the posture θ IN of the operation target 101 is calculated by the posture calculation unit 401 (S3). Then, the posture calculated by the posture calculation unit 401 is θ IN , the target posture is θ 0 , and the difference is Δθ = θ IN −θ 0 , and the tactile information conversion unit 402 performs a predetermined tactile information conversion function f ( The tactile information x is calculated by performing transformation using (Δθ) (S4). The D / A conversion is executed by the D / A conversion unit 303 on the tactile information x calculated in this way, and it is sent to the actuator driver 304 as a command value, and moves in advance according to the command value. The actuator 204 is driven (S5). When the operation support is continuously performed (YES in S6), the process returns to the reading by the attitude sensor 202 and executes a series of control again. On the other hand, when the operation support is not continuously performed (NO in S6), the series of control is finished and the operation support is ended.

このような制御を実行することにより、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   By executing such control, it is possible to perform operation support so that the operator 107 can intuitively move the operation target 101 toward a desired posture.

次に、姿勢情報が位置情報も含む多次元の場合について説明する。
3次元空間内で位置3自由度,姿勢3自由度の6自由度の位置姿勢情報は、θ=[q1,q2,q3,q4,q5,q6 ]のようにベクトルであらわされる。なお、本明細書中においては明細書の作成上、「θ」の上に「→」をつけて表されるベルトル記号を、添え字「」で代用して表している。
Next, a case where the posture information is multidimensional including position information will be described.
Position 3 degrees of freedom in three-dimensional space, the position and orientation information of the six degrees of freedom pose 3 degrees of freedom, v theta = represented by a vector as [q1, q2, q3, q4 , q5, q6]. In the present specification, for the purpose of preparing the specification, the Berkle symbol represented by adding “→” above “θ” is represented by the subscript “ v ”.

また、二つの位置姿勢ベクトルθθの距離(スカラー)をd(θθ)と表記する。距離として、例えば標準ユークリッド距離やマハラノビス距離などを用いても良い。 The distance (scalar) between the two position / orientation vectors v θ 1 and v θ 2 is expressed as d ( v θ 1 , v θ 2 ). For example, a standard Euclidean distance or Mahalanobis distance may be used as the distance.

図8において、位置姿勢情報算出部401で算出した位置姿勢情報をθINとし、目標位置姿勢情報をθとし、これらから誤差算出部403により目標からの誤差Δθ=d(θINθ)が算出される。そして、触覚情報変換部402でΔθに対して所定の触覚情報変換関数f(Δθ)を用いた変換をほどこして、触覚情報xを得る。そして、この触覚情報xを元にプロセッサ302からアクチュエータ204へ指令を出す。 8, the position and orientation information calculated by the position and orientation information calculation unit 401 and v theta IN, the target position and orientation information with v theta 0, error Δθ = d (v θ IN from the target by the error calculation unit 403 from those , v θ 0) is calculated. Then, the tactile information conversion unit 402 performs conversion using a predetermined tactile information conversion function f (Δθ) on Δθ to obtain tactile information x. Then, a command is issued from the processor 302 to the actuator 204 based on the tactile information x.

図9に操作対象物101の操作支援制御に係る全体のフローを示す。
操作支援の制御を開始すると、まず操作対象物101の目標位置姿勢θを設定する(S1)。次に、操作対象物101の姿勢を位置姿勢センサ202で検出し、位置姿勢センサ202から出力されたアナログ出力信号をA/D変換部301によってデジタル変換する(S2)。このようにA/D変換部301でデジタル化されたセンサ信号から、位置姿勢算出部401によって操作対象物101の位置姿勢θINを算出する(S3)。そして、位置姿勢算出部401で算出した位置姿勢をθIN、目標位置姿勢をθ、これらから誤差算出部403により算出した目標からの誤差をΔθ=d(θINθ)とし、触覚情報変換部402でΔθに対して所定の触覚情報変換関数f(Δθ)を用いて変換をほどこして触覚情報xを算出する(S4)。このように算出した触覚情報xに対してD/A変換部303によりD/A変換を実行し、指令値としてアクチュエータドライバ304に送り、その指令値に応じて予め設定された動きをするようにアクチュエータ204を駆動させる(S5)。そして、操作支援を継続して行う場合には(S6でYES)、位置姿勢センサ202による読み出しへ戻って再度一連の制御を実行する。一方、操作支援を継続して行わない場合には(S6でNO)、一連の制御を終えて操作支援を終了する。
FIG. 9 shows an overall flow relating to the operation support control of the operation object 101.
When the operation support control is started, first, a target position / orientation v θ 0 of the operation object 101 is set (S1). Next, the posture of the operation target 101 is detected by the position / orientation sensor 202, and the analog output signal output from the position / orientation sensor 202 is digitally converted by the A / D conversion unit 301 (S2). The position / orientation calculation unit 401 calculates the position / orientation v θ IN of the operation target 101 from the sensor signal digitized by the A / D conversion unit 301 (S3). Then, the position / orientation calculated by the position / orientation calculation unit 401 is v θ IN , the target position / orientation is v θ 0 , and the error from the target calculated by the error calculation unit 403 is Δθ = d ( v θ IN , v θ 0 The tactile information conversion unit 402 converts the Δθ using a predetermined tactile information conversion function f (Δθ) to calculate the tactile information x (S4). The D / A conversion is executed by the D / A conversion unit 303 on the tactile information x calculated in this way, and it is sent to the actuator driver 304 as a command value, and moves in advance according to the command value. The actuator 204 is driven (S5). If the operation support is to be continued (YES in S6), the process returns to reading by the position / orientation sensor 202 and the series of control is executed again. On the other hand, when the operation support is not continuously performed (NO in S6), the series of control is finished and the operation support is ended.

次に、目標位置姿勢が時系列データとして設定されている場合について説明する。
位置姿勢情報において、ある時刻tでの位置姿勢は、θ(t)=[q(t),q(t),q(t),q(t),q(t),q(t)]のように時刻tを含むベクトルであらわされる。
Next, a case where the target position / orientation is set as time series data will be described.
In the position and orientation information, the position and orientation at a certain time t is expressed as follows: v θ (t) = [q 1 (t), q 2 (t), q 3 (t), q 4 (t), q 5 (t) , Q 6 (t)], and a vector including time t.

図10において、各時刻t(k=0,1,2,・・・)での目標位置姿勢情報をθ(t)が,目標位置姿勢情報記憶部405に格納されており、目標位置姿勢情報読み出し部404は、現在の時刻tにおける位置姿勢情報401のθ(t)を目標位置姿勢情報記憶部405より読み出す。位置姿勢情報算出部401で算出した位置姿勢情報をθINとし、読み出された目標位置姿勢情報をθ(t)とし、これらから誤差算出部403により目標からの誤差Δθ=d(θINθ(t))を算出する。触覚情報変換部402でΔθに対して所定の触覚情報変換関数f(Δθ)を用いた変換をほどこして触覚情報xを得る。そして、この触覚情報xを元にプロセッサ302からアクチュエータ204へ指令を出す。目標位置姿勢情報記憶部405の例として、各タイムステップごとのθ(t)の成分が記述されたテーブルを表1に示す。 In FIG. 10, v θ 0 (t k ) is stored in the target position / orientation information storage unit 405 as target position / orientation information at each time t k (k = 0, 1, 2,...) The target position and orientation information reading unit 404 reads v θ 0 (t) of the position and orientation information 401 at the current time t from the target position and orientation information storage unit 405. Position the position and orientation information calculated by the attitude information computing section 401 and v theta IN, and the target position and orientation information read v theta 0 (t), the error [Delta] [theta] = d from the target by the error calculation unit 403 from those ( v θ IN , v θ 0 (t)) are calculated. The haptic information conversion unit 402 performs conversion using Δt on a predetermined haptic information conversion function f (Δθ) to obtain haptic information x. Then, a command is issued from the processor 302 to the actuator 204 based on the tactile information x. As an example of the target position / orientation information storage unit 405, a table in which a component of v θ 0 (t) for each time step is described is shown in Table 1.

図11に操作対象物101の操作支援制御に係る全体のフローを示す。
操作支援の制御を開始すると、まず時刻tに初期値tをセットする(S1)。次に、目標位置姿勢情報読み出し部404は、時刻tでの操作対象物101の目標位置姿勢θ(t)を目標位置姿勢情報記憶部405より読み出す(S2)。次に、操作対象物101の姿勢を位置姿勢センサ202で検出し、位置姿勢センサ202から出力されたアナログ出力信号をA/D変換部301によってデジタル変換する(S3)。このようにA/D変換部301でデジタル化されたセンサ信号から、位置姿勢算出部401によって操作対象物101の位置姿勢θINを算出する(S4)。そして、位置姿勢算出部401で算出した位置姿勢をθIN、目標位置姿勢をθ(t)、目標からの誤差をΔθ=d(θINθ(t))とし、触覚情報変換部402でΔθに対して所定の触覚情報変換関数f(Δθ)を用いて変換をほどこして触覚情報xを算出する(S5)。このように算出した触覚情報xに対してD/A変換部303によりD/A変換を実行し、指令値としてアクチュエータドライバ304に送り、その指令値に応じて予め設定された動きをするようにアクチュエータ204を駆動させる(S6)。そして、操作支援を継続して行う場合には(S7でYES)、時刻を更新(S8)し、目標位置姿勢読み出し(S2)へ戻って再度一連の制御を実行する。時間更新tkのkの値を1増やす。一方、操作支援を継続して行わない場合には(S7でNO)、一連の制御を終えて操作支援を終了する。
FIG. 11 shows an overall flow relating to the operation support control of the operation object 101.
When starting the control operation support, first sets an initial value t 0 to time t (S1). Next, the target position and orientation information reading unit 404 reads the target position and orientation v θ 0 (t) of the operation target object 101 at the time t from the target position and orientation information storage unit 405 (S2). Next, the posture of the operation target 101 is detected by the position / orientation sensor 202, and the analog output signal output from the position / orientation sensor 202 is digitally converted by the A / D converter 301 (S3). The position / orientation calculation unit 401 calculates the position / orientation v θ IN of the operation target 101 from the sensor signal digitized by the A / D conversion unit 301 (S4). The position and orientation calculated by the position and orientation calculation unit 401 is v θ IN , the target position and orientation is v θ 0 (t), the error from the target is Δθ = d ( v θ IN , v θ 0 (t)), The tactile information conversion unit 402 converts the Δθ using a predetermined tactile information conversion function f (Δθ) to calculate the tactile information x (S5). The D / A conversion is executed by the D / A conversion unit 303 on the tactile information x calculated in this way, and it is sent to the actuator driver 304 as a command value, and moves in advance according to the command value. The actuator 204 is driven (S6). If the operation support is to be continued (YES in S7), the time is updated (S8), the process returns to the target position / posture reading (S2), and a series of control is executed again. Increase the value of k in the time update tk by one. On the other hand, when the operation support is not continuously performed (NO in S7), the series of control is finished and the operation support is ended.

触覚情報変換関数f(Δθ)の具体例を、図12(a)、図12(b)、図12(c)、図12(d)、図12(e)に示す。触覚情報変換関数f(Δθ)を用いた姿勢のズレΔθの変換は、Δθ=0近辺に特徴を持つような変換である。   Specific examples of the tactile information conversion function f (Δθ) are shown in FIGS. 12 (a), 12 (b), 12 (c), 12 (d), and 12 (e). The conversion of the posture deviation Δθ using the tactile information conversion function f (Δθ) is a conversion having a characteristic in the vicinity of Δθ = 0.

図12(a)、図12(b)、図12(c)のように触覚情報変換関数f(Δθ)のΔθ=0付近の幅を変えることで、操作対象物101が目標姿勢になったとして操作支援を終了するためのΔθの感度を調整することが可能となる。   As shown in FIGS. 12A, 12B, and 12C, by changing the width of the haptic information conversion function f (Δθ) in the vicinity of Δθ = 0, the operation target 101 becomes the target posture. As described above, it is possible to adjust the sensitivity of Δθ for ending the operation support.

図12(a)に示した触覚情報変換関数f(Δθ)を用いて変換を行うと、姿勢のズレΔθが0の場合だけではなく、操作対象物101の姿勢が目標姿勢から僅かにズレていても、操作対象物101が目標姿勢になったとして操作支援が終了される。   When conversion is performed using the tactile information conversion function f (Δθ) shown in FIG. 12A, the posture of the operation target 101 is slightly shifted from the target posture, not only when the posture deviation Δθ is zero. However, the operation support is ended on the assumption that the operation object 101 is in the target posture.

また、図12(b)に示した触覚情報変換関数f(Δθ)を用いて変換を行うと、姿勢のズレΔθが0の場合だけではなく、図12(a)に示した触覚情報変換関数f(θ)を用いた場合よりも許容範囲が大きくなった目標姿勢に対する操作対象物101のズレ量でも、操作対象物101が目標姿勢になったとして操作支援が終了される。   When conversion is performed using the haptic information conversion function f (Δθ) shown in FIG. 12B, the haptic information conversion function shown in FIG. Even if the deviation of the operation target 101 with respect to the target posture whose allowable range is larger than when f (θ) is used, the operation support is ended assuming that the operation target 101 is in the target posture.

一方、図12(c)に示した触覚情報変換関数f(Δθ)を用いて変換を行うと、姿勢のズレΔθが0の場合にだけ、操作対象物101が目標姿勢になったとして操作支援が終了される。   On the other hand, when conversion is performed using the tactile information conversion function f (Δθ) shown in FIG. 12C, the operation support 101 is assumed to have reached the target posture only when the posture deviation Δθ is zero. Is terminated.

つまり、図12(a)や図12(b)に示した触覚情報変換関数f(Δθ)では、操作対象物101が目標姿勢になったとして操作支援を終了するためのΔθの感度を弱めており、図12(c)に示した触覚情報変換関数f(Δθ)では前記感度を強めている。   That is, in the haptic information conversion function f (Δθ) shown in FIGS. 12A and 12B, the sensitivity of Δθ for ending the operation support is weakened if the operation object 101 assumes the target posture. In the tactile information conversion function f (Δθ) shown in FIG.

例えば、操作対象物101として、デジタルカメラ50による撮影で水平出しの操作を考えた場合、デジタルカメラ50の姿勢が水平となる状態を目標姿勢として設定すると、操作者107がデジタルカメラ50を手にもって撮影を行うときには、デジタルカメラ50の姿勢を厳密に水平状態とし且つその姿勢を継続して保持するのは非常に困難である。   For example, in the case where a leveling operation is considered as an operation object 101 by photographing with the digital camera 50, if the state in which the posture of the digital camera 50 is horizontal is set as a target posture, the operator 107 holds the digital camera 50 in his hand. Therefore, when taking a picture, it is very difficult to keep the posture of the digital camera 50 in a strictly horizontal state and keep the posture continuously.

そのため、前記感度が強い場合には、姿勢のズレΔθ=0の場合だけに操作支援を終了するようにすると、撮影を行う際にデジタルカメラ50の姿勢が僅かに水平からズレただけで、デジタルカメラ50から操作支援として操作者107が感じ取れる大きさの振動などの触覚情報が操作者107に提示される。そのため、操作支援として操作者107に提示された触覚情報により手ぶれなどを引き起こし撮影の妨げになる虞がある。特に、デジタルカメラ50を持った手を上にあげて前方の被写体を撮影しようとする場合などに生じ易いと考えられる。   For this reason, when the sensitivity is strong, if the operation support is terminated only when the posture deviation Δθ = 0, the digital camera 50 is slightly displaced from the horizontal position when taking a picture. Tactile information such as vibration of a magnitude that can be felt by the operator 107 as operation assistance from the camera 50 is presented to the operator 107. For this reason, there is a possibility that the tactile information presented to the operator 107 as operation support may cause hand shake and hinder shooting. In particular, it is likely to occur when a hand holding the digital camera 50 is raised and a front subject is photographed.

よって、前記感度を弱めて、デジタルカメラ50の姿勢が僅かに水平からズレたとしても、そのズレ量が実使用上で許容できる許容範囲内であれば、デジタルカメラ50の姿勢が略水平状態になっているとして、ほとんど感じ取れない程度の小さな触覚情報を操作者に提示する。これにより、デジタルカメラ50から操作者107に操作支援のために提示される触覚情報に起因して手ぶれなどが引き起こり、撮影の妨げになってしまうのを抑えつつ、デジタルカメラ50の姿勢を水平状態または略水平状態にして撮影を行うことができる。   Therefore, even if the sensitivity is weakened and the posture of the digital camera 50 is slightly deviated from the horizontal, if the amount of deviation is within an allowable range for practical use, the posture of the digital camera 50 is substantially horizontal. As a result, small tactile information that is hardly felt is presented to the operator. As a result, it is possible to prevent the camera from being shaken due to tactile information presented from the digital camera 50 to the operator 107 for operation support, and to prevent the shooting from being disturbed. The photographing can be performed in a state or a substantially horizontal state.

また、触覚情報変換関数f(Δθ)としては、図12(d)や図12(e)に示したような関数も考えられる。   Further, as the tactile information conversion function f (Δθ), the functions shown in FIG. 12D and FIG.

図12(a)、図12(b)、図12(c)に示した触覚情報変換関数を用いて変換を行う場合には、操作対象物101であるデジタルカメラ50のロール角が水平に対して図6中矢印A方向に傾いている場合と矢印B方向に傾いている場合とで、姿勢のズレΔθの絶対値が同じであれば同じ触覚情報xが提示される。   When the conversion is performed using the tactile information conversion function shown in FIGS. 12A, 12B, and 12C, the roll angle of the digital camera 50 that is the operation target 101 is horizontal. Thus, the same tactile information x is presented if the absolute value of the deviation Δθ of the posture is the same between the case where it is inclined in the direction of arrow A and the case where it is inclined in the direction of arrow B in FIG.

一方、図12(d)、図12(e)に示した触覚情報変換関数を用いて変換を行う場合には、デジタルカメラ50のロール角が水平に対して図6中矢印A方向に傾いている場合と矢印B方向に傾いている場合とで、姿勢のズレΔθの絶対値が同じであれば触覚情報xと触覚情報−xとがそれぞれ提示される。すなわち、デジタルカメラ50の姿勢が、水平に対して前記矢印A方向と前記矢印B方向とのどちらの方向に傾いているのかがわかるような触覚情報を、操作者に提示することになる。これにより、操作者107は、デジタルカメラ50をどの方向に動かせばデジタルカメラ50の姿勢を所望の姿勢に修正できるのかを、提示された触覚情報から直感的に把握することができる。よって、操作者107は提示された触覚情報を手がかりにして、より直感的にデジタルカメラ50を所望の姿勢に向けて動かして姿勢の修正を行うことができる。   On the other hand, when conversion is performed using the haptic information conversion function shown in FIGS. 12D and 12E, the roll angle of the digital camera 50 is tilted in the direction of arrow A in FIG. 6 with respect to the horizontal. If the absolute value of the positional deviation Δθ is the same between the case where the user is in the direction of arrow B and the case where the user is inclined in the direction of the arrow B, the haptic information x and the haptic information -x are respectively presented. That is, tactile information that indicates whether the posture of the digital camera 50 is inclined in the direction of the arrow A or the arrow B with respect to the horizontal is presented to the operator. As a result, the operator 107 can intuitively grasp in which direction the digital camera 50 is moved to correct the posture of the digital camera 50 to a desired posture from the presented tactile information. Therefore, the operator 107 can correct the posture by moving the digital camera 50 toward a desired posture more intuitively using the presented tactile information as a clue.

なお、図12(d)に示した触覚情報変換関数f(Δθ)は、操作対象物101が目標姿勢になったとして操作支援を終了するためのΔθの感度を強めた場合であり、図12(e)に示した触覚情報変換関数f(Δθ)は、前記感度を弱めた場合である。   Note that the tactile information conversion function f (Δθ) shown in FIG. 12D is a case where the sensitivity of Δθ for ending the operation support is strengthened assuming that the operation object 101 is in the target posture. The tactile information conversion function f (Δθ) shown in (e) is a case where the sensitivity is weakened.

さらに、触覚情報変換関数としては、Δθのみならずその時間微分(1階、2階)に依存した変換であっても良い。   Further, the tactile information conversion function may be a conversion depending on not only Δθ but also its time differentiation (first floor, second floor).

以上の触覚情報変換関数f(Δθ)を複数設定し、コントローラ203内の図示しない記憶手段であるメモリなどに予め記憶させておき、操作者107や操作シーンに応じて変換ルールを変更し、最適な触覚情報変換関数f(Δθ)を呼び出し設定できるようにしてもよい。これにより、操作者107や操作シーンに応じた最適な触覚情報を操作者107に提示して、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   A plurality of tactile information conversion functions f (Δθ) described above are set and stored in advance in a memory (not shown) in the controller 203, and the conversion rule is changed according to the operator 107 and the operation scene. A tactile information conversion function f (Δθ) may be called and set. As a result, optimal tactile information corresponding to the operator 107 and the operation scene is presented to the operator 107, and operation support is performed so that the operator 107 can intuitively move the operation target 101 toward a desired posture. be able to.

次に、動画撮影機能を有する携帯型ビデオカメラを手持ちで撮影操作する場合について説明する。図13は、表1のような時系列の目標位置姿勢θ(t)にあるビデオカメラを示したものである。位置情報を時系列に3次元空間にならべていくと、一つの経路500が形成される。時刻t=tでの目標位置姿勢θ(t)にあるビデオカメラは符号501で,時刻t=tでの目標位置姿勢θ(t)にあるビデオカメラは符号502であらわされる。このような時系列で定義された目標位置姿勢をあらかじめ設定しておく。そして前述したのと同様に、この目標からのズレを触覚情報として操作者に提示する機能をビデオカメラ上に備えることにより、目標位置姿勢に従った時系列のビデオカメラ操作が可能となる。例えば、ビデオカメラの録画(REC)ボタンなど、操作者の指先が触れる部分に触覚情報伝達手段を設ければ良い。 Next, a case where a portable video camera having a moving image shooting function is shot and held will be described. FIG. 13 shows a video camera in the time-series target position and orientation θ 0 (t) as shown in Table 1. When position information is arranged in a three-dimensional space in time series, one path 500 is formed. The video camera at the target position and orientation v θ 0 (t 0 ) at time t = t 0 is denoted by reference numeral 501, and the video camera at the target position and orientation v θ 0 (t N ) at time t = t N is denoted by reference numeral 502. It is expressed. A target position and orientation defined in such a time series is set in advance. In the same manner as described above, by providing the video camera with a function of presenting the deviation from the target as tactile information to the operator, it is possible to perform time-series video camera operation according to the target position and orientation. For example, a tactile information transmission unit may be provided at a part touched by the fingertip of the operator, such as a recording (REC) button of a video camera.

次に、コントローラ203内の触覚情報変換部402でΔθに対して所定の触覚情報変換関数f(Δθ)で変換をほどこし、得られた触覚情報xに基づいて操作者107の指先109に触覚情報を提示する触覚情報伝達手段104の例について説明する。   Next, the haptic information conversion unit 402 in the controller 203 converts Δθ with a predetermined haptic information conversion function f (Δθ), and the haptic information is applied to the fingertip 109 of the operator 107 based on the obtained haptic information x. An example of the tactile information transmission unit 104 that presents the message will be described.

図14(a)は、法線方向の力による触覚情報伝達を行う触覚情報伝達手段104の例を示す図である。図14(a)に示すように、触覚情報伝達手段104は操作者107の指先109に接する可動部11を持ち、その上下方向の変位をxとする。すなわち、触覚情報xは可動部11の上下方向の変位量である。これにより、可動部11の上下方向の変位による法線方向の力によって、触覚情報を可動部11に接した操作者107の指先109に提示することができ、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 14A is a diagram illustrating an example of the haptic information transmission unit 104 that transmits haptic information by a force in the normal direction. As shown in FIG. 14 (a), the tactile information transmission means 104 has the movable part 11 in contact with the fingertip 109 of the operator 107, and its vertical displacement is x. That is, the tactile information x is the amount of displacement of the movable part 11 in the vertical direction. As a result, the tactile information can be presented to the fingertip 109 of the operator 107 in contact with the movable portion 11 by the force in the normal direction due to the vertical displacement of the movable portion 11, and the operator 107 can intuitively operate the target. Operation support that allows the object 101 to move toward a desired posture can be performed.

図14(b)は、接線方向の力による触覚情報伝達を行う触覚情報伝達手段104の例を示す図である。図14(b)に示すように、触覚情報伝達手段104は操作者107の指先109に接する可動部である円盤12を持ち、その円盤12の軸周りの回転角度をxとする。すなわち、触覚情報xは円盤12の軸周りの回転角度である。図のように円盤12の上面を指先109との接触位置としても良いし、円盤12の周辺部を指先109との接触位置としても良い。これにより、円盤12の軸周りの回転による接線方向の力によって、触覚情報を円盤12に接した操作者107の指先109に提示することができ、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 14B is a diagram illustrating an example of the haptic information transmission unit 104 that transmits the haptic information by a tangential force. As shown in FIG. 14B, the tactile information transmission means 104 has a disk 12 that is a movable part in contact with the fingertip 109 of the operator 107, and the rotation angle around the axis of the disk 12 is x. That is, the tactile information x is a rotation angle around the axis of the disk 12. As shown in the figure, the upper surface of the disk 12 may be the contact position with the fingertip 109, and the peripheral portion of the disk 12 may be the contact position with the fingertip 109. Thus, the tactile information can be presented to the fingertip 109 of the operator 107 in contact with the disk 12 by the tangential force caused by the rotation of the disk 12 around the axis, and the operator 107 intuitively sets the operation object 101. It is possible to perform operation support so that the robot can be moved toward a desired posture.

図14(c)は、接線方向の力による触覚情報伝達を行う触覚情報伝達手段104の例を示す図である。図14(c)に示すように、触覚情報伝達手段104は操作者107の指先109に接する、面上に凸形状を有した可動部13を持ち、その可動部13の水平方向の変位をxとする。すなわち、触覚情報xは凸形状を有した可動部13の水平方向の変位量である。これにより、凸形状を有する可動部13の水平方向への変位による接線方向の力によって、触覚情報を可動部13に接した操作者107の指先109に提示することができ、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 14C is a diagram illustrating an example of the haptic information transmission unit 104 that transmits the haptic information by a tangential force. As shown in FIG. 14 (c), the tactile information transmission means 104 has a movable part 13 having a convex shape on the surface in contact with the fingertip 109 of the operator 107, and the horizontal displacement of the movable part 13 is expressed as x. And That is, the tactile information x is a horizontal displacement amount of the movable portion 13 having a convex shape. As a result, the tactile information can be presented to the fingertip 109 of the operator 107 in contact with the movable portion 13 by the tangential force due to the horizontal displacement of the movable portion 13 having a convex shape, and the operator 107 can intuitively Therefore, it is possible to perform operation support that allows the operation object 101 to be moved toward a desired posture.

図14(d)は、接線方向の力による触覚情報伝達を行う触覚情報伝達手段104の例を示す図である。図14(d)に示すように、触覚情報伝達手段104は操作者107の指先109に接する、面上に凹形状を有した可動部14を持ち、その可動部14の水平方向の変位をxとする。すなわち、触覚情報xは凹形状を有した可動部の水平方向の変位量である。これにより、凹形状を有する可動部14の水平方向への変位による接線方向の力によって、触覚情報を可動部14に接した操作者107の指先109に提示することができ、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 14D is a diagram illustrating an example of the haptic information transmission unit 104 that transmits haptic information using a tangential force. As shown in FIG. 14 (d), the tactile information transmission means 104 has a movable part 14 having a concave shape on the surface that is in contact with the fingertip 109 of the operator 107, and the horizontal displacement of the movable part 14 is expressed as x. And That is, the tactile information x is a horizontal displacement amount of the movable part having a concave shape. As a result, the tactile information can be presented to the fingertip 109 of the operator 107 in contact with the movable portion 14 by the tangential force due to the horizontal displacement of the movable portion 14 having a concave shape, and the operator 107 can intuitively Therefore, it is possible to perform operation support that allows the operation object 101 to be moved toward a desired posture.

図15は、振動刺激による触覚情報伝達を行う触覚情報伝達手段104の例を示す図である。図15に示すように、触覚情報伝達手段104は操作者107の指先109が接触する、弾性体からなる接触部15を持ち、その接触部15に振動子16が装着されており、その振動子16の駆動力の振幅をxとする。すなわち、触覚情報xは振動子16の駆動力の振幅である。これにより、振動子16によって接触部15を振動させることによる振動刺激によって、触覚情報を接触部15に接触した操作者107の指先109に対して提示することができ、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 15 is a diagram illustrating an example of the haptic information transmission unit 104 that transmits haptic information by vibration stimulation. As shown in FIG. 15, the tactile information transmission means 104 has a contact portion 15 made of an elastic body that contacts the fingertip 109 of the operator 107, and a vibrator 16 is attached to the contact portion 15. The amplitude of the driving force of 16 is assumed to be x. That is, the tactile information x is the amplitude of the driving force of the vibrator 16. Thereby, the tactile information can be presented to the fingertip 109 of the operator 107 who has contacted the contact portion 15 by vibration stimulation by vibrating the contact portion 15 by the vibrator 16, and the operator 107 can intuitively Operation support that allows the operation object 101 to be moved toward a desired posture can be performed.

図16は、電気刺激による触覚情報伝達を行う触覚情報伝達手段104の例を示す図である。図16に示すように、触覚情報伝達手段104は操作者107の指先109が接触する、絶縁体からなる接触部17を持ち、その接触部17に埋め込まれた電極18に供給する電圧または電流の振幅をxとする。すなわち、触覚情報xは電極18に供給する電圧または電流の振幅である。これにより、電極18に電圧または電流を供給することによって、電気刺激による触覚情報を接触部17に触れた操作者107の指先109に対して提示することができ、操作者107が直感的に操作対象物101を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 16 is a diagram illustrating an example of the haptic information transmission unit 104 that transmits haptic information by electrical stimulation. As shown in FIG. 16, the tactile information transmission means 104 has a contact portion 17 made of an insulator with which the fingertip 109 of the operator 107 contacts, and a voltage or current supplied to the electrode 18 embedded in the contact portion 17. Let the amplitude be x. That is, the tactile information x is the amplitude of the voltage or current supplied to the electrode 18. Thus, by supplying voltage or current to the electrode 18, tactile information by electrical stimulation can be presented to the fingertip 109 of the operator 107 who has touched the contact portion 17, and the operator 107 can operate intuitively. Operation support that allows the object 101 to move toward a desired posture can be performed.

このような図14、図15、図16に示した形態のいずれかの触覚情報伝達手段104のモジュールが、図2に示した各種携帯端末(携帯電話30、スマートフォン40、デジタルカメラ50、ラップトップ型パーソナルコンピュータ60、パッド型パーソナルコンピュータ70)の操作者107の指先109が接触し得る所定のスペース(図中斜線部など)に搭載される。   14, FIG. 15, and FIG. 16, the module of the haptic information transmission means 104 has the various mobile terminals (mobile phone 30, smart phone 40, digital camera 50, laptop shown in FIG. 2. Is installed in a predetermined space (such as a hatched portion in the figure) where the fingertip 109 of the operator 107 of the type personal computer 60 and the pad type personal computer 70 can come into contact.

これらとは別に、既存の搭載部品に触覚情報伝達手段104が組み込まれている例について説明する。   Apart from these, an example will be described in which the tactile information transmission means 104 is incorporated in an existing mounted component.

まず、図15の形態の触覚情報伝達手段104のモジュールの接触部15が、図17(a)に示したスマートフォン40のタッチパネル41の一部や、図17(b)に示したパッド型パーソナルコンピュータ70のタッチパネル71の一部である場合について説明する。   First, the contact portion 15 of the module of the tactile information transmission means 104 in the form of FIG. 15 is a part of the touch panel 41 of the smartphone 40 shown in FIG. 17A or the pad type personal computer shown in FIG. The case where it is a part of 70 touch panels 71 will be described.

図18にタッチパネル41,71の内部断面構造を示す。画像が表示される表示部80を覆うように設けられたタッチパネル41,71の横幅方向の一方の側端部には、タッチパネル41,71を横方向に変位させるアクチュエータ81に接続されている。このアクチュエータ81は筐体83に設けられている。また、タッチパネル41,71の横幅方向の他方の側端部は弾性体82を介して筐体84に設置されている。また、タッチパネル41,71の縦幅方向の両側端部は支持されておらず浮いた状態となっている。そして、アクチュエータ81によってタッチパネル41,71を横幅方向に振動させることによる振動刺激によって、触覚情報をタッチパネル41,71に接触した操作者107の指先109に対して提示することができ、操作者107が直感的にスマートフォン40やパッド型パーソナルコンピュータ70を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 18 shows an internal sectional structure of the touch panels 41 and 71. One side end in the horizontal width direction of the touch panels 41 and 71 provided so as to cover the display unit 80 on which an image is displayed is connected to an actuator 81 that displaces the touch panels 41 and 71 in the horizontal direction. The actuator 81 is provided on the housing 83. The other side end of the touch panels 41 and 71 in the horizontal width direction is installed in the housing 84 via an elastic body 82. Further, both end portions in the vertical width direction of the touch panels 41 and 71 are not supported and are in a floating state. The tactile information can be presented to the fingertip 109 of the operator 107 in contact with the touch panel 41, 71 by vibration stimulation by vibrating the touch panels 41, 71 in the lateral width direction by the actuator 81. Operation support that allows the smartphone 40 and the pad type personal computer 70 to be moved toward a desired posture intuitively can be performed.

次に、図14(b)の形態の触覚情報伝達手段104のモジュールの可動部が、図19に示したデジタルカメラ50のシャッターボタン(レリーズボタン)51である場合について説明する。   Next, the case where the movable part of the module of the tactile information transmission means 104 in the form of FIG. 14B is the shutter button (release button) 51 of the digital camera 50 shown in FIG. 19 will be described.

図20に筐体53から一部が外部に突出したシャッターボタン51の周辺のデジタルカメラ50の内部断面構造を示す。触覚情報伝達手段104は、操作者107の指先109に接し押圧されることで下方に変位可能であり回転軸51aを中心に回転可能な可動部であるシャッターボタン51と、回転軸51aを中心にシャッターボタン51を回転させるとともに指先109でシャッターボタン51が下方に押圧されることでシャッターをきるプッシュスイッチとして機能する回転アクチュエータ52を含むモジュールからなる。そして、回転アクチュエータ52により軸周りに回転させたシャッターボタン51からの接線方向の力によって、触覚情報をシャッターボタン51に接した操作者107の指先109に提示する。これにより、操作者107が直感的にデジタルカメラ50を所望の姿勢に向けて動かせるような操作支援を行うことができる。   FIG. 20 shows an internal cross-sectional structure of the digital camera 50 around the shutter button 51 partially protruding from the housing 53. The tactile information transmission means 104 can be displaced downward by being pressed against and touching the fingertip 109 of the operator 107, and a shutter button 51 that is a movable part that can rotate around the rotation shaft 51a, and a rotation shaft 51a. The module includes a rotation actuator 52 that functions as a push switch for releasing the shutter when the shutter button 51 is rotated and the shutter button 51 is pressed downward by the fingertip 109. The tactile information is presented to the fingertip 109 of the operator 107 in contact with the shutter button 51 by the tangential force from the shutter button 51 rotated around the axis by the rotary actuator 52. Accordingly, it is possible to perform operation support that allows the operator 107 to intuitively move the digital camera 50 toward a desired posture.

なお、図14(a)の形態の触覚情報伝達手段104のモジュールを、図19に示したデジタルカメラ50において、シャッターボタン51や、シャッターボタン51を上下方向に変位させるともに指先109でシャッターボタンが下方に押圧されることでシャッターをきるプッシュスイッチとして機能するアクチュエータを含むモジュールとして適用することもできる。これにより、アクチュエータによって上下方向に変位させたシャッターボタン51からの法線方向の力によって、触覚情報をシャッターボタン51に接した操作者107の指先109に提示することができる。これにより、操作者107が直感的にデジタルカメラ50を所望の姿勢に向けて動かせるような操作支援を行うことができる。   In the digital camera 50 shown in FIG. 19, the module of the tactile information transmission means 104 in the form of FIG. 14A is displaced in the vertical direction while the shutter button 51 is displaced at the fingertip 109. It can also be applied as a module including an actuator that functions as a push switch that releases a shutter when pressed downward. Accordingly, the tactile information can be presented to the fingertip 109 of the operator 107 in contact with the shutter button 51 by the normal force from the shutter button 51 displaced in the vertical direction by the actuator. Accordingly, it is possible to perform operation support that allows the operator 107 to intuitively move the digital camera 50 toward a desired posture.

携帯電話30、スマートフォン40、デジタルカメラ50、ラップトップ型パーソナルコンピュータ60、及び、パッド型パーソナルコンピュータ70などの各種携帯端末には、アプリケーションとしてカメラ機能を搭載でき、本実施形態で説明したような操作支援装置を採用することで、操作者107による機器の水平出し動作を支援する機能を持たせることができる。   Various mobile terminals such as the mobile phone 30, the smart phone 40, the digital camera 50, the laptop personal computer 60, and the pad type personal computer 70 can be equipped with a camera function as an application, and the operations described in this embodiment By employing the support device, it is possible to provide a function for supporting the leveling operation of the device by the operator 107.

また、各種携帯端末に搭載できるアプリケーションの例としては、地図情報に基づくナビゲーション機能があり、地磁気センサ、慣性センサあるいはGPSなどのセンサデータを用いて目的のルートを示す方向を提示するシーンが想定される。この場合、目的の方向からのズレを触覚情報として指先109に提示する機能を本実施形態で説明したような操作支援装置を採用することにより実現することも可能である。   In addition, examples of applications that can be installed in various portable terminals include a navigation function based on map information, and a scene that presents a direction indicating a target route using sensor data such as a geomagnetic sensor, an inertial sensor, or GPS is assumed. The In this case, the function of presenting the deviation from the target direction to the fingertip 109 as tactile information can be realized by employing the operation support apparatus described in the present embodiment.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
操作支援装置において、操作対象物の姿勢情報を検出する姿勢センサ202などの姿勢情報検出手段と、姿勢情報検出手段により検出された姿勢情報と予め設定された目標姿勢情報との差を触覚情報に変換するコントローラ203などの情報変換手段と、情報変換手段により変換された触覚情報を、操作対象物を操作する指先109などの操作体に伝達するアクチュエータ204などの触覚情報伝達手段とを備える。これよれば、上記実施形態について説明したように、操作者は操作対象物の姿勢について提示された触覚情報を手がかりとして、直感的に所望の姿勢に向けて操作対象物を動かし操作対象物の姿勢を修正することができる。
(態様B)
(態様A)において、姿勢情報検出手段が慣性センサである。これによれば、上記実施形態について説明したように、環境とは独立に操作対象物を非接地、非拘束で動きを検出することができる。
(態様C)
(態様B)において、慣性センサが加速度センサである。これによれば、上記実施形態について説明したように、重力加速度の各軸での成分から操作対象物の姿勢を算出することができる。
(態様D)
(態様B)において、慣性センサが角速度センサである。これによれば、上記実施形態について説明したように、基準姿勢と時間積分とにより操作対象物の姿勢を算出することができる。
(態様E)
(態様A)において、姿勢情報検出手段が磁気センサである。これによれば、上記実施形態について説明したように、各軸の磁界の強さから操作対象物の姿勢を算出することができる。
(態様F)
(態様A)において、姿勢情報検出手段が画像センサである。これによれば、得られた画像データを画像処理することにより操作対象物の姿勢を算出することができる。
(態様G)
(態様A)、(態様B)、(態様C)、(態様D)、(態様E)または(態様F)において、触覚情報伝達手段が操作体の表面に法線方向の力を及ぼす。これによれば、上記実施形態について説明したように、法線方向の力によって操作体に触覚情報を提示することができる。
(態様H)
(態様A)、(態様B)、(態様C)、(態様D)、(態様E)または(態様F)において、触覚情報伝達手段が操作体の表面に接線方向の力を及ぼす。これによれば、上記実施形態について説明したように、接線方向の力によって操作体に触覚情報を提示することができる。
(態様I)
(態様A)、(態様B)、(態様C)、(態様D)、(態様E)または(態様F)において、触覚情報伝達手段が操作体に振動刺激を与える。これによれば、上記実施形態について説明したように、振動刺激によって操作体に触覚情報を提示することができる。
(態様J)
(態様A)、(態様B)、(態様C)、(態様D)、(態様E)または(態様F)において、触覚情報伝達手段が操作体に電気刺激を及ぼす。これによれば、上記実施形態について説明したように、電気刺激によって操作体に触覚情報を提示することができる。
(態様K)
(態様A)、(態様B)、(態様C)、(態様D)、(態様E)、(態様F)、(態様G)、(態様H)、(態様I)または(態様J)において、情報変換手段が操作対象物を操作体で操作する操作者ごとに変換ルールを変更する。これによれば、上記実施形態について説明したように、操作者に応じた最適な触覚情報を操作者に提示して、操作者が直感的に操作対象物を所望の姿勢に向けて動かせるような操作支援を行うことができる。
(態様L)
(態様A)、(態様B)、(態様C)、(態様D)、(態様E)、(態様F)、(態様G)、(態様H)、(態様I)、(態様J)または(態様K)において、姿勢情報が操作対象物のロール角とピッチ角とヨー角とのいずれかを含む。これによれば、上記実施形態について説明したように、操作対象物の姿勢を把握することができる。
(態様M)
携帯電話30やスマートフォン40などの移動体情報通信端末において、(態様A)、(態様B)、(態様C)、(態様D)、(態様E)、(態様F)、(態様G)、(態様H)、(態様I)、(態様J)、(態様K)または(態様L)の操作支援装置を備えた。これによれば、上記実施形態について説明したように、操作者は移動体情報通信端末の姿勢について触覚情報の提示を手がかりにして、直感的に所望の姿勢に向けて通信移動端末を動かすことができる。
(態様N)
デジタルカメラ50などの撮影装置において、(態様A)、(態様B)、(態様C)、(態様D)、(態様E)、(態様F)、(態様G)、(態様H)、(態様I)、(態様J)、(態様K)または(態様L)の操作支援装置を備えた。これによれば、上記実施形態について説明したように、操作者は撮影装置の姿勢について触覚情報の提示を手がかりにして、直感的に所望の姿勢に向けて撮影装置を動かすことができる。
(態様O)
ラップトップ型パーソナルコンピュータ60やパッド型パーソナルコンピュータ70などの情報処理装置において、(態様A)、(態様B)、(態様C)、(態様D)、(態様E)、(態様F)、(態様G)、(態様H)、(態様I)、(態様J)、(態様K)または(態様L)の操作支援装置を備えた。これによれば、上記実施形態について説明したように、操作者は情報処理装置の姿勢について触覚情報の提示を手がかりにして、直感的に所望の姿勢に向けて情報処理装置を動かすことができる。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
In the operation support apparatus, the difference between the posture information detection unit such as the posture sensor 202 that detects the posture information of the operation target and the posture information detected by the posture information detection unit and the preset target posture information is used as the tactile information. Information conversion means such as a controller 203 for conversion, and tactile information transmission means such as an actuator 204 for transmitting haptic information converted by the information conversion means to an operating body such as a fingertip 109 for operating the operation target. According to this, as described in the above embodiment, the operator can intuitively move the operation object toward the desired position by using the tactile information presented about the position of the operation object as a clue. Can be corrected.
(Aspect B)
In (Aspect A), the posture information detection means is an inertial sensor. According to this, as described in the above-described embodiment, it is possible to detect the movement of the operation object without being grounded and restrained independently of the environment.
(Aspect C)
In (Aspect B), the inertial sensor is an acceleration sensor. According to this, as described in the above embodiment, the posture of the operation target can be calculated from the components at each axis of gravity acceleration.
(Aspect D)
In (Aspect B), the inertial sensor is an angular velocity sensor. According to this, as described in the above embodiment, the posture of the operation target can be calculated by the reference posture and the time integration.
(Aspect E)
In (Aspect A), the posture information detection means is a magnetic sensor. According to this, as described in the above embodiment, the attitude of the operation target can be calculated from the strength of the magnetic field of each axis.
(Aspect F)
In (Aspect A), the posture information detection means is an image sensor. According to this, the attitude of the operation target can be calculated by performing image processing on the obtained image data.
(Aspect G)
In (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E) or (Aspect F), the tactile information transmission means exerts a normal force on the surface of the operating body. According to this, as described in the above embodiment, tactile information can be presented to the operating body by the force in the normal direction.
(Aspect H)
In (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E) or (Aspect F), the tactile information transmission means exerts a tangential force on the surface of the operating body. According to this, as described in the above embodiment, tactile information can be presented to the operating body by a tangential force.
(Aspect I)
In (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E), or (Aspect F), the tactile information transmission means applies vibration stimulation to the operating body. According to this, as described in the above embodiment, tactile information can be presented to the operating body by vibration stimulation.
(Aspect J)
In (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E) or (Aspect F), the tactile information transmission means applies electrical stimulation to the operating body. According to this, as described in the above embodiment, tactile information can be presented to the operating body by electrical stimulation.
(Aspect K)
In (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E), (Aspect F), (Aspect G), (Aspect H), (Aspect I) or (Aspect J) The information conversion means changes the conversion rule for each operator who operates the operation target with the operating tool. According to this, as described in the above embodiment, the optimal tactile information corresponding to the operator is presented to the operator so that the operator can intuitively move the operation target toward a desired posture. Operation support can be performed.
(Aspect L)
(Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E), (Aspect F), (Aspect G), (Aspect H), (Aspect I), (Aspect J) or In (Aspect K), the posture information includes any of the roll angle, pitch angle, and yaw angle of the operation target. According to this, as described in the above embodiment, the posture of the operation target can be grasped.
(Aspect M)
In mobile information communication terminals such as the mobile phone 30 and the smartphone 40, (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E), (Aspect F), (Aspect G), The operation support device according to (Aspect H), (Aspect I), (Aspect J), (Aspect K), or (Aspect L) is provided. According to this, as described in the above embodiment, the operator can intuitively move the communication mobile terminal toward a desired posture using the presentation of tactile information about the posture of the mobile information communication terminal. it can.
(Aspect N)
In an imaging device such as the digital camera 50, (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E), (Aspect F), (Aspect G), (Aspect H), (Aspect A) The operation support apparatus according to Aspect I), (Aspect J), (Aspect K) or (Aspect L) is provided. According to this, as described in the above embodiment, the operator can intuitively move the photographing apparatus toward a desired posture by using the presentation of tactile information about the posture of the photographing apparatus as a clue.
(Aspect O)
In an information processing apparatus such as a laptop personal computer 60 or a pad type personal computer 70, (Aspect A), (Aspect B), (Aspect C), (Aspect D), (Aspect E), (Aspect F), (Aspect A) The operation support apparatus according to Aspect G), (Aspect H), (Aspect I), (Aspect J), (Aspect K) or (Aspect L) is provided. According to this, as described in the above embodiment, the operator can intuitively move the information processing apparatus toward the desired posture by using the presentation of tactile information about the posture of the information processing apparatus as a clue.

11 可動部
12 円盤
13 可動部
14 可動部
15 接触部
16 振動子
17 接触部
18 電極
30 携帯電話
40 スマートフォン
41 タッチパネル
50 デジタルカメラ
50 デジタルカメラ
51 シャッターボタン
51a 回転軸
52 回転アクチュエータ
53 筐体
60 ラップトップ型パーソナルコンピュータ
70 パッド型パーソナルコンピュータ
71 タッチパネル
80 表示部
81 アクチュエータ
82 弾性体
83 筐体
84 筐体
100 目標姿勢情報
101 操作対象物
102 姿勢情報検出手段
103 情報変換手段
104 触覚情報伝達手段
105 操作出力
106 触覚情報
107 操作者
108 上肢
109 指先
202 姿勢センサ
203 コントローラ
204 アクチュエータ
301 A/D変換部
302 プロセッサ
303 D/A変換部
304 アクチュエータドライバ
401 姿勢算出部
402 触覚情報変換部
DESCRIPTION OF SYMBOLS 11 Movable part 12 Disk 13 Movable part 14 Movable part 15 Contact part 16 Vibrator 17 Contact part 18 Electrode 30 Cellular phone 40 Smart phone 41 Touch panel 50 Digital camera 50 Digital camera 51 Shutter button 51a Rotation shaft 52 Rotation actuator 53 Case 60 Laptop Type personal computer 70 pad type personal computer 71 touch panel 80 display unit 81 actuator 82 elastic body 83 case 84 case 100 target posture information 101 operation object 102 posture information detection means 103 information conversion means 104 tactile information transmission means 105 operation output 106 Haptic Information 107 Operator 108 Upper Limb 109 Fingertip 202 Posture Sensor 203 Controller 204 Actuator 301 A / D Converter 302 Processor 30 D / A conversion unit 304 actuator driver 401 and orientation calculation unit 402 haptic information converting unit

特開2010−239553号公報JP 2010-239553 A

Claims (15)

操作対象物の姿勢情報を検出する姿勢情報検出手段と、
前記姿勢情報検出手段により検出された前記姿勢情報と予め設定された目標姿勢情報との差を触覚情報に変換する情報変換手段と、
前記情報変換手段により変換された前記触覚情報を、前記操作対象物を操作する操作体に伝達する触覚情報伝達手段とを備えることを特徴とする操作支援装置。
Posture information detecting means for detecting posture information of the operation target;
Information conversion means for converting a difference between the posture information detected by the posture information detection means and preset target posture information into tactile information;
An operation support apparatus comprising: tactile information transmission means for transmitting the tactile information converted by the information conversion means to an operating body that operates the operation target.
請求項1の操作支援装置において、
上記姿勢情報検出手段が慣性センサであることを特徴とする操作支援装置。
The operation support apparatus according to claim 1,
An operation support apparatus, wherein the posture information detecting means is an inertial sensor.
請求項2の操作支援装置において、
上記慣性センサが加速度センサであることを特徴とする操作支援装置。
The operation support apparatus according to claim 2,
An operation support apparatus, wherein the inertial sensor is an acceleration sensor.
請求項2の操作支援装置において、
上記慣性センサが角速度センサであることを特徴とする操作支援装置。
The operation support apparatus according to claim 2,
An operation support apparatus, wherein the inertial sensor is an angular velocity sensor.
請求項1の操作支援装置において、
上記姿勢情報検出手段が磁気センサであることを特徴とする操作支援装置。
The operation support apparatus according to claim 1,
An operation support apparatus, wherein the posture information detecting means is a magnetic sensor.
請求項1の操作支援装置において、
上記姿勢情報検出手段が画像センサであることを特徴とする操作支援装置。
The operation support apparatus according to claim 1,
An operation support apparatus, wherein the posture information detection means is an image sensor.
請求項1、2、3、4、5または6の操作支援装置において、
上記触覚情報伝達手段が上記操作体の表面に法線方向の力を及ぼすことを特徴とする操作支援装置。
The operation support device according to claim 1, 2, 3, 4, 5 or 6,
The operation support apparatus, wherein the tactile information transmission means exerts a normal force on the surface of the operation body.
請求項1、2、3、4、5または6の操作支援装置において、
上記触覚情報伝達手段が上記操作体の表面に接線方向の力を及ぼすことを特徴とする操作支援装置。
The operation support device according to claim 1, 2, 3, 4, 5 or 6,
An operation support apparatus, wherein the tactile information transmission means exerts a tangential force on the surface of the operation body.
請求項1、2、3、4、5または6の操作支援装置において、
上記触覚情報伝達手段が上記操作体に振動刺激を与えることを特徴とする操作支援装置。
The operation support device according to claim 1, 2, 3, 4, 5 or 6,
An operation support apparatus, wherein the tactile information transmission means applies a vibration stimulus to the operating body.
請求項1、2、3、4、5または6の操作支援装置において、
上記触覚情報伝達手段が上記操作体に電気刺激を及ぼすことを特徴とする操作支援装置。
The operation support device according to claim 1, 2, 3, 4, 5 or 6,
The operation support device, wherein the tactile information transmission means applies electrical stimulation to the operating body.
請求項1、2、3、4、5、6、7、8、9または10の操作支援装置において、
上記情報変換手段が上記操作対象物を上記操作体で操作する操作者ごとに変換ルールを変更することを特徴とする操作支援装置。
The operation support device according to claim 1, 2, 3, 4, 5, 6, 7, 8, 9 or 10,
The operation support apparatus, wherein the information conversion means changes a conversion rule for each operator who operates the operation object with the operation body.
請求項1、2、3、4、5、6、7、8、9、10または11の操作支援装置において、
上記姿勢情報が上記操作対象物のロール角とピッチ角とヨー角とのいずれかを含むことを特徴とする操作支援装置。
In the operation support device according to claim 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 or 11,
The operation support apparatus, wherein the posture information includes any of a roll angle, a pitch angle, and a yaw angle of the operation target.
通信ネットワークを介して通信可能な移動体情報通信端末において、
請求項1、2、3、4、5、6、7、8、9、10、11または12の操作支援装置を備えたことを特徴とする移動体情報通信端末。
In a mobile information communication terminal capable of communicating via a communication network,
A mobile information communication terminal comprising the operation support apparatus according to claim 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, or 12.
被写体を撮影する撮影手段を備えた撮影装置において、
請求項1、2、3、4、5、6、7、8、9、10、11または12の操作支援装置を備えたことを特徴とする撮影装置。
In a photographing apparatus provided with photographing means for photographing a subject,
An imaging apparatus comprising the operation support apparatus according to claim 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, or 12.
持ち運び可能な携帯型の情報処理装置において、
請求項1、2、3、4、5、6、7、8、9、10、11または12の操作支援装置を備えたことを特徴とする情報処理装置。
In portable information processing devices that can be carried,
An information processing apparatus comprising the operation support apparatus according to claim 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, or 12.
JP2011240693A 2011-06-22 2011-11-01 Operation support device, mobile body information communication terminal, imaging device, and information processor Pending JP2013030143A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011240693A JP2013030143A (en) 2011-06-22 2011-11-01 Operation support device, mobile body information communication terminal, imaging device, and information processor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011138706 2011-06-22
JP2011138706 2011-06-22
JP2011240693A JP2013030143A (en) 2011-06-22 2011-11-01 Operation support device, mobile body information communication terminal, imaging device, and information processor

Publications (1)

Publication Number Publication Date
JP2013030143A true JP2013030143A (en) 2013-02-07

Family

ID=47787087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011240693A Pending JP2013030143A (en) 2011-06-22 2011-11-01 Operation support device, mobile body information communication terminal, imaging device, and information processor

Country Status (1)

Country Link
JP (1) JP2013030143A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116510176A (en) * 2023-04-17 2023-08-01 维看科技(天津)有限公司 Information processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116510176A (en) * 2023-04-17 2023-08-01 维看科技(天津)有限公司 Information processing apparatus
CN116510176B (en) * 2023-04-17 2024-02-06 维看科技(天津)有限公司 Information processing apparatus

Similar Documents

Publication Publication Date Title
KR20140140023A (en) Sensor fusion algorithm
US9141202B2 (en) Information processing apparatus, input apparatus, information processing system, information processing method, and program
JP6357023B2 (en) Information processing program, information processing apparatus, information processing apparatus control method, and information processing system
KR20100038279A (en) Input device, controller, control system, control method, and hand-held device
JP5561092B2 (en) INPUT DEVICE, INPUT CONTROL SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2005292893A (en) Portable information terminal device
JPWO2009072583A1 (en) Input device, control device, control system, control method, and handheld device
JP7386152B2 (en) Input system and input method
US20210409531A1 (en) Mobile terminal
US10596459B2 (en) Systems, methods, and/or computer readable storage medium having program, for localized haptic feedback based on position of virtual object
EP3260964B1 (en) Mobile terminal and method for controlling the same
JP2019046458A (en) Spatial position instruction system
US9924088B2 (en) Camera module
JPWO2009072471A1 (en) Input device, control device, control system, control method, and handheld device
US20230205416A1 (en) Spatial position indication system
CN204945943U (en) For providing the remote control equipment of remote control signal for external display device
US20090096411A1 (en) Charging Stand
JP2013030143A (en) Operation support device, mobile body information communication terminal, imaging device, and information processor
US11703856B2 (en) Moving body, steering system, control method, and program
JP6270557B2 (en) Information input / output device and information input / output method
JP2006003155A (en) Information processor and acceleration detecting apparatus
CN112717409B (en) Virtual vehicle control method, device, computer equipment and storage medium
CN114764241A (en) Motion state control method, device and equipment and readable storage medium
CN115480594A (en) Jump control method, apparatus, device, and medium
US20170300039A1 (en) Electronic device and program