JP6196790B2 - Information device and control method of information device - Google Patents
Information device and control method of information device Download PDFInfo
- Publication number
- JP6196790B2 JP6196790B2 JP2013053888A JP2013053888A JP6196790B2 JP 6196790 B2 JP6196790 B2 JP 6196790B2 JP 2013053888 A JP2013053888 A JP 2013053888A JP 2013053888 A JP2013053888 A JP 2013053888A JP 6196790 B2 JP6196790 B2 JP 6196790B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- touch
- operator
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000001514 detection method Methods 0.000 claims description 41
- 230000001953 sensory effect Effects 0.000 claims description 25
- 238000005452 bending Methods 0.000 claims description 9
- 230000000638 stimulation Effects 0.000 claims description 5
- 229920000747 poly(lactic acid) Polymers 0.000 description 51
- 239000004626 polylactic acid Substances 0.000 description 51
- 238000003384 imaging method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 239000007779 soft material Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000010030 laminating Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 3
- 239000003990 capacitor Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 239000004642 Polyimide Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 229920001721 polyimide Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- UQDJGEHQDNVPGU-UHFFFAOYSA-N serine phosphoethanolamine Chemical compound [NH3+]CCOP([O-])(=O)OCC([NH3+])C([O-])=O UQDJGEHQDNVPGU-UHFFFAOYSA-N 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 239000004945 silicone rubber Substances 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、操作者がタッチして操作するタッチ操作装置を有する情報機器及びそのような情報機器の制御方法に関する。 The present invention relates to an information device having a touch operation device that an operator touches to operate, and a control method for such an information device .
タッチパネル等のタッチ操作装置は、ボタン等の機械的な操作部材とは異なり、タッチセンサの検出結果に従って操作入力が行われる。ここで、従来のタッチ操作装置は、表面がガラス等の硬質な平面で構成されている。このため、操作者がタッチ操作装置の表面のどの位置に指をタッチさせても指に与えられる感覚は同じものとなる。したがって、従来のタッチ操作装置の場合、タッチ操作装置を正しく操作できたかを操作者が直感的に認識することは困難である。操作者が目視しなくともタッチ位置を認識できるようにするための提案として、特許文献1は、タッチ操作装置におけるタッチ位置にある画像の内容を点字表示によって操作者に伝達する携帯端末装置を提案している。 Unlike a mechanical operation member such as a button, a touch operation device such as a touch panel performs operation input according to the detection result of the touch sensor. Here, the conventional touch operation device is configured by a hard flat surface such as glass. For this reason, even if the operator touches the finger with any position on the surface of the touch operation device, the feeling given to the finger is the same. Therefore, in the case of the conventional touch operation device, it is difficult for the operator to intuitively recognize whether the touch operation device has been correctly operated. As a proposal for enabling the operator to recognize the touch position without visual observation, Patent Document 1 proposes a portable terminal device that transmits the content of the image at the touch position in the touch operation device to the operator by braille display. doing.
タッチ位置にある画像の内容を点字表示によって操作者に伝達する場合、操作者に点字の知識がなければ、操作者はタッチ位置にある画像の内容を認識できないことになる。 When the content of the image at the touch position is transmitted to the operator by Braille display, the operator cannot recognize the content of the image at the touch position unless the operator has knowledge of Braille.
本発明は、前記の事情に鑑みてなされたもので、操作者に特別な知識がなくとも目視せずに操作可能なタッチ操作装置を有する情報機器及びそのような情報機器の制御方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an information device having a touch operation device that can be operated without visual observation even if the operator has no special knowledge, and a control method for such an information device. For the purpose.
前記の目的を達成するために、本発明の一態様の情報機器は、画像の位置と対応付けられた複数の検出点を有し、該検出点に対する操作者のタッチ操作を検出するタッチセンサと、撮影の対象となる対象物の名称を指定する対象物指定部と、前記対象物指定部で指定された名称の前記対象物を前記画像の特徴から探索する画像判定部と、撮影時において操作者の指が触れ得る箇所であって前記タッチセンサと異なる箇所に設けられており、前記操作者に対して感覚刺激を与える感覚刺激提供部と、前記画像判定部によって探索された前記画像における前記対象物の位置と前記タッチセンサで検出されたタッチ位置との位置関係に応じて前記感覚刺激提供部によって前記感覚刺激を与える制御部とを具備することを特徴とする。
前記の目的を達成するために、本発明の一態様の情報機器の制御方法は、画像の位置と対応付けられた複数の検出点を有し、該検出点に対する操作者のタッチ操作を検出するタッチセンサと、前記操作者に対して感覚刺激を与える感覚刺激提供部とを具備する情報機器の制御方法であって、撮影の対象となる対象物の名称を指定することと、前記指定された名称の前記対象物を画像の特徴から探索することと、前記探索された前記画像における前記対象物の位置とタッチセンサで検出されたタッチ位置との位置関係に応じて、撮影時において操作者の指が触れ得る箇所であって前記タッチセンサと異なる箇所に設けられている前記感覚刺激提供部によって操作者に対して感覚刺激を与えることとを具備することを特徴とする。
In order to achieve the above object, an information device according to one embodiment of the present invention includes a plurality of detection points associated with image positions, and a touch sensor that detects an operator's touch operation on the detection points. , Ta and the object specifying unit that specifies the name of a target on the shadow, the image determining unit to search the object has been name specified by the object specifying unit from the characteristics of the image, at the time of shooting The sensor can be touched by the operator's finger and is provided at a location different from the touch sensor. In the image searched for by the image determination unit, the sensory stimulus providing unit that gives sensory stimulus to the operator And a control unit that applies the sensory stimulus by the sensory stimulus providing unit according to a positional relationship between the position of the object and the touch position detected by the touch sensor.
In order to achieve the above object, an information device control method according to an aspect of the present invention includes a plurality of detection points associated with image positions, and detects an operator's touch operation on the detection points. a touch sensor, a control method for an information device including a sensory stimulation providing unit providing a sensory stimulus to the operator, and specifying the name of the object to be Taking target shadow, said specified An operator at the time of shooting in accordance with the positional relationship between the position of the target in the searched image and the touch position detected by the touch sensor. Providing a sensory stimulus to the operator by the sensory stimulus providing unit provided at a location where the finger can be touched and different from the touch sensor .
本発明によれば、操作者に特別な知識がなくとも目視せずに操作可能なタッチ操作装置を有する情報機器及びそのような情報機器の制御方法を提供することができる。 According to the present invention, it is possible to provide an information device having a touch operation device that can be operated without visual observation even if the operator has no special knowledge, and a control method for such an information device .
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るタッチ操作装置を搭載した情報機器の一例としてのデジタルカメラ(以下、単にカメラと言う)の外観図である。ここで、図1(a)はカメラの前面(被写体側)から見た外観図であり、図1(b)はカメラの背面から見た外観図である。ここでは、情報機器の例としてデジタルカメラを示したが、携帯電話機や携帯端末等であっても本実施形態の技術が適用され得る。また、視覚のみに頼らず、五感を有効利用した確認方法なので、応用範囲は広く、産業用、医療用の観察機器にも利用可能である。また、視覚に制約を強いないので、車載用の機器や監視カメラ等に応用できることは言うまでもない。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an external view of a digital camera (hereinafter simply referred to as a camera) as an example of information equipment equipped with a touch operation device according to an embodiment of the present invention. Here, FIG. 1A is an external view seen from the front side (subject side) of the camera, and FIG. 1B is an external view seen from the back side of the camera. Here, a digital camera is shown as an example of information equipment, but the technology of the present embodiment can be applied even to a mobile phone, a mobile terminal, or the like. In addition, since it is a confirmation method that makes effective use of the five senses without relying only on vision, it has a wide range of applications and can be used for industrial and medical observation devices. Needless to say, since it does not impose visual restrictions, it can be applied to in-vehicle devices and surveillance cameras.
カメラの場合、操作者は、シャッタチャンスを逃さないように被写体を注視することが多い。この場合、操作者の意識が被写体に向けられ、操作者は、目で確認することなくカメラ操作を実行する。本実施形態では、操作者が目で確認しなくとも正しいカメラ操作を行えるようにする。例えば、小さな画面に操作者の注意が向いていると画面外で起こっている状況変化を見逃したりして危険に繋がる場合がある。そこまで重大な状況ではなくとも、インタビューの撮影等で、会話をしている相手等は、撮影時に表情が改まってしまうようなことがあった。 In the case of a camera, the operator often watches the subject so as not to miss a photo opportunity. In this case, the operator's consciousness is directed toward the subject, and the operator executes the camera operation without checking with the eyes. In this embodiment, it is possible to perform correct camera operation without an operator confirming with eyes. For example, if the operator's attention is directed to a small screen, there may be a risk that a situation change occurring outside the screen may be overlooked. Even if the situation was not so serious, the other party who had conversation during the shooting of the interview sometimes changed their facial expressions during the shooting.
図1(a)に示すように、カメラ1の本体前面には、撮影レンズ102が設けられている。撮影レンズ102は、筒状の鏡枠と、鏡枠内に収納された光学系とを有している。鏡枠の周囲には、タッチ操作装置が形成されている。操作者は、このタッチ操作装置をフォーカスリングやズームリングの代わりとして用いてマニュアルフォーカスやマニュアルズームを実行することが可能である。また、カメラ1の本体上面には、レリーズボタン1141が設けられている。レリーズボタン1141は、操作者がカメラ1に対して撮影の実行を指示するための操作部材である。ここで、レリーズボタン1141は、圧電素子を有し、必要に応じて操作者の指に触覚刺激を与えるように構成されている。
As shown in FIG. 1A, a photographing
また、図1(b)に示すように、カメラ1の本体背面には、表示部106が設けられている。そして、表示部106の上には、タッチ操作装置が形成されている。操作者は、タッチ操作装置を用いて各種の操作を行うことが可能である。
Further, as shown in FIG. 1B, a
また、図1(b)に示すように、カメラ1の本体背面の上部には、ファインダ表示部110と、アイセンサ112とが設けられている。カメラ1は、表示部106と同様の表示をファインダ表示部110にも行うことができる。表示部106で表示を行うか又はファインダ表示部110で表示を行うかは、アイセンサ112の検出結果に応じて切り替える。詳しくは後で説明する。
As shown in FIG. 1B, a
さらに、カメラ1の本体背面下部には、マイクロホン(マイク)1161が設けられている。 Further, a microphone (microphone) 1161 is provided at the lower back of the main body of the camera 1.
図2は、カメラ1の詳細な構成を示すブロック図である。図2に示すように、カメラ1は、撮影レンズ102と、レンズ駆動部103と、タッチ操作装置104と、表示部106と、タッチ操作装置108と、ファインダ表示部110と、アイセンサ112と、操作部114と、音声入力部116と、撮像部118と、記録部120と、時計部122と、制御部124とを有している。
FIG. 2 is a block diagram showing a detailed configuration of the camera 1. As shown in FIG. 2, the camera 1 includes a photographing
前述したように、撮影レンズ102は、鏡枠内に光学系が収納されて構成されている。撮影レンズ102の光学系は、単一又は複数のレンズと絞りとを有し、図示しない被写体の光像を、撮像部118の撮像素子1181の撮像面に集光する。光学系は、レンズ駆動部103によってその光軸方向に駆動される。レンズ駆動部103は、モータとその駆動回路とを有し、制御部124からの制御信号に従って光学系を駆動する。これにより、光学系のフォーカス駆動やズーム駆動が行われる。
As described above, the photographing
タッチ操作装置104は、タッチセンサ1041と、圧電素子1042と、印加部1043とを有している。
The
タッチセンサ1041は、撮影レンズ102の鏡枠の周方向に沿って配置された複数の検出点を有している。各検出点は、操作者の指のタッチに応じて検出信号を制御部124に出力する。ここで、タッチセンサ1041は、感圧式タッチセンサや静電容量式タッチセンサ等、種々の検出方式のタッチセンサを用いることができる。感圧式タッチセンサは、検出点に指がタッチした際に検出点において生じる圧力の変化を検出することにより、指のタッチを検出するタッチセンサである。一方、静電容量式タッチセンサは、検出点に指が近接した際に指と検出点との間に生じる静電容量の変化を検出することにより、指のタッチを検出するタッチセンサである。このようなタッチセンサ1041により、操作者は、マニュアルフォーカス操作やズーム操作を行うことが可能である。ここで、ズームリングやフォーカスリングを鏡枠に設けた場合、タッチセンサ1041を省略しても良い。
The
圧電素子1042は、タッチセンサ1041に対応するように配置され、電圧の印加によって屈曲変位するように構成されている。ここで、本実施形態における圧電素子1042は、タッチセンサ1041の検出点に対応する部分毎に電圧を印加できるように構成されており、これによってタッチセンサ1041の検出点に対応する部分毎に屈曲する。圧電素子1042の構成及び動作については後で詳しく説明する。
The
印加部1043は、圧電素子1042の部分毎に独立に電圧を印加するように構成されている。ここで、印加部1043は、圧電素子1042のグランド電位に対して正負の電圧を印加する。印加部1043の構成及び動作については後で詳しく説明する。
The applying
表示部106は、例えば液晶ディスプレイや有機ELディスプレイであって、表示制御部としての制御部124から入力された画像データに基づいて画像を表示する。
The
タッチ操作装置108は、タッチセンサ1081と、圧電素子1082と、印加部1083とを有している。
The
タッチセンサ1081は、表示部106の上に2次元状に配置された複数の検出点を有している。各検出点は、操作者の指のタッチに応じて検出信号を制御部124に出力する。ここで、タッチセンサ1081も、タッチセンサ1041と同様、種々の検出方式のタッチセンサを用いることができる。このようなタッチセンサ1081により、操作者は、シャッタスピードの設定、絞りの設定、露出補正の設定等の各種の設定操作が可能である。また、タッチセンサ1081は、対象物指定部の一例としても機能する。操作者は、タッチセンサ1081によって対象物の指定を行うことが可能である。対象物とは、例えば撮影や再生の対象となり得る、操作者が関心を持っている被写体のことである。または、対象物は、操作者が関心をもつべき対象であっても良い。このような応用によって、操作者の意識にはないが、操作者が撮影したくなるような対象物を見つけることが可能である。ここで、対象物の候補リストを、データベース化して保持しても良い。このようなデータベースは、カメラ1の外部からダウンロードしても良い。さらには、対象物の候補を、操作者の行動分析で推定できるようにしても良い。
The
感覚刺激提供部の一例として機能する圧電素子1082は、タッチセンサ1081に対応するように配置され、電圧の印加によって屈曲変位するように構成されている。ここで、本実施形態における圧電素子1082は、タッチセンサ1081の検出点に対応する部分毎に電圧を印加できるように構成されており、これによってタッチセンサ1081の検出点に対応する部分毎に屈曲する。圧電素子1082の構成及び動作については後で詳しく説明する。
The
印加部1083は、圧電素子1082の部分毎に独立に電圧を印加するように構成されている。ここで、印加部1083は、圧電素子1082のグランド電位に対して正負の電圧を印加する。印加部1083の構成及び動作については後で詳しく説明する。
The
ファインダ表示部110は、カメラ1の本体背面上部のファインダ内に設けられた表示部である。ファインダ表示部110は、例えば液晶ディスプレイや有機ELディスプレイであって、表示制御部としての制御部124から入力された画像データに基づいて画像を表示する。
The
アイセンサ112は、ファインダの近傍に設けられ、操作者によるファインダの覗き込みを検出する。アイセンサ112は、例えば赤外光発光部と赤外光受光部とを有する。操作者がファインダを覗き込んでいる場合、赤外発光部で発光された赤外光は、操作者の顔で反射されて赤外受光部で受光される。これにより、赤外受光部における出力信号が変化する。一方、操作者がファインダを覗き込んでいない場合、赤外発光部で発光された赤外光が反射されないので赤外受光部の出力は変化しない。したがって、赤外受光部の出力信号から、操作者がファインダを覗き込んでいるか否かを識別することが可能である。
The
操作部114は、タッチ操作装置104及びタッチ操作装置108以外のカメラ1の本体に設けられた機械的な操作部材である。操作部114は、例えばレリーズボタン1141を含む。レリーズボタン1141は、前述したように圧電素子を有し、必要に応じて操作者の指に対して触覚刺激を与える。
The
対象物指定部の一例として機能する音声入力部116は、操作者からの音声を制御部124に入力する。音声入力部116は、マイクロホン(マイク)1161と、アナログ/デジタル(A/D)変換部1162とを有している。マイク1161は、操作者が発した音声を電気信号(音声信号)に変換する。A/D変換部1162は、マイク1161で得られた音声信号を、デジタル形式の音声信号(音声データ)に変換する。
The
撮像部118は、撮像素子1181と、A/D変換部1182とを有している。撮像素子1181は、撮影レンズ102の光学系の光軸上であって、撮影レンズ102の光学系によって被写体光束が結像される位置に配置されている。撮像素子1181は、画素を構成するフォトダイオードが二次元的に配置された撮像面を有している。各フォトダイオードは、受光量に応じた電荷を生成する。フォトダイオードで発生した電荷は、各フォトダイオードに接続されているキャパシタに蓄積される。このキャパシタに蓄積された電荷が画像信号として読み出される。A/D変換部1182は、撮像素子1181で読み出された画像信号を、デジタル形式の画像信号(画像データ)に変換する。
The
記録部120は、例えばカメラ1の本体に内蔵される又はカメラ1の本体に対して着脱自在なフラッシュメモリであって、撮像部118を介して得られる画像データに基づいて制御部124により生成された画像ファイルを記録する。
The
時計部122は、撮影日時等の各種の時間を計る。例えば、撮影日時は、画像ファイルに記録される。
The
制御部124は、カメラ1の各種の動作を制御する。例えば、制御部124は、撮像制御部としての機能を有し、レンズ駆動部103の駆動制御や撮像素子1181の駆動制御を行う。また、制御部124は、表示制御部としての機能を有し、表示部106又はファインダ表示部110の動作を制御して表示部106又はファインダ表示部110に画像を表示させる。また、制御部124は、画像処理部を有し、撮像部118で得られた画像データに対して画像処理を施す。また、制御部124は、画像判定部を有し、画像データの特徴(輪郭や色等)を判定することによって操作者によって指定された対象物を探索する。また、制御部124は、音声処理部を有し、音声入力部116で得られた音声データから操作者が発した音声の内容を認識する。また、制御部124は、タッチ位置識別部としての機能を有し、タッチセンサ1041及びタッチセンサ1081において操作者の指がタッチした検出点の位置(タッチ位置)を識別する。また、制御部124は、圧電制御部としての機能を有し、タッチ位置に応じた圧電素子1042を駆動させるように印加部1043を制御する。
The
次に、本実施形態における圧電素子の詳細について説明する。もちろん、以下で説明する圧電素子に限るものではない。まず、圧電素子1042について説明する。図3は、圧電素子1042の上面透視図である。また、図4は圧電素子1042の断面図であって、(a)は図3の3A−3A線断面図であり、(b)は図3の3B−3B線断面図であり、(c)は図3の3C−3C線断面図である。
Next, details of the piezoelectric element in the present embodiment will be described. Of course, the present invention is not limited to the piezoelectric element described below. First, the
一例の圧電素子1042は、2枚の電極の間にポリ乳酸層を挟んで構成されている。以下、さらに詳しく圧電素子1042の構成を説明する。
例えば数十μm程度のポリイミド等の樹脂層である下側絶縁層202上には、タッチセンサ1041の検出点の数に対応した数の信号電極204が形成されている。各信号電極204は、例えば10μm程度の柔軟性を有する透明電極で作製されている。そして、各信号電極204は、対応する印加部に接続されている。例えば、1つの検出点は、図4(c)で示すようにして5枚の信号電極204を有している。これらの5枚の信号電極204には同一の電圧が印加される。
An example of the
For example, a number of
また、下側絶縁層202には、下側グランド(GND)電極206が形成されている。下側GND電極206は、カメラ1に設定されたグランド電位に接続されている。
In addition, a lower ground (GND)
信号電極204及び下側GND電極206の上には、ポリ乳酸層208が積層されている。ポリ乳酸層208は、圧電性と可撓性とを有する層であって、L体ポリ乳酸層2081とD体ポリ乳酸層2082とを積層して構成されている。L体ポリ乳酸層2081は、少なくとも1枚(図では3枚)のL体ポリ乳酸の薄膜シートを有している。一方、D体ポリ乳酸層2082は、少なくとも1枚(図では3枚)のD体ポリ乳酸の薄膜シートを有している。
A
ポリ乳酸層208の上には、上側グランド(GND)電極210が形成されている。すなわち、ポリ乳酸層208は、信号電極204と上側GND電極210との間に挟まれるように形成される。また、上側GND電極210から下側GND電極206にかけては、スルーホール212が形成され、スルーホール212によって上側GND電極210と下側GND電極206とが電気的に接続されている。これにより、上側GND電極210の電位がグランド電位に固定される。
On the
さらに、上側GND電極210の上には、上側絶縁層214が積層されている。この上側絶縁層214によって圧電素子の内部の電極等が保護されている。
Further, an upper insulating
また、断面図で示すように、下側絶縁層202は、軟材質層216を介して基材層218に形成されている。軟材質層216は、例えばシリコーンゴム等の層であり、基材層218は、例えばガラス等の硬質材層である。
Further, as shown in the cross-sectional view, the lower insulating
次に、圧電素子1082について説明する。圧電素子1082の積層構造は、圧電素子1042と類似しているので、異なる部分を中心に説明する。図5は、圧電素子1082の上面透視図である。また、図6は圧電素子1042の5−5線断面図である。
Next, the
圧電素子1082は、図3で示した圧電素子1042を1つの圧電素子列とし、この圧電素子列を複数配列したものである。以下、さらに詳しく圧電素子1082の構成を説明する。
下側絶縁層202上には、信号電極204が形成されている。1つの圧電素子列は、縦方向に配列された複数(図では5枚)の信号電極204を有している。そして、1つの圧電素子列を構成する各信号電極204には、引き出し電極220が形成されている。1つの圧電素子列を構成する各信号電極204は、引き出し電極220を介して印加部1043又は1083に接続されている。
The
A
また、下側絶縁層202には、1つの圧電素子列について1枚の下側GND電極206が形成されている。
The lower
信号電極204及び下側GND電極206の上には、ポリ乳酸層208が積層されている。ポリ乳酸層208は、L体ポリ乳酸層2081とD体ポリ乳酸層2082とを積層して構成されている。
A
ポリ乳酸層208の上には、1つの圧電素子列について1枚の上側GND電極210が形成されている。そして、上側GND電極210から下側GND電極206にかけては、スルーホール212が形成され、スルーホール212によって上側GND電極210と下側GND電極206とが電気的に接続されている。
On the
さらに、上側GND電極210の上には、上側絶縁層214が積層されている。この上側絶縁層214によって圧電素子の内部の電極等が保護されている。
Further, an upper insulating
図7は、印加部1043及び1083の構成例を示す図である。印加部1043と印加部1083とは基本的な構成は同一である。したがって、ここでは、印加部1043と印加部1083とを区別せずに説明する。図7に示すように、印加部は、定電圧源3021及び3022と、スイッチ3041a及び3042aと、スイッチ3041b及び3042bと、スイッチ切替部306aと、スイッチ切替部306bと、デコーダ308と、を有している。ここで、図7に示す印加部は、2つの信号電極204に対応した構成を示している。実際には、印加部は、信号電極204のそれぞれに対応して2つのスイッチと、スイッチ切替部とを有している。
FIG. 7 is a diagram illustrating a configuration example of the
定電圧源3021及び3022は、信号電極204に印加する電圧を生成する電源である。ここで、定電圧源3021は、グランド電位に対して正の電位を有する電圧(例えば+5V)を生成する電源である。また、定電圧源3022は、グランド電位に対して負の電位を有する電圧(例えば−5V)を生成する電源である。
The
スイッチ3041aは、定電圧源3021と信号電極204のうちの1つの信号電極204aとの間に開閉自在に接続され、スイッチ切替部306aからの制御信号に応じて定電圧源3021と信号電極204aとの間を導通状態又は開放状態とする。スイッチ3042aは、定電圧源3022と信号電極204aとの間に開閉自在に接続され、スイッチ切替部306aからの制御信号に応じて定電圧源3022と信号電極204aとの間を導通状態又は開放状態とする。
The
スイッチ3041bは、定電圧源3021と信号電極204のうちの別の1つの信号電極204bとの間に開閉自在に接続され、スイッチ切替部306bからの制御信号に応じて定電圧源3021と信号電極204bとの間を導通状態又は開放状態とする。スイッチ3042bは、定電圧源3022と信号電極204bとの間に開閉自在に接続され、スイッチ切替部306bからの制御信号に応じて定電圧源3022と信号電極204bとの間を導通状態又は開放状態とする。
The
スイッチ切替部306aは、信号電極204aに対応して設けられ、デコーダ308からの入力に応じてスイッチ3041a及びスイッチ3042aに対して制御信号を入力する。ここで、スイッチ切替部306aは、スイッチ3041aをオンとする場合にはスイッチ3042aをオフとし、スイッチ3042aをオンとする場合にはスイッチ3041aをオフとするように制御信号を入力する。
The
スイッチ切替部306bは、信号電極204bに対応して設けられ、デコーダ308からの入力に応じてスイッチ3041b及びスイッチ3042bに対して制御信号を入力する。ここで、スイッチ切替部306bは、スイッチ3041bをオンとする場合にはスイッチ3042bをオフとし、スイッチ3042bをオンとする場合にはスイッチ3041bをオフとするように制御信号を入力する。
The switch switching unit 306b is provided corresponding to the
デコーダ308は、制御部124からの圧電素子駆動指示を解読し、解読した圧電素子駆動指示に応じた信号電極に電圧が印加されるようにスイッチ切替部306a、306bに制御信号を入力する。
The
次に、圧電素子の動作を説明する。圧電素子の動作も、圧電素子1042と圧電素子1082とで違いはない。したがって、ここでも圧電素子1042の動作と圧電素子1082の動作とを特に区別せずに説明する。
Next, the operation of the piezoelectric element will be described. The operation of the piezoelectric element is not different between the
タッチセンサのある検出点に対応した信号電極204に正の電圧(例えば+5V)を印加した場合、信号電極204と上側GND電極210との間に発生する電界により、L体ポリ乳酸層2081が伸びてD体ポリ乳酸層2082が縮む。なお、ポリ乳酸層208の変位量は、長辺方向よりも短辺方向の方が大きくなる。また、ポリ乳酸層208は、L体ポリ乳酸層2081、D体ポリ乳酸層2082の順で積層されている。したがって、ポリ乳酸層208は、全体としては、図8(a)に示すようにへこむように屈曲する。ポリ乳酸層208の屈曲によって生じる力により、上側絶縁層214、上側GND電極210、信号電極204、下側絶縁層202も屈曲するので、圧電素子は、全体としてへこむように変形する。なお、ポリ乳酸層208の屈曲によって生じる力は、軟材質層216で吸収されるので基材層218には伝達されない。
When a positive voltage (for example, +5 V) is applied to the
また、タッチセンサのある検出点に対応した信号電極204に負の電圧(例えば−5V)を印加した場合、信号電極204と上側GND電極210との間に発生する電界により、L体ポリ乳酸層2081が縮んでD体ポリ乳酸層2082が伸びる。前述と同様、ポリ乳酸層208の変位量は、長辺方向よりも短辺方向の方が大きくなる。また、ポリ乳酸層208は、L体ポリ乳酸層2081、D体ポリ乳酸層2082の順で積層されている。したがって、ポリ乳酸層208は、全体としては、図8(b)に示すように膨らむように屈曲する。ポリ乳酸層208の屈曲によって生じる力により、上側絶縁層214、上側GND電極210、信号電極204、下側絶縁層202も屈曲するので、圧電素子は、全体として膨らむように変形する。なお、ポリ乳酸層208の屈曲によって生じる力は、軟材質層216で吸収されるので基材層218には伝達されない。
When a negative voltage (for example, −5 V) is applied to the
このようにして、本実施形態における圧電素子は、タッチセンサの各検出点に対応した部分を直接的にへこませるか膨らませることができる。これにより、圧電素子の任意の位置から操作者に対して触覚刺激を与えることが可能である。 In this manner, the piezoelectric element in the present embodiment can directly dent or bulge the portion corresponding to each detection point of the touch sensor. Thereby, it is possible to give a tactile stimulus to the operator from an arbitrary position of the piezoelectric element.
ここで、ポリ乳酸層208は、L体ポリ乳酸層2081とD体ポリ乳酸層2082とを積層して構成している。これは、大きな圧電性(大きな圧電定数)を持たせるためである。操作者に与える触覚刺激の大きさによっては、L体ポリ乳酸層2081とD体ポリ乳酸層2082の何れかのみ積層してポリ乳酸層208を構成しても良い。
Here, the
また、L体ポリ乳酸層2081とD体ポリ乳酸層2082の積層順は、逆順でも良い。積層順が逆順である場合には、印加部によって正の電圧を印加したときに圧電素子が膨らむように屈曲し、負の電圧を印加したときに圧電素子がへこむように屈曲する。
Further, the stacking order of the L
次に、本実施形態に係るタッチ操作装置を有するカメラ1の動作を説明する。図9は、カメラ1のメインの動作を示すフローチャートである。図9の動作は、制御部124が主体となって制御される。また、図9の動作は、例えばカメラ1の電源がオンされた場合に開始される。
Next, the operation of the camera 1 having the touch operation device according to the present embodiment will be described. FIG. 9 is a flowchart showing the main operation of the camera 1. The operation in FIG. 9 is controlled mainly by the
図9の動作が開始されると、制御部124は、カメラ1の動作モードが撮影モードか否かを判定する(ステップS101)。カメラ1は、動作モードとして撮影モードと再生モードとを有している。動作モードは、例えば操作者による操作部114又はタッチセンサ1081の操作に従って設定される。
When the operation of FIG. 9 is started, the
ステップS101において、動作モードが撮影モードであると判定した場合に、制御部124は、表示部106にスルー画表示を行わせる(ステップS102)。スルー画表示として、制御部124は、撮像部118を起動してスルー画表示用の画像データを取得する。画像データの取得後、制御部124は、取得した画像データに対してホワイトバランス補正やガンマ補正等の一般的なスルー画表示用の画像処理を行う。スルー画表示用の画像処理の後、制御部124は、処理した画像データを表示部106に入力して表示部106による画像の表示を行わせる。
If it is determined in step S101 that the operation mode is the shooting mode, the
表示部106へのスルー画表示の後、制御部124は、アイセンサ112の検出結果から、操作者によるファインダ表示部110の覗き込みがあるか否かを判定する(ステップS103)。ステップS103において、ファインダ表示部110の覗き込みがないと判定した場合に、制御部124は、ファインダ表示部110へのスルー画表示を終了させる(ステップS104)。また、ステップS103において、ファインダ表示部110の覗き込みがあると判定した場合に、制御部124は、ファインダ表示部110にスルー画表示を行わせる(ステップS105)。ファインダ表示部110へのスルー画表示は、画像データの入力先がファインダ表示部110である点以外は表示部106へのスルー画表示と同様である。ファインダ表示部対してホワイトバランス補正やガンマ補正等の一般的なスルー画表示用の画像処理を行う。スルー画表示用の画像処理の後、制御部124は、処理した画像データを表示部106に入力して表示部106による画像の表示を行わせる。ファインダ表示部110へのスルー画表示の後、制御部124は、表示部106へのスルー画表示を終了させる(ステップS106)。
After the through image is displayed on the
スルー画表示の後、制御部124は、タッチセンサ1081の検出結果から、操作者による表示部106の表示画面内へのタッチがされたか否かを判定する(ステップS107)。
After the through image display, the
ステップS104において、操作者による表示部106の表示画面内へのタッチがされたと判定した場合に、制御部124は、後で詳しく説明する振動制御のための対象物の指定が既になされているか否かを判定する(ステップS108)。
If it is determined in step S104 that the operator has touched the display screen of the
ステップS108において、対象物が指定済みであると判定した場合に、制御部124は、圧電素子の振動制御を行う(ステップS109)。振動制御については後で詳しく説明する。
If it is determined in step S108 that the target has been designated, the
ステップS108において、対象物が指定済みでないと判定した場合に、制御部124は、タッチ操作装置104の動作モードが対象物指定モードとなっているか否かを判定する(ステップS110)。カメラ1は、スルー画表示中のタッチ操作装置104の動作モードとして、タッチレリーズモードと対象物指定モードとを含む。タッチレリーズモードは、操作者のタッチ操作装置104に対するタッチ操作に応じて撮影を実行するモードである。一方、対象物指定モードは、操作者がタッチ操作装置104を用いて対象物を指定するためのモードである。これらの動作モードは、例えば図示しないメニュー画面におけるタッチ操作によって設定される。
If it is determined in step S108 that the object has not been specified, the
ステップS110において、タッチ操作装置104の動作モードが対象物指定モードでない、すなわちタッチレリーズモードであると判定した場合に、制御部124は、撮影及び画像記録動作を実行する(ステップS111)。撮影動作として、制御部124は、AF制御を行って撮影レンズ102の光学系のピント合わせをするとともに、AE制御を行って撮影時の露出条件を決定する。ここで、ステップS111においては、タッチされた位置の被写体に対してピント及び露出を合わせるようにAF制御及びAE制御を行う。続いて、制御部124は、AE制御によって決定された露出条件に従って撮像部118に撮像動作を行わせる。撮像動作の後、制御部124は、撮像部118の撮像動作の結果として得られた画像データに対し、ホワイトバランス補正やガンマ補正、圧縮処理等の一般的な記録用の画像処理を行う。記録用の画像処理の後、制御部124は、圧縮処理された画像データに基づいて画像ファイルを生成し、生成した画像ファイルを記録部120に記録させる。このような撮影動作の後、制御部124は、処理をステップS119に移行させる。
In step S110, when it is determined that the operation mode of the
ステップS110において、対象物指定モードであると判定した場合に、制御部124は、指定モードが同時指定モードであるか否かを判定する(ステップS112)。対象物指定モードは、指定モードとして、同時指定モードと、対象物のみ指定モードと、位置のみ指定モードとを有している。これらの指定モードは、例えば図示しないメニュー画面におけるタッチ操作によって設定される。ステップS112において、同時指定モードであると判定した場合に、制御部124は、操作者によってタッチされた位置の情報とその位置における被写体(対象物)の情報とを取得し、取得した位置情報及び対象物情報を図示しない記憶部に記憶させる(ステップS113)。ここで、対象物情報は、被写体の名称や形状等の情報が含まれる。被写体の名称は、例えば画像認識によって特定される。被写体の形状は、輪郭抽出等で検出される。ここで、対象物が移動体の場合には、対象物の追尾を行って位置情報を更新することが望ましい。
When it is determined in step S110 that the object designation mode is set, the
ステップS112において、同時指定モードでないと判定した場合に、制御部124は、指定モードが対象物のみ指定モードであるか否かを判定する(ステップS114)。ステップS114において、対象物のみ指定モードであると判定した場合に、制御部124は、操作者に対象物を指定させるためのメニュー画面を表示部106に表示させる(ステップS115)。図10は、メニュー画面の例を示す図である。操作者は、メニュー画面上に表示された対象物の一覧の中から所望の対象物の項目をタッチする。タッチ操作を受けて、制御部124は、操作者によってタッチされた項目の対象物を、スルー画表示中に得られる画像データから探索する(ステップS116)。対象物の探索は、周知の顔検出技術及び特徴量検出技術等を用いて行うことができる。この他、例えば対象物が空であれば、画面上方にあるローコーントラスト部分が空であると識別する。また、特定の画像データベースから、重要画像の特徴を読み出し、この重要画像との比較によって対象物を探索しても良い。専用の機器である場合、重要画像を自動で設定できる可能性は高い。例えば、車載用の機器に対しては対向車(すなわち自動車)や歩行者(すなわち人物)の画像を重要画像とすることができる。また、産業用の機器に対してはクラックや断線の画像、医療用の機器に対しては病変の画像を重要画像とすることができる。これらの重要画像は、テキストや音声と関連づけられていても良い。対象物の探索後、制御部124は、探索した対象物のタッチ操作装置104上の位置情報及び対象物情報を図示しない記憶部に記憶させる(ステップS117)。
If it is determined in step S112 that the mode is not the simultaneous designation mode, the
ステップS114において、対象物のみ指定モードでない、すなわち位置のみ指定モードであると判定した場合に、制御部124は、操作者によってタッチ位置の情報を図示しない記憶部に記憶させる(ステップS118)。ここでの位置のみ指定モードは、点の指定を可能とするモードである。位置のみではなく、範囲を指定できるようにしても良い。この場合、例えば、図11に示すようにして操作者によって図示矢印Aで示すようにしてある範囲が指でなぞられたことを検出した場合に、制御部124は、その範囲の位置情報を図示しない記憶部に記憶させる。
If it is determined in step S114 that the object only mode is not specified, that is, the position only mode is selected, the
続いて、制御部124は、音声入力部116からの信号に従って、操作者の音声が入力されたか否かを判定する(ステップS119)。ステップS119において、音声入力がないと判定した場合に、制御部124は、処理をステップS123に移行させる。
Subsequently, the
ステップS119において、音声入力があると判定した場合に、制御部124は、音声データを取り込み、取り込んだ音声データの内容を認識する(ステップS120)。認識された音声データの内容が予め登録してある対象物の名称(色や形状等でも良い)と一致したとき、制御部124は、認識した対象物を、スルー画表示中に得られる画像データから探索する(ステップS121)。対象物の探索後、制御部124は、探索した対象物のタッチ操作装置104上の位置情報及び対象物情報を図示しない記憶部に記憶させる(ステップS122)。
When it is determined in step S119 that there is a voice input, the
続いて、制御部124は、操作者によって撮影操作がなされたか否かを判定する(ステップS123)。撮影操作は、例えば操作部114のレリーズボタン1141の押操作である。ステップS123において、撮影操作がなされていないと判定した場合に、制御部124は、処理をステップS101に戻す。
Subsequently, the
ステップS123において、撮影操作がなされたと判定した場合に、制御部124は、撮影及び画像記録動作を実行する(ステップS124)。撮影動作として、制御部124は、AF制御を行って撮影レンズ102の光学系のピント合わせをするとともに、AE制御を行って撮影時の露出条件を決定する。ステップS124においては、例えば中央の被写体や最も近い被写体に対してピントを合わせようにAF制御を行う。続いて、制御部124は、AE制御によって決定された露出条件に従って撮像部118に記録用の撮像動作を行わせる。記録用の撮像動作の後、制御部124は、撮像部118の撮像動作の結果として得られた画像データに対し、ホワイトバランス補正やガンマ補正、圧縮処理等の一般的な記録用の画像処理を行う。記録用の画像処理の後、制御部124は、圧縮処理された画像データに基づいて画像ファイルを生成し、生成した画像ファイルを記録部120に記録させる。
If it is determined in step S123 that a shooting operation has been performed, the
撮影及び画像記録動作の後、制御部124は、現在、対象物の情報と位置情報の少なくとも何れかを記憶しているか否かを判定する(ステップS125)。ステップS125において、対象物の情報と位置情報の何れも記憶していない、すなわち対象物の指定がされていない判定した場合に、制御部124は、処理をステップS101に戻す。
After the photographing and image recording operations, the
ステップS125において、対象物の情報と位置情報の少なくとも何れかを記憶していると判定した場合に、制御部124は、記憶している対象物の情報又は位置情報をステップS124において記録した画像ファイルに追記する(ステップS126)。その後、制御部124は、処理をステップS101に戻す。
When it is determined in step S125 that at least one of the object information and the position information is stored, the
ステップS101において、動作モードが撮影モードでないと判定した場合に、制御部124は、動作モードが再生モードであるか否かを判定する(ステップS127)。ステップS127において、動作モードが再生モードでないと判定したとき、制御部124は、処理をステップS101に戻す。ステップS127において、動作モードが再生モードであると判定した場合に、制御部124は、再生モードの処理を行う(ステップS128)。再生モードの処理の詳細については後で詳しく説明する。
If it is determined in step S101 that the operation mode is not the shooting mode, the
図12は、振動制御の処理を示すフローチャートである。振動制御の処理は、操作者がタッチしている位置と対象物の位置との位置関係に応じて操作者の指に対して触覚刺激を与える処理である。 FIG. 12 is a flowchart illustrating vibration control processing. The vibration control process is a process for giving a tactile stimulus to the finger of the operator according to the positional relationship between the position touched by the operator and the position of the object.
図12において、制御部124は、現在、対象物の情報と位置情報の両方を記憶しているか否かを判定する(ステップS201)。ステップS201において、対象物の情報と位置情報の両方を記憶していると判定した場合、すなわち位置のみ指定モード以外で指定がなされた場合に、制御部124は、記憶している対象物の位置とタッチ位置とが同じ位置であるか否かを判定する(ステップS202)。ここでは、両者の位置差が許容範囲内であれば同じ位置であるとする。
In FIG. 12, the
ステップ202において、記憶している対象物の位置とタッチ位置とが同じ位置であると判定した場合に、制御部124は、図13に示すように、圧電素子1082におけるタッチ位置の検出点に対応した部分を振動させる(ステップS203)。その後、制御部124は、図12の処理を終了させる。このように、本実施形態では、操作者が、図14に示すようにして例えば音声によって対象物「空」を指定して、空の部分にタッチすると、指に振動刺激が与えられる。これにより、操作者は、自身が予め指定した対象物の位置に指をタッチさせていること、すなわち画面内における対象物の位置を表示部106の表示を見なくとも知ることができる。このため、ユーザは、自分が指定した対象物がそこにあることを瞬時に判断可能で、いちいち画面を確認せずとも安心して撮影ができ、指定していなくとも注意をひくべき対象物がそこにあることを視覚以外で確認可能である。
When it is determined in
ここで、図13は、圧電素子1082を振動させる例である。これに対し、鏡枠の周囲に形成された圧電素子1042を振動させても良いし、レリーズボタン1141を振動させるようにしても良い。すなわち、撮影時において操作者の指が触れ得る箇所であれば振動させて良い。さらには、振動による触覚刺激以外の他の視覚以外の感覚刺激、例えば音声による聴覚刺激等の他の手法を用いて操作者に対象物の位置を通知するようにしても良い。音声で通知する場合、制御部124は、スピーカ123を制御して音声を発する。ウェアラブルの機器に応用する場合は、人体に接触する部位への振動が有効であり、車載機器の場合、ハンドルに振動を起こしたり、産業機器や医療機器の場合、操作部材が振動するようにすれば効果的である。
Here, FIG. 13 shows an example in which the
ステップ202において、記憶している対象物の位置とタッチ位置とが同じ位置でないと判定した場合に、制御部124は、図15(a)及び図15(b)に示すように、タッチ位置に対応した検出点から対象物の位置の検出点に向かって圧電素子1042を順次にへこませる(ステップS204)。なお、へこみ量は、一定量としても良いし、対象物の位置とタッチ位置とのずれ量に応じて変化させるようにしても良い。その後、制御部124は、図12の処理を終了させる。例えば、図16に示すように、指定されていた対象物が人物(顔)であり、操作者のタッチ位置が顔の位置から右にずれていた場合、操作者の指の位置から左方向に向かって圧電素子1082が順次にへこむ。また、図17に示すように、指定されていた対象物が人物(顔)であり、操作者のタッチ位置が顔の位置から上にずれていた場合、操作者の指の位置から下方向に向かって圧電素子1082が順次にへこむ。このようにしてタッチ位置から対象物の位置までの部分を順次にへこませることによって、対象物の位置まで指を案内することができる。タッチした部位の振動のみならず、別の部位や部品の振動でも、2次元に広がる画像に対応し、X方向、Y方向が分かるような振動変化方向であれば効果的にずれを伝えられる。これを水平方向、垂直方向に置き換えて振動させるのも有効である。このような工夫によって、ずれていることが目視なく認識できる。もちろん、方向やずれ具合によって振動を変更しても良い。近いほど強く、遠いほど弱くとか、Y方向ずれとX方向ずれで振動パターンを変えても良い。また、音声の補助があっても良く、画面を見ないで済むような発光パターン等で補助しても良い。
When it is determined in
ここで、図15(a)及び図15(b)は、圧電素子1082を振動させる例である。これに対し、圧電素子1042を振動させても良い。この場合、ずれの方向と振動部分とを関連付けておくようにしても良い。例えば、操作者のタッチ位置が顔の位置から右にずれていた場合、鏡枠の右側部分を振動させ、操作者のタッチ位置が顔の位置から上にずれていた場合、鏡枠の上側部分を振動させる。
Here, FIG. 15A and FIG. 15B are examples in which the
ステップS201において、対象物の情報と位置情報の両方を記憶していないと判定した場合、すなわち位置のみ指定モードで指定がなされた場合に、制御部124は、記憶している位置と対象物の位置とが同じ位置であるか否かを判定する(ステップS205)。ここでは、両者の位置差が許容範囲内であれば同じ位置であるとする。また、対象物は、予め定められているものとする。ステップS205における判定においては、定められた対象物を画像データから探索してその位置を記憶位置と比較する。
In step S201, when it is determined that both the object information and the position information are not stored, that is, when designation is made in the position only designation mode, the
ステップS205において、記憶している位置と対象物の位置とが同じ位置であると判定した場合に、制御部124は、図13と同様に、圧電素子1082におけるタッチ位置の検出点に対応した部分を振動させる(ステップS206)。その後、制御部124は、図12の処理を終了させる。このようにして、操作者は、対象物が予め指定した位置にあることを表示部106の表示を見なくとも知ることができる。また、振動がない場合には、対象物が指定された位置にいないことを示している。このとき、操作者は表示部106の画面をみずに対象物を目視しながら対象物が特定の位置にくるようにカメラ1を動かすことが期待される。これにより、例えばカメラ1において設定されている画角が狭く、表示画面上で対象物を確認できないような場合であっても、正しく対象物を表示画面内に収めて撮影を行うことが可能である。
また、撮影用の対象物に限る必要はない。本実施形態の技術は、専用の観察機器への応用でも良い。このような専用の観察機器の場合、自動で対象物を設定し、設定した対象物が画面内にあるかを判定しても良い。このような対象物としては、車載用の機器ならな対向車や歩行者、産業用の機器ならばクラックや断線、医療用の機器ならば病変の画像等が相当する。これらの対象物の画像特徴は、テキストや音声と関連づけられていて、指定が可能であってもよい。また、対象物が撮影できるかを判定するのではなく、単に対象物が画像範囲に入ってきたかの判定だけでも良い。
If it is determined in step S205 that the stored position and the position of the target object are the same position, the
Moreover, it is not necessary to limit to the object for photography. The technique of this embodiment may be applied to a dedicated observation device. In the case of such a dedicated observation device, an object may be automatically set, and it may be determined whether the set object is in the screen. Such an object corresponds to an oncoming vehicle or a pedestrian that is a vehicle-mounted device, a crack or a disconnection that is an industrial device, a lesion image that is a medical device, or the like. The image features of these objects may be associated with text or audio and can be specified. Further, instead of determining whether the object can be photographed, it may be merely determining whether the object has entered the image range.
ここで、ステップS206において、鏡枠の周囲に形成された圧電素子1042を振動させても良いし、レリーズボタン1141を振動させるようにしても良い。すなわち、撮影時において操作者の指が触れ得る箇所であれば振動させて良い。さらには、圧電素子1082の振動以外の音声等の他の手法を用いて操作者に対象物の位置を通知するようにしても良い。
Here, in step S206, the
ステップ205において、記憶している対象物の位置と対象物の位置とが同じ位置でないと判定した場合に、制御部124は、タッチ位置から、記憶位置と対象物の位置とのずれ方向に向かって圧電素子1042を順次にへこませる(ステップS207)。なお、へこみ量は、一定量としても良いし、対象物の位置とタッチ位置とのずれ量に応じて変化させるようにしても良い。その後、制御部124は、図12の処理を終了させる。
If it is determined in
ここで、ステップS206において、圧電素子1042を振動させても良い。この場合、ずれの方向と振動部分とを関連付けておくようにしても良い。例えば、操作者のタッチ位置が顔の位置から右にずれていた場合、鏡枠の右側部分を振動させ、操作者のタッチ位置が顔の位置から上にずれていた場合、鏡枠の上側部分を振動させる。
Here, in step S206, the
図18は、再生モードの処理を示すフローチャートである。本実施形態では、撮影モード時だけでなく、再生モード時においても振動制御を行うようにしている。 FIG. 18 is a flowchart showing processing in the playback mode. In the present embodiment, vibration control is performed not only in the shooting mode but also in the playback mode.
再生モード時に、制御部124は、記録部120に記録されている画像ファイルの一覧を表示部106に表示させる(ステップS301)。続いて、制御部124は、操作者によって画像ファイルの選択がなされたか否かを判定する(ステップS302)。ステップS302において、画像ファイルの選択がなされていないと判定した場合に、制御部124は、処理をステップS319に移行させる。
In the playback mode, the
ステップS302において、画像ファイルの選択がなされたと判定した場合に、制御部124は、操作者により選択された画像ファイルを再生する(ステップS303)。再生処理において、制御部124は、操作者により選択された画像ファイルを記録部120から読み出し、読みだした画像ファイルを伸長する。そして、制御部124は、伸長された画像データを表示部106に入力して画像の表示を行う。
If it is determined in step S302 that an image file has been selected, the
画像ファイルの再生後のステップS304〜S318の処理は、ステップS107〜122で説明した対象物の指定及び振動制御の処理である。したがって、説明を省略する。ただし、図18からは、撮影に関する処理をなくしている。具体的には、ステップS111の撮影及び画像記録処理とステップS118の位置のみ指定モードとをなくしている。 The processes in steps S304 to S318 after the reproduction of the image file are the object designation and vibration control processes described in steps S107 to S122. Therefore, the description is omitted. However, from FIG. 18, processing related to shooting is eliminated. Specifically, the shooting and image recording processing in step S111 and the designation mode only in the position in step S118 are eliminated.
振動制御の処理や対象物の指定の後、制御部124は、操作者により再生モードの終了が指示されたか否かを判定する(ステップS319)。例えば、動作モードが切り替えられた場合に再生モードの終了が指示されたと判定する。ステップS319において、再生モードの終了が指示されていないと判定した場合に、制御部124は、操作者により画像を変更する指示がされたか否かを判定する(ステップS320)。例えば、再生中の画像の再生終了が指示された場合に、画像を変更する指示がされたと判定する。ステップS320において、画像を変更する指示がされたと判定した場合、制御部124は、処理をステップ301に戻す。また、画像を変更する指示がされていないと判定した場合、制御部124は、処理をステップ303に戻す。
After the vibration control process and target object specification, the
以上説明したように、本実施形態によれば、操作者のタッチ位置と予め指定した対象物の位置との位置関係に応じて圧電素子を屈曲させたり振動させたりすることによって操作者の指に触覚刺激を与えるようにしている。これにより、操作者は、表示部106の表示画面を見なくとも、また特別な知識がなくとも、画像内の対象物の位置を認識することが可能である。
As described above, according to the present embodiment, the piezoelectric element is bent or vibrated according to the positional relationship between the touch position of the operator and the position of the object specified in advance, so that the finger of the operator Tactile stimulation is given. Thus, the operator can recognize the position of the object in the image without looking at the display screen of the
また、本実施形態によれば、タッチセンサに形成された圧電素子の部分毎に信号電極を形成することによって、圧電素子を部分毎に屈曲させることが可能である。これにより、タッチセンサ上の任意の位置を他と独立して屈曲させることが可能である。これにより、操作者の指に対して直接的に触覚刺激を与えることが可能である。 Moreover, according to this embodiment, it is possible to bend a piezoelectric element for every part by forming a signal electrode for every part of the piezoelectric element formed in the touch sensor. Thereby, an arbitrary position on the touch sensor can be bent independently of the others. Thereby, it is possible to give a tactile stimulus directly to an operator's finger.
また、本実施形態では、2枚の電極の間にポリ乳酸層を挟んで圧電素子を構成している。ポリ乳酸層は透明材であるので、表示部106の上に圧電素子を形成したとしても表示部106の表示が邪魔される可能性を低減できる。さらに、D体ポリ乳酸層とL体ポリ乳酸層とを積層することにより、屈曲変位を大きくすることが可能である。
In the present embodiment, a piezoelectric element is configured by sandwiching a polylactic acid layer between two electrodes. Since the polylactic acid layer is a transparent material, even if a piezoelectric element is formed on the
ここで、ポリ乳酸層の何れかの層に電極を接続することで、圧電素子をタッチセンサとしても用いることが可能である。すなわち、操作者の指がタッチされた際のポリ乳酸層の撓みに応じた電圧信号を検出することで、タッチ位置を検出できる。このように構成した場合、圧電素子とタッチセンサとを1つにすることもできる。 Here, the piezoelectric element can also be used as a touch sensor by connecting an electrode to any one of the polylactic acid layers. That is, the touch position can be detected by detecting a voltage signal corresponding to the bending of the polylactic acid layer when the operator's finger is touched. In such a configuration, the piezoelectric element and the touch sensor can be combined into one.
さらに、例えば音声による対象物指定であれば表示部106又はファインダ表示部110による画像の表示は必要ない。すなわち、表示部106又はファインダ表示部110がなくとも、タッチセンサの検出点の位置と画像の各位置との対応付けがされていれば、図12で示したのと同様の振動制御を行うことが可能である。ここでは、振動し、位置センシングし、透過性、可撓性、成形性に優れたポリ乳酸の実施例を詳しく説明したが、他の複数の素材を組み合わせても同様の効果を奏することは言うまでもない。ポリ乳酸は、振動位置を変更するのも簡単であるが、タッチパネル全体を動かすような工夫で対応も可能である。
Further, for example, if an object is specified by voice, display of an image by the
以上実施形態に基づいて本発明を説明したが、民生用のカメラやビデオカメラ、モバイル機器以外への応用が可能で、産業用、医療用、監視用の専用の撮影機器、観察機器への応用も可能である。また、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。 Although the present invention has been described based on the above embodiments, the present invention can be applied to cameras other than consumer cameras, video cameras, and mobile devices, and can be applied to industrial, medical, and monitoring dedicated imaging devices and observation devices. Is also possible. Further, the present invention is not limited to the above-described embodiment, and various modifications and applications are possible within the scope of the gist of the present invention. Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.
また、上述した実施形態における画像処理装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも制御部124に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、制御部124は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。
In addition, each processing method by the image processing apparatus in the above-described embodiment, that is, the processing shown in each flowchart can be stored as a program that can be executed by the
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
1…カメラ、102…撮影レンズ、103…レンズ駆動部、104…タッチ操作装置、106…表示部、108…タッチ操作装置、110…ファインダ表示部、112…アイセンサ、1141…レリーズボタン、114…操作部、116…音声入力部、118…撮像部、120…記録部、122…時計部、123…スピーカ、124…制御部、202…下側絶縁層、204…信号電極、206…下側グランド(GND)電極、208…ポリ乳酸層、210…上側グランド(GND)電極、212…スルーホール、214…上側絶縁層、216…軟材質層、218…基材層、1041,1081…タッチセンサ、1042,1082…圧電素子、1043,1083…印加部 DESCRIPTION OF SYMBOLS 1 ... Camera, 102 ... Shooting lens, 103 ... Lens drive part, 104 ... Touch operation apparatus, 106 ... Display part, 108 ... Touch operation apparatus, 110 ... Finder display part, 112 ... Eye sensor, 1141 ... Release button, 114 ... Operation 116: Audio input unit, 118 ... Imaging unit, 120 ... Recording unit, 122 ... Clock unit, 123 ... Speaker, 124 ... Control unit, 202 ... Lower insulating layer, 204 ... Signal electrode, 206 ... Lower ground ( GND) electrode, 208 ... polylactic acid layer, 210 ... upper ground (GND) electrode, 212 ... through hole, 214 ... upper insulating layer, 216 ... soft material layer, 218 ... base material layer, 1041,1081 ... touch sensor, 1042 , 1082 ... Piezoelectric element, 1043, 1083 ... Application section
Claims (10)
撮影の対象となる対象物の名称を指定する対象物指定部と、
前記対象物指定部で指定された名称の前記対象物を前記画像の特徴から探索する画像判定部と、
撮影時において操作者の指が触れ得る箇所であって前記タッチセンサと異なる箇所に設けられており、前記操作者に対して感覚刺激を与える感覚刺激提供部と、
前記画像判定部によって探索された前記画像における前記対象物の位置と前記タッチセンサで検出されたタッチ位置との位置関係に応じて前記感覚刺激提供部によって前記感覚刺激を与える制御部と、
を具備することを特徴とする情報機器。 A touch sensor that has a plurality of detection points associated with the position of the image and detects an operator's touch operation on the detection points;
And the object specifying section that specifies the name of a target on shooting,
An image determination unit for searching the object having the name specified by the object specifying unit from features of the image;
A sensory stimulus providing unit for providing a sensory stimulus to the operator, which is provided at a location different from the touch sensor, where the operator's finger can be touched at the time of shooting ;
A control unit that applies the sensory stimulus by the sensory stimulus providing unit according to a positional relationship between the position of the object in the image searched by the image determination unit and the touch position detected by the touch sensor;
An information device comprising:
前記制御部は、前記位置指定部によって指定された位置と前記画像における前記対象物の位置との位置関係に応じて前記感覚刺激提供部によって前記感覚刺激を与えることを特徴とする請求項1乃至6の何れか1項に記載の情報機器。 A position designating unit for designating a position in the image;
The said control part gives the said sensory stimulus by the said sensory stimulus provision part according to the positional relationship of the position designated by the said position designation | designated part and the position of the said target object in the said image. The information device according to any one of 6.
撮影の対象となる対象物の名称を指定することと、
前記指定された名称の前記対象物を画像の特徴から探索することと、
前記探索された前記画像における前記対象物の位置とタッチセンサで検出されたタッチ位置との位置関係に応じて、撮影時において操作者の指が触れ得る箇所であって前記タッチセンサと異なる箇所に設けられている前記感覚刺激提供部によって操作者に対して感覚刺激を与えることと、
を具備することを特徴とする情報機器の制御方法。 A touch sensor that has a plurality of detection points associated with the position of the image and detects an operator's touch operation on the detection points, and a sensory stimulus providing unit that provides sensory stimuli to the operator A control method for information equipment,
And to specify the name of a target on shooting,
Searching for the object of the specified name from image features;
Depending on the positional relationship between the position of the target object in the searched image and the touch position detected by the touch sensor, it can be touched by an operator's finger at the time of shooting and is different from the touch sensor. and providing a sensory stimulus to the operator by the sensory stimulation providing unit is provided,
A method for controlling an information device, comprising:
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013053888A JP6196790B2 (en) | 2013-03-15 | 2013-03-15 | Information device and control method of information device |
US14/168,790 US9690378B2 (en) | 2013-01-30 | 2014-01-30 | Operation apparatus |
CN201410044193.0A CN103973971B (en) | 2013-01-30 | 2014-01-30 | The control method of information equipment and information equipment |
CN201710822310.5A CN107483829A (en) | 2013-01-30 | 2014-01-30 | Camera device, operation device, object confirmation method |
US15/601,552 US10198075B2 (en) | 2013-01-30 | 2017-05-22 | Operation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013053888A JP6196790B2 (en) | 2013-03-15 | 2013-03-15 | Information device and control method of information device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014178996A JP2014178996A (en) | 2014-09-25 |
JP6196790B2 true JP6196790B2 (en) | 2017-09-13 |
Family
ID=51698849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013053888A Active JP6196790B2 (en) | 2013-01-30 | 2013-03-15 | Information device and control method of information device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6196790B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6528695B2 (en) * | 2016-01-29 | 2019-06-12 | 株式会社ニコン | Electronic device and program |
JP6777497B2 (en) * | 2016-10-25 | 2020-10-28 | 株式会社東海理化電機製作所 | Force sensation device |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3888099B2 (en) * | 2001-08-17 | 2007-02-28 | 富士ゼロックス株式会社 | Touch panel device |
JP4811206B2 (en) * | 2006-09-12 | 2011-11-09 | トヨタ自動車株式会社 | Input device |
JP2009009412A (en) * | 2007-06-28 | 2009-01-15 | Canon Inc | Information presentation device and information presentation method |
JP2009089174A (en) * | 2007-10-01 | 2009-04-23 | Fujifilm Corp | Digital camera and photographing method thereof |
JP2010044580A (en) * | 2008-08-12 | 2010-02-25 | Nikon Corp | Camera and retrieval system |
JP2010211509A (en) * | 2009-03-10 | 2010-09-24 | Ricoh Co Ltd | Input device and image forming device |
JP2010257215A (en) * | 2009-04-24 | 2010-11-11 | Nikon Corp | Digital camera and illustrative photographing/posting program |
JP2011146821A (en) * | 2010-01-12 | 2011-07-28 | Canon Inc | Device and method for providing tactile information, and program |
JP2011166306A (en) * | 2010-02-05 | 2011-08-25 | Olympus Imaging Corp | Imaging device |
JP5639527B2 (en) * | 2011-04-01 | 2014-12-10 | 京セラ株式会社 | Electronics |
-
2013
- 2013-03-15 JP JP2013053888A patent/JP6196790B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014178996A (en) | 2014-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105472258B (en) | The control method of camera and camera | |
US10198075B2 (en) | Operation apparatus | |
JP4510713B2 (en) | Digital camera | |
JP5246790B2 (en) | Sound data processing apparatus and program | |
KR20210098292A (en) | Electronic device including camera and operating method thereof | |
JP2015099506A (en) | Operation device, display device, and imaging device | |
JP2012186670A (en) | Imaging device, imaging method, and imaging program | |
WO2015072166A1 (en) | Imaging device, imaging assistant method, and recoding medium on which imaging assistant program is recorded | |
JP5885395B2 (en) | Image capturing apparatus and image data recording method | |
CN214675328U (en) | Camera module and electronic equipment | |
KR102540100B1 (en) | Haptic enabled device with multi-image capturing abilities | |
WO2017018043A1 (en) | Electronic device, electronic device operation method, and control program | |
JP6196790B2 (en) | Information device and control method of information device | |
JP6168780B2 (en) | Touch operation device and control method thereof | |
US9179128B2 (en) | Image sensing unit, 3D image processing apparatus, 3D camera system, and 3D image processing method | |
KR102127396B1 (en) | Image acquiring device | |
US20160212328A1 (en) | Haptic interface of image photographing device and control method thereof | |
EP3767928A1 (en) | Optical device and mobile terminal comprising same | |
US10412303B2 (en) | Imaging device, startup method of imaging device, and computer readable recording medium | |
JP5611805B2 (en) | Electronic camera | |
JP2014179913A (en) | Interface device, imaging apparatus provided therewith, and control method for interface device | |
JP2016036081A (en) | Image processing device, method and program, and recording medium | |
JP2013007851A (en) | Imaging apparatus | |
JP2015019215A (en) | Imaging apparatus and imaging method | |
JP2012027347A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170821 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6196790 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |