JP2014178996A - Information apparatus - Google Patents

Information apparatus Download PDF

Info

Publication number
JP2014178996A
JP2014178996A JP2013053888A JP2013053888A JP2014178996A JP 2014178996 A JP2014178996 A JP 2014178996A JP 2013053888 A JP2013053888 A JP 2013053888A JP 2013053888 A JP2013053888 A JP 2013053888A JP 2014178996 A JP2014178996 A JP 2014178996A
Authority
JP
Japan
Prior art keywords
unit
image
touch
operator
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013053888A
Other languages
Japanese (ja)
Other versions
JP6196790B2 (en
Inventor
Kazuhiro Sato
和宏 佐藤
Nobusuke Honma
伸祐 本間
Sumio Kawai
澄夫 川合
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2013053888A priority Critical patent/JP6196790B2/en
Priority to US14/168,790 priority patent/US9690378B2/en
Priority to CN201710822310.5A priority patent/CN107483829A/en
Priority to CN201410044193.0A priority patent/CN103973971B/en
Publication of JP2014178996A publication Critical patent/JP2014178996A/en
Priority to US15/601,552 priority patent/US10198075B2/en
Application granted granted Critical
Publication of JP6196790B2 publication Critical patent/JP6196790B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information apparatus having a touch operation apparatus operable without visual observation even when an operator does not have special knowledge.SOLUTION: In an information apparatus, an object is specified through a touch sensor 1081 or a microphone 1161. When the touch sensor 1081 is touched, it is determined whether a touch position and the position of the object are the same position. A tactile stimulus is given to a finger of an operator by a piezoelectric element 1082 in accordance with the determination result.

Description

本発明は、操作者がタッチして操作するタッチ操作装置を有する情報機器に関する。   The present invention relates to an information device having a touch operation device that an operator touches to operate.

タッチパネル等のタッチ操作装置は、ボタン等の機械的な操作部材とは異なり、タッチセンサの検出結果に従って操作入力が行われる。ここで、従来のタッチ操作装置は、表面がガラス等の硬質な平面で構成されている。このため、操作者がタッチ操作装置の表面のどの位置に指をタッチさせても指に与えられる感覚は同じものとなる。したがって、従来のタッチ操作装置の場合、タッチ操作装置を正しく操作できたかを操作者が直感的に認識することは困難である。操作者が目視しなくともタッチ位置を認識できるようにするための提案として、特許文献1は、タッチ操作装置におけるタッチ位置にある画像の内容を点字表示によって操作者に伝達する携帯端末装置を提案している。   Unlike a mechanical operation member such as a button, a touch operation device such as a touch panel performs operation input according to the detection result of the touch sensor. Here, the conventional touch operation device is configured by a hard flat surface such as glass. For this reason, even if the operator touches the finger with any position on the surface of the touch operation device, the feeling given to the finger is the same. Therefore, in the case of the conventional touch operation device, it is difficult for the operator to intuitively recognize whether the touch operation device has been correctly operated. As a proposal for enabling the operator to recognize the touch position without visual observation, Patent Document 1 proposes a portable terminal device that transmits the content of the image at the touch position in the touch operation device to the operator by braille display. doing.

特開2012−156607号公報JP 2012-156607 A

タッチ位置にある画像の内容を点字表示によって操作者に伝達する場合、操作者に点字の知識がなければ、操作者はタッチ位置にある画像の内容を認識できないことになる。   When the content of the image at the touch position is transmitted to the operator by Braille display, the operator cannot recognize the content of the image at the touch position unless the operator has knowledge of Braille.

本発明は、前記の事情に鑑みてなされたもので、操作者に特別な知識がなくとも目視せずに操作可能なタッチ操作装置を有する情報機器を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an information device having a touch operation device that can be operated without visual observation even if the operator has no special knowledge.

前記の目的を達成するために、本発明の一態様の情報機器は、画像の位置と対応付けられた複数の検出点を有し、該検出点に対する操作者のタッチ操作を検出するタッチセンサと、撮影又は再生の対象となる対象物を指定する対象物指定部と、前記操作者に対して感覚刺激を与える感覚刺激提供部と、前記画像における前記対象物の位置と前記タッチセンサで検出されたタッチ位置との位置関係に応じて前記感覚刺激提供部によって前記感覚刺激を与える制御部と、を具備することを特徴とする。   In order to achieve the above object, an information device according to one embodiment of the present invention includes a plurality of detection points associated with image positions, and a touch sensor that detects an operator's touch operation on the detection points. An object designating unit that designates an object to be photographed or reproduced, a sensory stimulus providing unit that provides sensory stimulation to the operator, a position of the object in the image, and the touch sensor. And a control unit that gives the sensory stimulus by the sensory stimulus providing unit according to the positional relationship with the touch position.

本発明によれば、操作者に特別な知識がなくとも目視せずに操作可能なタッチ操作装置を有する情報機器を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, even if an operator does not have special knowledge, the information apparatus which has a touch operation device which can be operated without visual observation can be provided.

本発明の一実施形態に係るタッチ操作装置を搭載した情報機器の一例としてのデジタルカメラの外観図である。1 is an external view of a digital camera as an example of an information device equipped with a touch operation device according to an embodiment of the present invention. デジタルカメラの詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of a digital camera. 圧電素子1042の上面透視図である。3 is a top perspective view of a piezoelectric element 1042. FIG. 圧電素子1042の断面図である。4 is a cross-sectional view of a piezoelectric element 1042. FIG. 圧電素子1082の上面透視図である。3 is a top perspective view of a piezoelectric element 1082. FIG. 圧電素子1082の断面図である。3 is a cross-sectional view of a piezoelectric element 1082. FIG. 印加部の構成例を示す図である。It is a figure which shows the structural example of an application part. 圧電素子の動作を示す図である。It is a figure which shows operation | movement of a piezoelectric element. デジタルカメラのメインの動作を示すフローチャートである。It is a flowchart which shows the main operation | movement of a digital camera. 対象物のみ指定モードにおいて表示されるメニュー画面の例を示した図である。It is the figure which showed the example of the menu screen displayed in an object only designation | designated mode. 位置のみ指定モードの変形例を示す図である。It is a figure which shows the modification of a position only designation | designated mode. 振動制御の処理を示すフローチャートである。It is a flowchart which shows the process of vibration control. タッチ位置と対象物の位置とが同じ位置である場合の圧電素子の振動制御の例を示す図である。It is a figure which shows the example of the vibration control of a piezoelectric element in case a touch position and the position of a target object are the same positions. タッチ位置と対象物の位置とが同じ位置である場合の振動制御の動作例を示す図である。It is a figure which shows the operation example of the vibration control in case a touch position and the position of a target object are the same positions. タッチ位置と対象物の位置とが異なる位置である場合の圧電素子の振動制御の例を示す図である。It is a figure which shows the example of the vibration control of a piezoelectric element in case a touch position and the position of a target object are different positions. タッチ位置と対象物の位置とが同じ位置である場合の振動制御の動作例を示す第1の図である。It is a 1st figure which shows the operation example of the vibration control in case a touch position and the position of a target object are the same positions. タッチ位置と対象物の位置とが同じ位置である場合の振動制御の動作例を示す第2の図である。It is a 2nd figure which shows the operation example of the vibration control in case a touch position and the position of a target object are the same positions. 再生モードの処理を示すフローチャートである。It is a flowchart which shows the process of reproduction | regeneration mode.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るタッチ操作装置を搭載した情報機器の一例としてのデジタルカメラ(以下、単にカメラと言う)の外観図である。ここで、図1(a)はカメラの前面(被写体側)から見た外観図であり、図1(b)はカメラの背面から見た外観図である。ここでは、情報機器の例としてデジタルカメラを示したが、携帯電話機や携帯端末等であっても本実施形態の技術が適用され得る。また、視覚のみに頼らず、五感を有効利用した確認方法なので、応用範囲は広く、産業用、医療用の観察機器にも利用可能である。また、視覚に制約を強いないので、車載用の機器や監視カメラ等に応用できることは言うまでもない。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an external view of a digital camera (hereinafter simply referred to as a camera) as an example of information equipment equipped with a touch operation device according to an embodiment of the present invention. Here, FIG. 1A is an external view seen from the front side (subject side) of the camera, and FIG. 1B is an external view seen from the back side of the camera. Here, a digital camera is shown as an example of information equipment, but the technology of the present embodiment can be applied even to a mobile phone, a mobile terminal, or the like. In addition, since it is a confirmation method that makes effective use of the five senses without relying only on vision, it has a wide range of applications and can be used for industrial and medical observation devices. Needless to say, since it does not impose visual restrictions, it can be applied to in-vehicle devices and surveillance cameras.

カメラの場合、操作者は、シャッタチャンスを逃さないように被写体を注視することが多い。この場合、操作者の意識が被写体に向けられ、操作者は、目で確認することなくカメラ操作を実行する。本実施形態では、操作者が目で確認しなくとも正しいカメラ操作を行えるようにする。例えば、小さな画面に操作者の注意が向いていると画面外で起こっている状況変化を見逃したりして危険に繋がる場合がある。そこまで重大な状況ではなくとも、インタビューの撮影等で、会話をしている相手等は、撮影時に表情が改まってしまうようなことがあった。   In the case of a camera, the operator often watches the subject so as not to miss a photo opportunity. In this case, the operator's consciousness is directed toward the subject, and the operator executes the camera operation without checking with the eyes. In this embodiment, it is possible to perform correct camera operation without an operator confirming with eyes. For example, if the operator's attention is directed to a small screen, there may be a risk that a situation change occurring outside the screen may be overlooked. Even if the situation was not so serious, the other party who had conversation during the shooting of the interview sometimes changed their facial expressions during the shooting.

図1(a)に示すように、カメラ1の本体前面には、撮影レンズ102が設けられている。撮影レンズ102は、筒状の鏡枠と、鏡枠内に収納された光学系とを有している。鏡枠の周囲には、タッチ操作装置が形成されている。操作者は、このタッチ操作装置をフォーカスリングやズームリングの代わりとして用いてマニュアルフォーカスやマニュアルズームを実行することが可能である。また、カメラ1の本体上面には、レリーズボタン1141が設けられている。レリーズボタン1141は、操作者がカメラ1に対して撮影の実行を指示するための操作部材である。ここで、レリーズボタン1141は、圧電素子を有し、必要に応じて操作者の指に触覚刺激を与えるように構成されている。   As shown in FIG. 1A, a photographing lens 102 is provided on the front surface of the main body of the camera 1. The photographing lens 102 has a cylindrical lens frame and an optical system housed in the lens frame. A touch operation device is formed around the lens frame. An operator can perform manual focus and manual zoom using this touch operation device instead of the focus ring and zoom ring. Also, a release button 1141 is provided on the upper surface of the main body of the camera 1. The release button 1141 is an operation member for the operator to instruct the camera 1 to execute shooting. Here, the release button 1141 has a piezoelectric element and is configured to give a tactile stimulus to the operator's finger as necessary.

また、図1(b)に示すように、カメラ1の本体背面には、表示部106が設けられている。そして、表示部106の上には、タッチ操作装置が形成されている。操作者は、タッチ操作装置を用いて各種の操作を行うことが可能である。   Further, as shown in FIG. 1B, a display unit 106 is provided on the back of the main body of the camera 1. A touch operation device is formed on the display unit 106. The operator can perform various operations using the touch operation device.

また、図1(b)に示すように、カメラ1の本体背面の上部には、ファインダ表示部110と、アイセンサ112とが設けられている。カメラ1は、表示部106と同様の表示をファインダ表示部110にも行うことができる。表示部106で表示を行うか又はファインダ表示部110で表示を行うかは、アイセンサ112の検出結果に応じて切り替える。詳しくは後で説明する。   As shown in FIG. 1B, a finder display unit 110 and an eye sensor 112 are provided on the upper part of the back of the main body of the camera 1. The camera 1 can perform the same display as the display unit 106 on the finder display unit 110. Whether to display on the display unit 106 or to display on the finder display unit 110 is switched according to the detection result of the eye sensor 112. Details will be described later.

さらに、カメラ1の本体背面下部には、マイクロホン(マイク)1161が設けられている。   Further, a microphone (microphone) 1161 is provided at the lower back of the main body of the camera 1.

図2は、カメラ1の詳細な構成を示すブロック図である。図2に示すように、カメラ1は、撮影レンズ102と、レンズ駆動部103と、タッチ操作装置104と、表示部106と、タッチ操作装置108と、ファインダ表示部110と、アイセンサ112と、操作部114と、音声入力部116と、撮像部118と、記録部120と、時計部122と、制御部124とを有している。   FIG. 2 is a block diagram showing a detailed configuration of the camera 1. As shown in FIG. 2, the camera 1 includes a photographing lens 102, a lens driving unit 103, a touch operation device 104, a display unit 106, a touch operation device 108, a viewfinder display unit 110, an eye sensor 112, and an operation. Unit 114, audio input unit 116, imaging unit 118, recording unit 120, clock unit 122, and control unit 124.

前述したように、撮影レンズ102は、鏡枠内に光学系が収納されて構成されている。撮影レンズ102の光学系は、単一又は複数のレンズと絞りとを有し、図示しない被写体の光像を、撮像部118の撮像素子1181の撮像面に集光する。光学系は、レンズ駆動部103によってその光軸方向に駆動される。レンズ駆動部103は、モータとその駆動回路とを有し、制御部124からの制御信号に従って光学系を駆動する。これにより、光学系のフォーカス駆動やズーム駆動が行われる。   As described above, the photographing lens 102 is configured by housing an optical system in a lens frame. The optical system of the photographic lens 102 includes a single lens or a plurality of lenses and a diaphragm, and condenses a light image of a subject (not shown) on the imaging surface of the imaging element 1181 of the imaging unit 118. The optical system is driven in the optical axis direction by the lens driving unit 103. The lens driving unit 103 includes a motor and its driving circuit, and drives the optical system according to a control signal from the control unit 124. Thereby, focus drive and zoom drive of the optical system are performed.

タッチ操作装置104は、タッチセンサ1041と、圧電素子1042と、印加部1043とを有している。   The touch operation device 104 includes a touch sensor 1041, a piezoelectric element 1042, and an application unit 1043.

タッチセンサ1041は、撮影レンズ102の鏡枠の周方向に沿って配置された複数の検出点を有している。各検出点は、操作者の指のタッチに応じて検出信号を制御部124に出力する。ここで、タッチセンサ1041は、感圧式タッチセンサや静電容量式タッチセンサ等、種々の検出方式のタッチセンサを用いることができる。感圧式タッチセンサは、検出点に指がタッチした際に検出点において生じる圧力の変化を検出することにより、指のタッチを検出するタッチセンサである。一方、静電容量式タッチセンサは、検出点に指が近接した際に指と検出点との間に生じる静電容量の変化を検出することにより、指のタッチを検出するタッチセンサである。このようなタッチセンサ1041により、操作者は、マニュアルフォーカス操作やズーム操作を行うことが可能である。ここで、ズームリングやフォーカスリングを鏡枠に設けた場合、タッチセンサ1041を省略しても良い。   The touch sensor 1041 has a plurality of detection points arranged along the circumferential direction of the lens frame of the photographing lens 102. Each detection point outputs a detection signal to the control unit 124 according to the touch of the operator's finger. Here, as the touch sensor 1041, various types of detection type touch sensors such as a pressure-sensitive touch sensor and a capacitive touch sensor can be used. The pressure-sensitive touch sensor is a touch sensor that detects a finger touch by detecting a change in pressure generated at the detection point when the finger touches the detection point. On the other hand, the capacitive touch sensor is a touch sensor that detects a finger touch by detecting a change in capacitance that occurs between the finger and the detection point when the finger approaches the detection point. Such a touch sensor 1041 allows the operator to perform a manual focus operation and a zoom operation. Here, when the zoom ring or the focus ring is provided in the lens frame, the touch sensor 1041 may be omitted.

圧電素子1042は、タッチセンサ1041に対応するように配置され、電圧の印加によって屈曲変位するように構成されている。ここで、本実施形態における圧電素子1042は、タッチセンサ1041の検出点に対応する部分毎に電圧を印加できるように構成されており、これによってタッチセンサ1041の検出点に対応する部分毎に屈曲する。圧電素子1042の構成及び動作については後で詳しく説明する。   The piezoelectric element 1042 is disposed so as to correspond to the touch sensor 1041 and is configured to bend and displace when a voltage is applied. Here, the piezoelectric element 1042 in the present embodiment is configured to be able to apply a voltage to each part corresponding to the detection point of the touch sensor 1041, and thereby bends to each part corresponding to the detection point of the touch sensor 1041. To do. The configuration and operation of the piezoelectric element 1042 will be described in detail later.

印加部1043は、圧電素子1042の部分毎に独立に電圧を印加するように構成されている。ここで、印加部1043は、圧電素子1042のグランド電位に対して正負の電圧を印加する。印加部1043の構成及び動作については後で詳しく説明する。   The applying unit 1043 is configured to apply a voltage independently for each portion of the piezoelectric element 1042. Here, the application unit 1043 applies positive and negative voltages with respect to the ground potential of the piezoelectric element 1042. The configuration and operation of the application unit 1043 will be described in detail later.

表示部106は、例えば液晶ディスプレイや有機ELディスプレイであって、表示制御部としての制御部124から入力された画像データに基づいて画像を表示する。   The display unit 106 is, for example, a liquid crystal display or an organic EL display, and displays an image based on image data input from the control unit 124 serving as a display control unit.

タッチ操作装置108は、タッチセンサ1081と、圧電素子1082と、印加部1083とを有している。   The touch operation device 108 includes a touch sensor 1081, a piezoelectric element 1082, and an application unit 1083.

タッチセンサ1081は、表示部106の上に2次元状に配置された複数の検出点を有している。各検出点は、操作者の指のタッチに応じて検出信号を制御部124に出力する。ここで、タッチセンサ1081も、タッチセンサ1041と同様、種々の検出方式のタッチセンサを用いることができる。このようなタッチセンサ1081により、操作者は、シャッタスピードの設定、絞りの設定、露出補正の設定等の各種の設定操作が可能である。また、タッチセンサ1081は、対象物指定部の一例としても機能する。操作者は、タッチセンサ1081によって対象物の指定を行うことが可能である。対象物とは、例えば撮影や再生の対象となり得る、操作者が関心を持っている被写体のことである。または、対象物は、操作者が関心をもつべき対象であっても良い。このような応用によって、操作者の意識にはないが、操作者が撮影したくなるような対象物を見つけることが可能である。ここで、対象物の候補リストを、データベース化して保持しても良い。このようなデータベースは、カメラ1の外部からダウンロードしても良い。さらには、対象物の候補を、操作者の行動分析で推定できるようにしても良い。   The touch sensor 1081 has a plurality of detection points arranged two-dimensionally on the display unit 106. Each detection point outputs a detection signal to the control unit 124 according to the touch of the operator's finger. Here, the touch sensor 1081 can use touch sensors of various detection methods as in the touch sensor 1041. With such a touch sensor 1081, the operator can perform various setting operations such as shutter speed setting, aperture setting, and exposure correction setting. The touch sensor 1081 also functions as an example of an object specifying unit. The operator can specify an object using the touch sensor 1081. An object is a subject that an operator is interested in, for example, which can be a subject of shooting or reproduction. Alternatively, the object may be an object that the operator should be interested in. By such an application, it is possible to find an object that the operator is not aware of but wants to photograph. Here, the candidate list of objects may be stored in a database. Such a database may be downloaded from outside the camera 1. Furthermore, the candidate for the object may be estimated by analyzing the behavior of the operator.

感覚刺激提供部の一例として機能する圧電素子1082は、タッチセンサ1081に対応するように配置され、電圧の印加によって屈曲変位するように構成されている。ここで、本実施形態における圧電素子1082は、タッチセンサ1081の検出点に対応する部分毎に電圧を印加できるように構成されており、これによってタッチセンサ1081の検出点に対応する部分毎に屈曲する。圧電素子1082の構成及び動作については後で詳しく説明する。   The piezoelectric element 1082 that functions as an example of the sensory stimulus providing unit is disposed so as to correspond to the touch sensor 1081 and is configured to bend and displace when a voltage is applied. Here, the piezoelectric element 1082 in the present embodiment is configured to be able to apply a voltage to each portion corresponding to the detection point of the touch sensor 1081, thereby bending the portion corresponding to the detection point of the touch sensor 1081. To do. The configuration and operation of the piezoelectric element 1082 will be described in detail later.

印加部1083は、圧電素子1082の部分毎に独立に電圧を印加するように構成されている。ここで、印加部1083は、圧電素子1082のグランド電位に対して正負の電圧を印加する。印加部1083の構成及び動作については後で詳しく説明する。   The application unit 1083 is configured to apply a voltage independently for each portion of the piezoelectric element 1082. Here, the application unit 1083 applies positive and negative voltages with respect to the ground potential of the piezoelectric element 1082. The configuration and operation of the application unit 1083 will be described in detail later.

ファインダ表示部110は、カメラ1の本体背面上部のファインダ内に設けられた表示部である。ファインダ表示部110は、例えば液晶ディスプレイや有機ELディスプレイであって、表示制御部としての制御部124から入力された画像データに基づいて画像を表示する。   The finder display unit 110 is a display unit provided in the finder at the upper back of the main body of the camera 1. The finder display unit 110 is, for example, a liquid crystal display or an organic EL display, and displays an image based on image data input from the control unit 124 as a display control unit.

アイセンサ112は、ファインダの近傍に設けられ、操作者によるファインダの覗き込みを検出する。アイセンサ112は、例えば赤外光発光部と赤外光受光部とを有する。操作者がファインダを覗き込んでいる場合、赤外発光部で発光された赤外光は、操作者の顔で反射されて赤外受光部で受光される。これにより、赤外受光部における出力信号が変化する。一方、操作者がファインダを覗き込んでいない場合、赤外発光部で発光された赤外光が反射されないので赤外受光部の出力は変化しない。したがって、赤外受光部の出力信号から、操作者がファインダを覗き込んでいるか否かを識別することが可能である。   The eye sensor 112 is provided in the vicinity of the finder, and detects the finder looking into the finder. The eye sensor 112 includes, for example, an infrared light emitting unit and an infrared light receiving unit. When the operator is looking into the viewfinder, the infrared light emitted from the infrared light emitting unit is reflected by the operator's face and received by the infrared light receiving unit. Thereby, the output signal in an infrared light-receiving part changes. On the other hand, when the operator does not look into the viewfinder, the infrared light emitted from the infrared light emitting unit is not reflected, so the output of the infrared light receiving unit does not change. Therefore, it is possible to identify whether the operator is looking into the finder from the output signal of the infrared light receiving unit.

操作部114は、タッチ操作装置104及びタッチ操作装置108以外のカメラ1の本体に設けられた機械的な操作部材である。操作部114は、例えばレリーズボタン1141を含む。レリーズボタン1141は、前述したように圧電素子を有し、必要に応じて操作者の指に対して触覚刺激を与える。   The operation unit 114 is a mechanical operation member provided in the main body of the camera 1 other than the touch operation device 104 and the touch operation device 108. The operation unit 114 includes, for example, a release button 1141. The release button 1141 has a piezoelectric element as described above, and applies tactile stimulation to the operator's finger as necessary.

対象物指定部の一例として機能する音声入力部116は、操作者からの音声を制御部124に入力する。音声入力部116は、マイクロホン(マイク)1161と、アナログ/デジタル(A/D)変換部1162とを有している。マイク1161は、操作者が発した音声を電気信号(音声信号)に変換する。A/D変換部1162は、マイク1161で得られた音声信号を、デジタル形式の音声信号(音声データ)に変換する。   The voice input unit 116 that functions as an example of the object specifying unit inputs voice from the operator to the control unit 124. The audio input unit 116 includes a microphone (microphone) 1161 and an analog / digital (A / D) conversion unit 1162. The microphone 1161 converts the voice uttered by the operator into an electrical signal (voice signal). The A / D converter 1162 converts the audio signal obtained by the microphone 1161 into a digital audio signal (audio data).

撮像部118は、撮像素子1181と、A/D変換部1182とを有している。撮像素子1181は、撮影レンズ102の光学系の光軸上であって、撮影レンズ102の光学系によって被写体光束が結像される位置に配置されている。撮像素子1181は、画素を構成するフォトダイオードが二次元的に配置された撮像面を有している。各フォトダイオードは、受光量に応じた電荷を生成する。フォトダイオードで発生した電荷は、各フォトダイオードに接続されているキャパシタに蓄積される。このキャパシタに蓄積された電荷が画像信号として読み出される。A/D変換部1182は、撮像素子1181で読み出された画像信号を、デジタル形式の画像信号(画像データ)に変換する。   The imaging unit 118 includes an imaging element 1181 and an A / D conversion unit 1182. The image sensor 1181 is disposed on the optical axis of the optical system of the photographing lens 102 and at a position where a subject light beam is imaged by the optical system of the photographing lens 102. The imaging element 1181 has an imaging surface on which photodiodes constituting pixels are two-dimensionally arranged. Each photodiode generates a charge corresponding to the amount of light received. The electric charge generated in the photodiode is accumulated in a capacitor connected to each photodiode. The electric charge accumulated in this capacitor is read out as an image signal. The A / D converter 1182 converts the image signal read by the image sensor 1181 into a digital image signal (image data).

記録部120は、例えばカメラ1の本体に内蔵される又はカメラ1の本体に対して着脱自在なフラッシュメモリであって、撮像部118を介して得られる画像データに基づいて制御部124により生成された画像ファイルを記録する。   The recording unit 120 is, for example, a flash memory built in the main body of the camera 1 or detachable from the main body of the camera 1, and is generated by the control unit 124 based on image data obtained through the imaging unit 118. Record the recorded image file.

時計部122は、撮影日時等の各種の時間を計る。例えば、撮影日時は、画像ファイルに記録される。   The clock unit 122 measures various times such as shooting date and time. For example, the shooting date and time is recorded in an image file.

制御部124は、カメラ1の各種の動作を制御する。例えば、制御部124は、撮像制御部としての機能を有し、レンズ駆動部103の駆動制御や撮像素子1181の駆動制御を行う。また、制御部124は、表示制御部としての機能を有し、表示部106又はファインダ表示部110の動作を制御して表示部106又はファインダ表示部110に画像を表示させる。また、制御部124は、画像処理部を有し、撮像部118で得られた画像データに対して画像処理を施す。また、制御部124は、画像判定部を有し、画像データの特徴(輪郭や色等)を判定することによって操作者によって指定された対象物を探索する。また、制御部124は、音声処理部を有し、音声入力部116で得られた音声データから操作者が発した音声の内容を認識する。また、制御部124は、タッチ位置識別部としての機能を有し、タッチセンサ1041及びタッチセンサ1081において操作者の指がタッチした検出点の位置(タッチ位置)を識別する。また、制御部124は、圧電制御部としての機能を有し、タッチ位置に応じた圧電素子1042を駆動させるように印加部1043を制御する。   The control unit 124 controls various operations of the camera 1. For example, the control unit 124 has a function as an imaging control unit, and performs driving control of the lens driving unit 103 and driving control of the imaging element 1181. The control unit 124 also has a function as a display control unit, and controls the operation of the display unit 106 or the finder display unit 110 to display an image on the display unit 106 or the finder display unit 110. The control unit 124 includes an image processing unit, and performs image processing on the image data obtained by the imaging unit 118. In addition, the control unit 124 includes an image determination unit, and searches for an object specified by the operator by determining the characteristics (contour, color, etc.) of the image data. Further, the control unit 124 includes a voice processing unit, and recognizes the content of the voice uttered by the operator from the voice data obtained by the voice input unit 116. The control unit 124 has a function as a touch position identification unit, and identifies the position (touch position) of the detection point touched by the operator's finger in the touch sensor 1041 and the touch sensor 1081. The control unit 124 has a function as a piezoelectric control unit, and controls the application unit 1043 so as to drive the piezoelectric element 1042 corresponding to the touch position.

次に、本実施形態における圧電素子の詳細について説明する。もちろん、以下で説明する圧電素子に限るものではない。まず、圧電素子1042について説明する。図3は、圧電素子1042の上面透視図である。また、図4は圧電素子1042の断面図であって、(a)は図3の3A−3A線断面図であり、(b)は図3の3B−3B線断面図であり、(c)は図3の3C−3C線断面図である。   Next, details of the piezoelectric element in the present embodiment will be described. Of course, the present invention is not limited to the piezoelectric element described below. First, the piezoelectric element 1042 will be described. FIG. 3 is a top perspective view of the piezoelectric element 1042. 4 is a cross-sectional view of the piezoelectric element 1042, in which (a) is a cross-sectional view taken along line 3A-3A in FIG. 3, (b) is a cross-sectional view taken along line 3B-3B in FIG. FIG. 4 is a cross-sectional view taken along line 3C-3C in FIG.

一例の圧電素子1042は、2枚の電極の間にポリ乳酸層を挟んで構成されている。以下、さらに詳しく圧電素子1042の構成を説明する。
例えば数十μm程度のポリイミド等の樹脂層である下側絶縁層202上には、タッチセンサ1041の検出点の数に対応した数の信号電極204が形成されている。各信号電極204は、例えば10μm程度の柔軟性を有する透明電極で作製されている。そして、各信号電極204は、対応する印加部に接続されている。例えば、1つの検出点は、図4(c)で示すようにして5枚の信号電極204を有している。これらの5枚の信号電極204には同一の電圧が印加される。
An example of the piezoelectric element 1042 is configured by sandwiching a polylactic acid layer between two electrodes. Hereinafter, the configuration of the piezoelectric element 1042 will be described in more detail.
For example, a number of signal electrodes 204 corresponding to the number of detection points of the touch sensor 1041 are formed on the lower insulating layer 202 which is a resin layer of polyimide or the like of about several tens of μm. Each signal electrode 204 is made of a transparent electrode having flexibility of about 10 μm, for example. Each signal electrode 204 is connected to a corresponding application unit. For example, one detection point has five signal electrodes 204 as shown in FIG. The same voltage is applied to these five signal electrodes 204.

また、下側絶縁層202には、下側グランド(GND)電極206が形成されている。下側GND電極206は、カメラ1に設定されたグランド電位に接続されている。   In addition, a lower ground (GND) electrode 206 is formed on the lower insulating layer 202. The lower GND electrode 206 is connected to the ground potential set in the camera 1.

信号電極204及び下側GND電極206の上には、ポリ乳酸層208が積層されている。ポリ乳酸層208は、圧電性と可撓性とを有する層であって、L体ポリ乳酸層2081とD体ポリ乳酸層2082とを積層して構成されている。L体ポリ乳酸層2081は、少なくとも1枚(図では3枚)のL体ポリ乳酸の薄膜シートを有している。一方、D体ポリ乳酸層2082は、少なくとも1枚(図では3枚)のD体ポリ乳酸の薄膜シートを有している。   A polylactic acid layer 208 is stacked on the signal electrode 204 and the lower GND electrode 206. The polylactic acid layer 208 is a layer having piezoelectricity and flexibility, and is formed by laminating an L-polylactic acid layer 2081 and a D-polylactic acid layer 2082. The L-polylactic acid layer 2081 has at least one (three in the drawing) L-polylactic acid thin film sheet. On the other hand, the D-form polylactic acid layer 2082 has at least one (three in the figure) D-form polylactic acid thin film sheet.

ポリ乳酸層208の上には、上側グランド(GND)電極210が形成されている。すなわち、ポリ乳酸層208は、信号電極204と上側GND電極210との間に挟まれるように形成される。また、上側GND電極210から下側GND電極206にかけては、スルーホール212が形成され、スルーホール212によって上側GND電極210と下側GND電極206とが電気的に接続されている。これにより、上側GND電極210の電位がグランド電位に固定される。   On the polylactic acid layer 208, an upper ground (GND) electrode 210 is formed. That is, the polylactic acid layer 208 is formed so as to be sandwiched between the signal electrode 204 and the upper GND electrode 210. A through hole 212 is formed from the upper GND electrode 210 to the lower GND electrode 206, and the upper GND electrode 210 and the lower GND electrode 206 are electrically connected by the through hole 212. As a result, the potential of the upper GND electrode 210 is fixed to the ground potential.

さらに、上側GND電極210の上には、上側絶縁層214が積層されている。この上側絶縁層214によって圧電素子の内部の電極等が保護されている。   Further, an upper insulating layer 214 is laminated on the upper GND electrode 210. The upper insulating layer 214 protects the electrodes and the like inside the piezoelectric element.

また、断面図で示すように、下側絶縁層202は、軟材質層216を介して基材層218に形成されている。軟材質層216は、例えばシリコーンゴム等の層であり、基材層218は、例えばガラス等の硬質材層である。   Further, as shown in the cross-sectional view, the lower insulating layer 202 is formed on the base material layer 218 via the soft material layer 216. The soft material layer 216 is a layer such as silicone rubber, and the base material layer 218 is a hard material layer such as glass.

次に、圧電素子1082について説明する。圧電素子1082の積層構造は、圧電素子1042と類似しているので、異なる部分を中心に説明する。図5は、圧電素子1082の上面透視図である。また、図6は圧電素子1042の5−5線断面図である。   Next, the piezoelectric element 1082 will be described. Since the laminated structure of the piezoelectric element 1082 is similar to that of the piezoelectric element 1042, the description will focus on different parts. FIG. 5 is a top perspective view of the piezoelectric element 1082. FIG. 6 is a sectional view of the piezoelectric element 1042 taken along line 5-5.

圧電素子1082は、図3で示した圧電素子1042を1つの圧電素子列とし、この圧電素子列を複数配列したものである。以下、さらに詳しく圧電素子1082の構成を説明する。
下側絶縁層202上には、信号電極204が形成されている。1つの圧電素子列は、縦方向に配列された複数(図では5枚)の信号電極204を有している。そして、1つの圧電素子列を構成する各信号電極204には、引き出し電極220が形成されている。1つの圧電素子列を構成する各信号電極204は、引き出し電極220を介して印加部1043又は1083に接続されている。
The piezoelectric element 1082 is obtained by arranging the piezoelectric elements 1042 shown in FIG. 3 as one piezoelectric element array and arranging a plurality of such piezoelectric element arrays. Hereinafter, the configuration of the piezoelectric element 1082 will be described in more detail.
A signal electrode 204 is formed on the lower insulating layer 202. One piezoelectric element array has a plurality (five in the figure) of signal electrodes 204 arranged in the vertical direction. A lead electrode 220 is formed on each signal electrode 204 constituting one piezoelectric element array. Each signal electrode 204 constituting one piezoelectric element array is connected to the application unit 1043 or 1083 via the extraction electrode 220.

また、下側絶縁層202には、1つの圧電素子列について1枚の下側GND電極206が形成されている。   The lower insulating layer 202 has one lower GND electrode 206 for one piezoelectric element array.

信号電極204及び下側GND電極206の上には、ポリ乳酸層208が積層されている。ポリ乳酸層208は、L体ポリ乳酸層2081とD体ポリ乳酸層2082とを積層して構成されている。   A polylactic acid layer 208 is stacked on the signal electrode 204 and the lower GND electrode 206. The polylactic acid layer 208 is configured by laminating an L polylactic acid layer 2081 and a D polylactic acid layer 2082.

ポリ乳酸層208の上には、1つの圧電素子列について1枚の上側GND電極210が形成されている。そして、上側GND電極210から下側GND電極206にかけては、スルーホール212が形成され、スルーホール212によって上側GND電極210と下側GND電極206とが電気的に接続されている。   On the polylactic acid layer 208, one upper GND electrode 210 is formed for one piezoelectric element array. A through hole 212 is formed from the upper GND electrode 210 to the lower GND electrode 206, and the upper GND electrode 210 and the lower GND electrode 206 are electrically connected by the through hole 212.

さらに、上側GND電極210の上には、上側絶縁層214が積層されている。この上側絶縁層214によって圧電素子の内部の電極等が保護されている。   Further, an upper insulating layer 214 is laminated on the upper GND electrode 210. The upper insulating layer 214 protects the electrodes and the like inside the piezoelectric element.

図7は、印加部1043及び1083の構成例を示す図である。印加部1043と印加部1083とは基本的な構成は同一である。したがって、ここでは、印加部1043と印加部1083とを区別せずに説明する。図7に示すように、印加部は、定電圧源3021及び3022と、スイッチ3041a及び3042aと、スイッチ3041b及び3042bと、スイッチ切替部306aと、スイッチ切替部306bと、デコーダ308と、を有している。ここで、図7に示す印加部は、2つの信号電極204に対応した構成を示している。実際には、印加部は、信号電極204のそれぞれに対応して2つのスイッチと、スイッチ切替部とを有している。   FIG. 7 is a diagram illustrating a configuration example of the application units 1043 and 1083. The application unit 1043 and the application unit 1083 have the same basic configuration. Therefore, here, the application unit 1043 and the application unit 1083 will be described without distinction. As shown in FIG. 7, the application unit includes constant voltage sources 3021 and 3022, switches 3041a and 3042a, switches 3041b and 3042b, a switch switching unit 306a, a switch switching unit 306b, and a decoder 308. ing. Here, the application section shown in FIG. 7 shows a configuration corresponding to the two signal electrodes 204. Actually, the application unit includes two switches and a switch switching unit corresponding to each of the signal electrodes 204.

定電圧源3021及び3022は、信号電極204に印加する電圧を生成する電源である。ここで、定電圧源3021は、グランド電位に対して正の電位を有する電圧(例えば+5V)を生成する電源である。また、定電圧源3022は、グランド電位に対して負の電位を有する電圧(例えば−5V)を生成する電源である。   The constant voltage sources 3021 and 3022 are power supplies that generate a voltage to be applied to the signal electrode 204. Here, the constant voltage source 3021 is a power source that generates a voltage (for example, +5 V) having a positive potential with respect to the ground potential. The constant voltage source 3022 is a power source that generates a voltage (eg, −5 V) having a negative potential with respect to the ground potential.

スイッチ3041aは、定電圧源3021と信号電極204のうちの1つの信号電極204aとの間に開閉自在に接続され、スイッチ切替部306aからの制御信号に応じて定電圧源3021と信号電極204aとの間を導通状態又は開放状態とする。スイッチ3042aは、定電圧源3022と信号電極204aとの間に開閉自在に接続され、スイッチ切替部306aからの制御信号に応じて定電圧源3022と信号電極204aとの間を導通状態又は開放状態とする。   The switch 3041a is openably and closably connected between the constant voltage source 3021 and one signal electrode 204a of the signal electrodes 204, and the constant voltage source 3021 and the signal electrode 204a are connected in accordance with a control signal from the switch switching unit 306a. Is in a conductive state or an open state. The switch 3042a is openably and closably connected between the constant voltage source 3022 and the signal electrode 204a, and the constant voltage source 3022 and the signal electrode 204a are in a conductive state or an open state according to a control signal from the switch switching unit 306a. And

スイッチ3041bは、定電圧源3021と信号電極204のうちの別の1つの信号電極204bとの間に開閉自在に接続され、スイッチ切替部306bからの制御信号に応じて定電圧源3021と信号電極204bとの間を導通状態又は開放状態とする。スイッチ3042bは、定電圧源3022と信号電極204bとの間に開閉自在に接続され、スイッチ切替部306bからの制御信号に応じて定電圧源3022と信号電極204bとの間を導通状態又は開放状態とする。   The switch 3041b is openably and closably connected between the constant voltage source 3021 and another signal electrode 204b of the signal electrodes 204, and is connected to the constant voltage source 3021 and the signal electrode in accordance with a control signal from the switch switching unit 306b. A connection state or an open state is established between the terminal 204b and the terminal 204b. The switch 3042b is openably and closably connected between the constant voltage source 3022 and the signal electrode 204b, and is connected or disconnected between the constant voltage source 3022 and the signal electrode 204b in accordance with a control signal from the switch switching unit 306b. And

スイッチ切替部306aは、信号電極204aに対応して設けられ、デコーダ308からの入力に応じてスイッチ3041a及びスイッチ3042aに対して制御信号を入力する。ここで、スイッチ切替部306aは、スイッチ3041aをオンとする場合にはスイッチ3042aをオフとし、スイッチ3042aをオンとする場合にはスイッチ3041aをオフとするように制御信号を入力する。   The switch switching unit 306a is provided corresponding to the signal electrode 204a, and inputs a control signal to the switch 3041a and the switch 3042a in accordance with an input from the decoder 308. Here, the switch switching unit 306a inputs a control signal so that the switch 3042a is turned off when the switch 3041a is turned on, and the switch 3041a is turned off when the switch 3042a is turned on.

スイッチ切替部306bは、信号電極204bに対応して設けられ、デコーダ308からの入力に応じてスイッチ3041b及びスイッチ3042bに対して制御信号を入力する。ここで、スイッチ切替部306bは、スイッチ3041bをオンとする場合にはスイッチ3042bをオフとし、スイッチ3042bをオンとする場合にはスイッチ3041bをオフとするように制御信号を入力する。   The switch switching unit 306b is provided corresponding to the signal electrode 204b, and inputs a control signal to the switch 3041b and the switch 3042b in accordance with an input from the decoder 308. Here, the switch switching unit 306b inputs a control signal so that the switch 3042b is turned off when the switch 3041b is turned on, and the switch 3041b is turned off when the switch 3042b is turned on.

デコーダ308は、制御部124からの圧電素子駆動指示を解読し、解読した圧電素子駆動指示に応じた信号電極に電圧が印加されるようにスイッチ切替部306a、306bに制御信号を入力する。   The decoder 308 decodes the piezoelectric element driving instruction from the control unit 124, and inputs a control signal to the switch switching units 306a and 306b so that a voltage is applied to the signal electrode corresponding to the decoded piezoelectric element driving instruction.

次に、圧電素子の動作を説明する。圧電素子の動作も、圧電素子1042と圧電素子1082とで違いはない。したがって、ここでも圧電素子1042の動作と圧電素子1082の動作とを特に区別せずに説明する。   Next, the operation of the piezoelectric element will be described. The operation of the piezoelectric element is not different between the piezoelectric element 1042 and the piezoelectric element 1082. Therefore, here, the operation of the piezoelectric element 1042 and the operation of the piezoelectric element 1082 will be described without any particular distinction.

タッチセンサのある検出点に対応した信号電極204に正の電圧(例えば+5V)を印加した場合、信号電極204と上側GND電極210との間に発生する電界により、L体ポリ乳酸層2081が伸びてD体ポリ乳酸層2082が縮む。なお、ポリ乳酸層208の変位量は、長辺方向よりも短辺方向の方が大きくなる。また、ポリ乳酸層208は、L体ポリ乳酸層2081、D体ポリ乳酸層2082の順で積層されている。したがって、ポリ乳酸層208は、全体としては、図8(a)に示すようにへこむように屈曲する。ポリ乳酸層208の屈曲によって生じる力により、上側絶縁層214、上側GND電極210、信号電極204、下側絶縁層202も屈曲するので、圧電素子は、全体としてへこむように変形する。なお、ポリ乳酸層208の屈曲によって生じる力は、軟材質層216で吸収されるので基材層218には伝達されない。   When a positive voltage (for example, +5 V) is applied to the signal electrode 204 corresponding to a detection point of the touch sensor, the L polylactic acid layer 2081 extends due to an electric field generated between the signal electrode 204 and the upper GND electrode 210. As a result, the D polylactic acid layer 2082 shrinks. The displacement amount of the polylactic acid layer 208 is larger in the short side direction than in the long side direction. The polylactic acid layer 208 is laminated in the order of an L-polylactic acid layer 2081 and a D-polylactic acid layer 2082. Therefore, as a whole, the polylactic acid layer 208 is bent so as to be recessed as shown in FIG. The upper insulating layer 214, the upper GND electrode 210, the signal electrode 204, and the lower insulating layer 202 are also bent by the force generated by the bending of the polylactic acid layer 208, so that the piezoelectric element is deformed so as to be recessed as a whole. The force generated by the bending of the polylactic acid layer 208 is absorbed by the soft material layer 216 and is not transmitted to the base material layer 218.

また、タッチセンサのある検出点に対応した信号電極204に負の電圧(例えば−5V)を印加した場合、信号電極204と上側GND電極210との間に発生する電界により、L体ポリ乳酸層2081が縮んでD体ポリ乳酸層2082が伸びる。前述と同様、ポリ乳酸層208の変位量は、長辺方向よりも短辺方向の方が大きくなる。また、ポリ乳酸層208は、L体ポリ乳酸層2081、D体ポリ乳酸層2082の順で積層されている。したがって、ポリ乳酸層208は、全体としては、図8(b)に示すように膨らむように屈曲する。ポリ乳酸層208の屈曲によって生じる力により、上側絶縁層214、上側GND電極210、信号電極204、下側絶縁層202も屈曲するので、圧電素子は、全体として膨らむように変形する。なお、ポリ乳酸層208の屈曲によって生じる力は、軟材質層216で吸収されるので基材層218には伝達されない。   When a negative voltage (for example, −5 V) is applied to the signal electrode 204 corresponding to a detection point of the touch sensor, an L-type polylactic acid layer is generated by an electric field generated between the signal electrode 204 and the upper GND electrode 210. 2081 shrinks and the D polylactic acid layer 2082 extends. As described above, the amount of displacement of the polylactic acid layer 208 is greater in the short side direction than in the long side direction. The polylactic acid layer 208 is laminated in the order of an L-polylactic acid layer 2081 and a D-polylactic acid layer 2082. Therefore, the polylactic acid layer 208 is bent so as to swell as shown in FIG. 8B as a whole. The upper insulating layer 214, the upper GND electrode 210, the signal electrode 204, and the lower insulating layer 202 are also bent by the force generated by the bending of the polylactic acid layer 208, so that the piezoelectric element is deformed so as to swell as a whole. The force generated by the bending of the polylactic acid layer 208 is absorbed by the soft material layer 216 and is not transmitted to the base material layer 218.

このようにして、本実施形態における圧電素子は、タッチセンサの各検出点に対応した部分を直接的にへこませるか膨らませることができる。これにより、圧電素子の任意の位置から操作者に対して触覚刺激を与えることが可能である。   In this manner, the piezoelectric element in the present embodiment can directly dent or bulge the portion corresponding to each detection point of the touch sensor. Thereby, it is possible to give a tactile stimulus to the operator from an arbitrary position of the piezoelectric element.

ここで、ポリ乳酸層208は、L体ポリ乳酸層2081とD体ポリ乳酸層2082とを積層して構成している。これは、大きな圧電性(大きな圧電定数)を持たせるためである。操作者に与える触覚刺激の大きさによっては、L体ポリ乳酸層2081とD体ポリ乳酸層2082の何れかのみ積層してポリ乳酸層208を構成しても良い。   Here, the polylactic acid layer 208 is formed by laminating an L-polylactic acid layer 2081 and a D-polylactic acid layer 2082. This is to provide a large piezoelectric property (a large piezoelectric constant). Depending on the magnitude of the tactile stimulus given to the operator, only the L polylactic acid layer 2081 or the D polylactic acid layer 2082 may be laminated to form the polylactic acid layer 208.

また、L体ポリ乳酸層2081とD体ポリ乳酸層2082の積層順は、逆順でも良い。積層順が逆順である場合には、印加部によって正の電圧を印加したときに圧電素子が膨らむように屈曲し、負の電圧を印加したときに圧電素子がへこむように屈曲する。   Further, the stacking order of the L polylactic acid layer 2081 and the D polylactic acid layer 2082 may be reversed. When the stacking order is reverse, the piezoelectric element bends so as to swell when a positive voltage is applied by the application unit, and bends so that the piezoelectric element dents when a negative voltage is applied.

次に、本実施形態に係るタッチ操作装置を有するカメラ1の動作を説明する。図9は、カメラ1のメインの動作を示すフローチャートである。図9の動作は、制御部124が主体となって制御される。また、図9の動作は、例えばカメラ1の電源がオンされた場合に開始される。   Next, the operation of the camera 1 having the touch operation device according to the present embodiment will be described. FIG. 9 is a flowchart showing the main operation of the camera 1. The operation in FIG. 9 is controlled mainly by the control unit 124. Further, the operation of FIG. 9 is started, for example, when the camera 1 is turned on.

図9の動作が開始されると、制御部124は、カメラ1の動作モードが撮影モードか否かを判定する(ステップS101)。カメラ1は、動作モードとして撮影モードと再生モードとを有している。動作モードは、例えば操作者による操作部114又はタッチセンサ1081の操作に従って設定される。   When the operation of FIG. 9 is started, the control unit 124 determines whether or not the operation mode of the camera 1 is the shooting mode (step S101). The camera 1 has a shooting mode and a playback mode as operation modes. The operation mode is set, for example, according to the operation of the operation unit 114 or the touch sensor 1081 by the operator.

ステップS101において、動作モードが撮影モードであると判定した場合に、制御部124は、表示部106にスルー画表示を行わせる(ステップS102)。スルー画表示として、制御部124は、撮像部118を起動してスルー画表示用の画像データを取得する。画像データの取得後、制御部124は、取得した画像データに対してホワイトバランス補正やガンマ補正等の一般的なスルー画表示用の画像処理を行う。スルー画表示用の画像処理の後、制御部124は、処理した画像データを表示部106に入力して表示部106による画像の表示を行わせる。   If it is determined in step S101 that the operation mode is the shooting mode, the control unit 124 causes the display unit 106 to display a through image (step S102). As a through image display, the control unit 124 activates the imaging unit 118 and acquires image data for through image display. After acquiring the image data, the control unit 124 performs general image processing for displaying a through image such as white balance correction and gamma correction on the acquired image data. After the through-image display image processing, the control unit 124 inputs the processed image data to the display unit 106 and causes the display unit 106 to display the image.

表示部106へのスルー画表示の後、制御部124は、アイセンサ112の検出結果から、操作者によるファインダ表示部110の覗き込みがあるか否かを判定する(ステップS103)。ステップS103において、ファインダ表示部110の覗き込みがないと判定した場合に、制御部124は、ファインダ表示部110へのスルー画表示を終了させる(ステップS104)。また、ステップS103において、ファインダ表示部110の覗き込みがあると判定した場合に、制御部124は、ファインダ表示部110にスルー画表示を行わせる(ステップS105)。ファインダ表示部110へのスルー画表示は、画像データの入力先がファインダ表示部110である点以外は表示部106へのスルー画表示と同様である。ファインダ表示部対してホワイトバランス補正やガンマ補正等の一般的なスルー画表示用の画像処理を行う。スルー画表示用の画像処理の後、制御部124は、処理した画像データを表示部106に入力して表示部106による画像の表示を行わせる。ファインダ表示部110へのスルー画表示の後、制御部124は、表示部106へのスルー画表示を終了させる(ステップS106)。   After the through image is displayed on the display unit 106, the control unit 124 determines from the detection result of the eye sensor 112 whether the operator has looked into the finder display unit 110 (step S103). If it is determined in step S103 that the viewfinder display unit 110 is not looked into, the control unit 124 ends the through image display on the viewfinder display unit 110 (step S104). If it is determined in step S103 that the viewfinder display unit 110 is viewed, the control unit 124 causes the viewfinder display unit 110 to display a through image (step S105). The through image display on the finder display unit 110 is the same as the through image display on the display unit 106 except that the input destination of the image data is the finder display unit 110. General view image display image processing such as white balance correction and gamma correction is performed on the finder display unit. After the through-image display image processing, the control unit 124 inputs the processed image data to the display unit 106 and causes the display unit 106 to display the image. After the through image display on the finder display unit 110, the control unit 124 ends the through image display on the display unit 106 (step S106).

スルー画表示の後、制御部124は、タッチセンサ1081の検出結果から、操作者による表示部106の表示画面内へのタッチがされたか否かを判定する(ステップS107)。   After the through image display, the control unit 124 determines from the detection result of the touch sensor 1081 whether or not the operator has touched the display screen of the display unit 106 (step S107).

ステップS104において、操作者による表示部106の表示画面内へのタッチがされたと判定した場合に、制御部124は、後で詳しく説明する振動制御のための対象物の指定が既になされているか否かを判定する(ステップS108)。   If it is determined in step S104 that the operator has touched the display screen of the display unit 106, the control unit 124 determines whether or not an object for vibration control, which will be described in detail later, has already been specified. Is determined (step S108).

ステップS108において、対象物が指定済みであると判定した場合に、制御部124は、圧電素子の振動制御を行う(ステップS109)。振動制御については後で詳しく説明する。   If it is determined in step S108 that the target has been designated, the control unit 124 performs vibration control of the piezoelectric element (step S109). The vibration control will be described in detail later.

ステップS108において、対象物が指定済みでないと判定した場合に、制御部124は、タッチ操作装置104の動作モードが対象物指定モードとなっているか否かを判定する(ステップS110)。カメラ1は、スルー画表示中のタッチ操作装置104の動作モードとして、タッチレリーズモードと対象物指定モードとを含む。タッチレリーズモードは、操作者のタッチ操作装置104に対するタッチ操作に応じて撮影を実行するモードである。一方、対象物指定モードは、操作者がタッチ操作装置104を用いて対象物を指定するためのモードである。これらの動作モードは、例えば図示しないメニュー画面におけるタッチ操作によって設定される。   If it is determined in step S108 that the object has not been specified, the control unit 124 determines whether or not the operation mode of the touch operation device 104 is the object specifying mode (step S110). The camera 1 includes a touch release mode and an object designation mode as operation modes of the touch operation device 104 during live view display. The touch release mode is a mode in which shooting is performed in response to an operator's touch operation on the touch operation device 104. On the other hand, the object designation mode is a mode for an operator to designate an object using the touch operation device 104. These operation modes are set by, for example, a touch operation on a menu screen (not shown).

ステップS110において、タッチ操作装置104の動作モードが対象物指定モードでない、すなわちタッチレリーズモードであると判定した場合に、制御部124は、撮影及び画像記録動作を実行する(ステップS111)。撮影動作として、制御部124は、AF制御を行って撮影レンズ102の光学系のピント合わせをするとともに、AE制御を行って撮影時の露出条件を決定する。ここで、ステップS111においては、タッチされた位置の被写体に対してピント及び露出を合わせるようにAF制御及びAE制御を行う。続いて、制御部124は、AE制御によって決定された露出条件に従って撮像部118に撮像動作を行わせる。撮像動作の後、制御部124は、撮像部118の撮像動作の結果として得られた画像データに対し、ホワイトバランス補正やガンマ補正、圧縮処理等の一般的な記録用の画像処理を行う。記録用の画像処理の後、制御部124は、圧縮処理された画像データに基づいて画像ファイルを生成し、生成した画像ファイルを記録部120に記録させる。このような撮影動作の後、制御部124は、処理をステップS119に移行させる。   In step S110, when it is determined that the operation mode of the touch operation device 104 is not the object designation mode, that is, the touch release mode, the control unit 124 performs shooting and image recording operations (step S111). As a photographing operation, the control unit 124 performs AF control to focus the optical system of the photographing lens 102 and performs AE control to determine an exposure condition during photographing. Here, in step S111, AF control and AE control are performed so that the subject at the touched position is focused and exposed. Subsequently, the control unit 124 causes the imaging unit 118 to perform an imaging operation in accordance with the exposure condition determined by the AE control. After the imaging operation, the control unit 124 performs general recording image processing such as white balance correction, gamma correction, and compression processing on the image data obtained as a result of the imaging operation of the imaging unit 118. After the image processing for recording, the control unit 124 generates an image file based on the compressed image data, and causes the recording unit 120 to record the generated image file. After such a photographing operation, the control unit 124 shifts the process to step S119.

ステップS110において、対象物指定モードであると判定した場合に、制御部124は、指定モードが同時指定モードであるか否かを判定する(ステップS112)。対象物指定モードは、指定モードとして、同時指定モードと、対象物のみ指定モードと、位置のみ指定モードとを有している。これらの指定モードは、例えば図示しないメニュー画面におけるタッチ操作によって設定される。ステップS112において、同時指定モードであると判定した場合に、制御部124は、操作者によってタッチされた位置の情報とその位置における被写体(対象物)の情報とを取得し、取得した位置情報及び対象物情報を図示しない記憶部に記憶させる(ステップS113)。ここで、対象物情報は、被写体の名称や形状等の情報が含まれる。被写体の名称は、例えば画像認識によって特定される。被写体の形状は、輪郭抽出等で検出される。ここで、対象物が移動体の場合には、対象物の追尾を行って位置情報を更新することが望ましい。   When it is determined in step S110 that the object designation mode is set, the control unit 124 determines whether or not the designation mode is the simultaneous designation mode (step S112). The object designation mode has a simultaneous designation mode, an object only designation mode, and a position only designation mode as designation modes. These designation modes are set by a touch operation on a menu screen (not shown), for example. When it is determined in step S112 that the mode is the simultaneous designation mode, the control unit 124 acquires information on the position touched by the operator and information on the subject (target object) at the position, and acquires the acquired position information and The object information is stored in a storage unit (not shown) (step S113). Here, the object information includes information such as the name and shape of the subject. The name of the subject is specified by image recognition, for example. The shape of the subject is detected by contour extraction or the like. Here, when the object is a moving object, it is desirable to track the object and update the position information.

ステップS112において、同時指定モードでないと判定した場合に、制御部124は、指定モードが対象物のみ指定モードであるか否かを判定する(ステップS114)。ステップS114において、対象物のみ指定モードであると判定した場合に、制御部124は、操作者に対象物を指定させるためのメニュー画面を表示部106に表示させる(ステップS115)。図10は、メニュー画面の例を示す図である。操作者は、メニュー画面上に表示された対象物の一覧の中から所望の対象物の項目をタッチする。タッチ操作を受けて、制御部124は、操作者によってタッチされた項目の対象物を、スルー画表示中に得られる画像データから探索する(ステップS116)。対象物の探索は、周知の顔検出技術及び特徴量検出技術等を用いて行うことができる。この他、例えば対象物が空であれば、画面上方にあるローコーントラスト部分が空であると識別する。また、特定の画像データベースから、重要画像の特徴を読み出し、この重要画像との比較によって対象物を探索しても良い。専用の機器である場合、重要画像を自動で設定できる可能性は高い。例えば、車載用の機器に対しては対向車(すなわち自動車)や歩行者(すなわち人物)の画像を重要画像とすることができる。また、産業用の機器に対してはクラックや断線の画像、医療用の機器に対しては病変の画像を重要画像とすることができる。これらの重要画像は、テキストや音声と関連づけられていても良い。対象物の探索後、制御部124は、探索した対象物のタッチ操作装置104上の位置情報及び対象物情報を図示しない記憶部に記憶させる(ステップS117)。   If it is determined in step S112 that the mode is not the simultaneous designation mode, the control unit 124 determines whether or not the designation mode is the object only designation mode (step S114). If it is determined in step S114 that only the object is in the designation mode, the control unit 124 causes the display unit 106 to display a menu screen for allowing the operator to designate the object (step S115). FIG. 10 is a diagram illustrating an example of a menu screen. The operator touches an item of a desired object from the list of objects displayed on the menu screen. Upon receiving the touch operation, the control unit 124 searches for the object of the item touched by the operator from the image data obtained during the through image display (step S116). The search for an object can be performed using a well-known face detection technique, feature amount detection technique, or the like. In addition, for example, if the object is empty, the low cone trust portion at the top of the screen is identified as empty. Further, the feature of the important image may be read from a specific image database, and the object may be searched for by comparison with the important image. In the case of a dedicated device, there is a high possibility that important images can be set automatically. For example, an image of an oncoming vehicle (that is, an automobile) or a pedestrian (that is, a person) can be used as an important image for a vehicle-mounted device. In addition, an image of a crack or disconnection can be used as an important image for an industrial device, and an image of a lesion can be used as an important image for a medical device. These important images may be associated with text or sound. After searching for the object, the control unit 124 stores the position information of the searched object on the touch operation device 104 and the object information in a storage unit (not shown) (step S117).

ステップS114において、対象物のみ指定モードでない、すなわち位置のみ指定モードであると判定した場合に、制御部124は、操作者によってタッチ位置の情報を図示しない記憶部に記憶させる(ステップS118)。ここでの位置のみ指定モードは、点の指定を可能とするモードである。位置のみではなく、範囲を指定できるようにしても良い。この場合、例えば、図11に示すようにして操作者によって図示矢印Aで示すようにしてある範囲が指でなぞられたことを検出した場合に、制御部124は、その範囲の位置情報を図示しない記憶部に記憶させる。   If it is determined in step S114 that the object only mode is not specified, that is, the position only mode is selected, the control unit 124 causes the operator to store information on the touch position in a storage unit (not shown) (step S118). The position only designation mode here is a mode that enables designation of a point. Not only the position but also the range may be designated. In this case, for example, when the operator detects that a certain range is traced with the finger as shown by the illustrated arrow A as shown in FIG. 11, the control unit 124 shows the positional information of the range. Not stored in the storage unit.

続いて、制御部124は、音声入力部116からの信号に従って、操作者の音声が入力されたか否かを判定する(ステップS119)。ステップS119において、音声入力がないと判定した場合に、制御部124は、処理をステップS123に移行させる。   Subsequently, the control unit 124 determines whether or not the operator's voice has been input according to the signal from the voice input unit 116 (step S119). When determining in step S119 that there is no voice input, the control unit 124 shifts the process to step S123.

ステップS119において、音声入力があると判定した場合に、制御部124は、音声データを取り込み、取り込んだ音声データの内容を認識する(ステップS120)。認識された音声データの内容が予め登録してある対象物の名称(色や形状等でも良い)と一致したとき、制御部124は、認識した対象物を、スルー画表示中に得られる画像データから探索する(ステップS121)。対象物の探索後、制御部124は、探索した対象物のタッチ操作装置104上の位置情報及び対象物情報を図示しない記憶部に記憶させる(ステップS122)。   When it is determined in step S119 that there is a voice input, the control unit 124 takes in the voice data and recognizes the contents of the fetched voice data (step S120). When the content of the recognized audio data matches the name of an object registered in advance (color or shape may be used), the control unit 124 obtains the recognized object as image data obtained during live view display. Search from (step S121). After searching for the object, the control unit 124 stores the position information of the searched object on the touch operation device 104 and the object information in a storage unit (not shown) (step S122).

続いて、制御部124は、操作者によって撮影操作がなされたか否かを判定する(ステップS123)。撮影操作は、例えば操作部114のレリーズボタン1141の押操作である。ステップS123において、撮影操作がなされていないと判定した場合に、制御部124は、処理をステップS101に戻す。   Subsequently, the control unit 124 determines whether or not a shooting operation has been performed by the operator (step S123). The photographing operation is, for example, a pressing operation of the release button 1141 of the operation unit 114. If it is determined in step S123 that no photographing operation has been performed, the control unit 124 returns the process to step S101.

ステップS123において、撮影操作がなされたと判定した場合に、制御部124は、撮影及び画像記録動作を実行する(ステップS124)。撮影動作として、制御部124は、AF制御を行って撮影レンズ102の光学系のピント合わせをするとともに、AE制御を行って撮影時の露出条件を決定する。ステップS124においては、例えば中央の被写体や最も近い被写体に対してピントを合わせようにAF制御を行う。続いて、制御部124は、AE制御によって決定された露出条件に従って撮像部118に記録用の撮像動作を行わせる。記録用の撮像動作の後、制御部124は、撮像部118の撮像動作の結果として得られた画像データに対し、ホワイトバランス補正やガンマ補正、圧縮処理等の一般的な記録用の画像処理を行う。記録用の画像処理の後、制御部124は、圧縮処理された画像データに基づいて画像ファイルを生成し、生成した画像ファイルを記録部120に記録させる。   If it is determined in step S123 that a shooting operation has been performed, the control unit 124 performs shooting and image recording operations (step S124). As a photographing operation, the control unit 124 performs AF control to focus the optical system of the photographing lens 102 and performs AE control to determine an exposure condition during photographing. In step S124, for example, AF control is performed so that the center subject or the closest subject is in focus. Subsequently, the control unit 124 causes the imaging unit 118 to perform an imaging operation for recording in accordance with the exposure condition determined by the AE control. After the recording imaging operation, the control unit 124 performs general recording image processing such as white balance correction, gamma correction, and compression processing on the image data obtained as a result of the imaging operation of the imaging unit 118. Do. After the image processing for recording, the control unit 124 generates an image file based on the compressed image data, and causes the recording unit 120 to record the generated image file.

撮影及び画像記録動作の後、制御部124は、現在、対象物の情報と位置情報の少なくとも何れかを記憶しているか否かを判定する(ステップS125)。ステップS125において、対象物の情報と位置情報の何れも記憶していない、すなわち対象物の指定がされていない判定した場合に、制御部124は、処理をステップS101に戻す。   After the photographing and image recording operations, the control unit 124 determines whether or not at least one of the object information and the position information is currently stored (step S125). If it is determined in step S125 that neither the object information nor the position information is stored, that is, the object is not specified, the control unit 124 returns the process to step S101.

ステップS125において、対象物の情報と位置情報の少なくとも何れかを記憶していると判定した場合に、制御部124は、記憶している対象物の情報又は位置情報をステップS124において記録した画像ファイルに追記する(ステップS126)。その後、制御部124は、処理をステップS101に戻す。   When it is determined in step S125 that at least one of the object information and the position information is stored, the control unit 124 records the stored object information or position information in step S124. (Step S126). Thereafter, the control unit 124 returns the process to step S101.

ステップS101において、動作モードが撮影モードでないと判定した場合に、制御部124は、動作モードが再生モードであるか否かを判定する(ステップS127)。ステップS127において、動作モードが再生モードでないと判定したとき、制御部124は、処理をステップS101に戻す。ステップS127において、動作モードが再生モードであると判定した場合に、制御部124は、再生モードの処理を行う(ステップS128)。再生モードの処理の詳細については後で詳しく説明する。   If it is determined in step S101 that the operation mode is not the shooting mode, the control unit 124 determines whether or not the operation mode is the reproduction mode (step S127). When determining in step S127 that the operation mode is not the reproduction mode, the control unit 124 returns the process to step S101. If it is determined in step S127 that the operation mode is the playback mode, the control unit 124 performs a playback mode process (step S128). Details of the processing in the reproduction mode will be described later in detail.

図12は、振動制御の処理を示すフローチャートである。振動制御の処理は、操作者がタッチしている位置と対象物の位置との位置関係に応じて操作者の指に対して触覚刺激を与える処理である。   FIG. 12 is a flowchart illustrating vibration control processing. The vibration control process is a process for giving a tactile stimulus to the finger of the operator according to the positional relationship between the position touched by the operator and the position of the object.

図12において、制御部124は、現在、対象物の情報と位置情報の両方を記憶しているか否かを判定する(ステップS201)。ステップS201において、対象物の情報と位置情報の両方を記憶していると判定した場合、すなわち位置のみ指定モード以外で指定がなされた場合に、制御部124は、記憶している対象物の位置とタッチ位置とが同じ位置であるか否かを判定する(ステップS202)。ここでは、両者の位置差が許容範囲内であれば同じ位置であるとする。   In FIG. 12, the control unit 124 determines whether or not both the object information and the position information are currently stored (step S201). When it is determined in step S201 that both the object information and the position information are stored, that is, when designation is made in a mode other than the position designation mode, the control unit 124 stores the position of the stored object. It is determined whether or not the touch position is the same position (step S202). Here, if the positional difference between the two is within an allowable range, the same position is assumed.

ステップ202において、記憶している対象物の位置とタッチ位置とが同じ位置であると判定した場合に、制御部124は、図13に示すように、圧電素子1082におけるタッチ位置の検出点に対応した部分を振動させる(ステップS203)。その後、制御部124は、図12の処理を終了させる。このように、本実施形態では、操作者が、図14に示すようにして例えば音声によって対象物「空」を指定して、空の部分にタッチすると、指に振動刺激が与えられる。これにより、操作者は、自身が予め指定した対象物の位置に指をタッチさせていること、すなわち画面内における対象物の位置を表示部106の表示を見なくとも知ることができる。このため、ユーザは、自分が指定した対象物がそこにあることを瞬時に判断可能で、いちいち画面を確認せずとも安心して撮影ができ、指定していなくとも注意をひくべき対象物がそこにあることを視覚以外で確認可能である。   When it is determined in step 202 that the position of the stored object and the touch position are the same position, the control unit 124 corresponds to the touch position detection point in the piezoelectric element 1082 as shown in FIG. The part which was made is vibrated (step S203). Thereafter, the control unit 124 ends the process of FIG. As described above, in the present embodiment, when the operator designates the object “empty” by voice, for example, as shown in FIG. 14 and touches the empty portion, vibration stimulation is given to the finger. As a result, the operator can know that the finger is touching the position of the object specified in advance, that is, the position of the object in the screen without looking at the display on the display unit 106. For this reason, the user can instantly determine that the object that he / she has specified is there, and can shoot without worrying about checking the screen one by one. It is possible to confirm that there is something other than visual.

ここで、図13は、圧電素子1082を振動させる例である。これに対し、鏡枠の周囲に形成された圧電素子1042を振動させても良いし、レリーズボタン1141を振動させるようにしても良い。すなわち、撮影時において操作者の指が触れ得る箇所であれば振動させて良い。さらには、振動による触覚刺激以外の他の視覚以外の感覚刺激、例えば音声による聴覚刺激等の他の手法を用いて操作者に対象物の位置を通知するようにしても良い。音声で通知する場合、制御部124は、スピーカ123を制御して音声を発する。ウェアラブルの機器に応用する場合は、人体に接触する部位への振動が有効であり、車載機器の場合、ハンドルに振動を起こしたり、産業機器や医療機器の場合、操作部材が振動するようにすれば効果的である。   Here, FIG. 13 shows an example in which the piezoelectric element 1082 is vibrated. On the other hand, the piezoelectric element 1042 formed around the lens frame may be vibrated, or the release button 1141 may be vibrated. That is, it may be vibrated as long as it can be touched by an operator's finger during photographing. Furthermore, the position of the target object may be notified to the operator using other methods such as sensory stimuli other than vision other than tactile stimuli caused by vibration, for example, auditory stimuli using voice. When notifying by voice, the control unit 124 controls the speaker 123 to emit voice. When applied to wearable devices, vibration to the parts that come into contact with the human body is effective.For in-vehicle devices, the handle may vibrate, and for industrial and medical devices, the operating members should vibrate. It is effective.

ステップ202において、記憶している対象物の位置とタッチ位置とが同じ位置でないと判定した場合に、制御部124は、図15(a)及び図15(b)に示すように、タッチ位置に対応した検出点から対象物の位置の検出点に向かって圧電素子1042を順次にへこませる(ステップS204)。なお、へこみ量は、一定量としても良いし、対象物の位置とタッチ位置とのずれ量に応じて変化させるようにしても良い。その後、制御部124は、図12の処理を終了させる。例えば、図16に示すように、指定されていた対象物が人物(顔)であり、操作者のタッチ位置が顔の位置から右にずれていた場合、操作者の指の位置から左方向に向かって圧電素子1082が順次にへこむ。また、図17に示すように、指定されていた対象物が人物(顔)であり、操作者のタッチ位置が顔の位置から上にずれていた場合、操作者の指の位置から下方向に向かって圧電素子1082が順次にへこむ。このようにしてタッチ位置から対象物の位置までの部分を順次にへこませることによって、対象物の位置まで指を案内することができる。タッチした部位の振動のみならず、別の部位や部品の振動でも、2次元に広がる画像に対応し、X方向、Y方向が分かるような振動変化方向であれば効果的にずれを伝えられる。これを水平方向、垂直方向に置き換えて振動させるのも有効である。このような工夫によって、ずれていることが目視なく認識できる。もちろん、方向やずれ具合によって振動を変更しても良い。近いほど強く、遠いほど弱くとか、Y方向ずれとX方向ずれで振動パターンを変えても良い。また、音声の補助があっても良く、画面を見ないで済むような発光パターン等で補助しても良い。   When it is determined in step 202 that the position of the stored object and the touch position are not the same position, the control unit 124 sets the touch position as shown in FIGS. 15A and 15B. The piezoelectric elements 1042 are sequentially dented from the corresponding detection point toward the detection point of the position of the object (step S204). The dent amount may be a fixed amount, or may be changed according to the amount of deviation between the position of the object and the touch position. Thereafter, the control unit 124 ends the process of FIG. For example, as shown in FIG. 16, when the designated object is a person (face) and the operator's touch position is shifted to the right from the face position, the operator's finger position is shifted to the left. The piezoelectric elements 1082 are sequentially dented in the direction. As shown in FIG. 17, when the designated object is a person (face) and the touch position of the operator is shifted upward from the face position, the operator moves downward from the finger position. The piezoelectric elements 1082 are sequentially dented in the direction. In this way, the finger can be guided to the position of the object by sequentially denting the portion from the touch position to the position of the object. Not only the vibration of the touched part, but also the vibration of another part or part corresponds to an image spread in two dimensions, and the deviation can be effectively transmitted if the vibration change direction is such that the X direction and the Y direction can be understood. It is also effective to replace this with the horizontal direction and the vertical direction to vibrate. By such a device, it is possible to recognize that there is a shift without visual observation. Of course, the vibration may be changed depending on the direction and the degree of displacement. The vibration pattern may be changed depending on the deviation in the Y direction and the deviation in the X direction. In addition, audio assistance may be provided, or a light emission pattern that does not require viewing the screen may be used.

ここで、図15(a)及び図15(b)は、圧電素子1082を振動させる例である。これに対し、圧電素子1042を振動させても良い。この場合、ずれの方向と振動部分とを関連付けておくようにしても良い。例えば、操作者のタッチ位置が顔の位置から右にずれていた場合、鏡枠の右側部分を振動させ、操作者のタッチ位置が顔の位置から上にずれていた場合、鏡枠の上側部分を振動させる。   Here, FIG. 15A and FIG. 15B are examples in which the piezoelectric element 1082 is vibrated. On the other hand, the piezoelectric element 1042 may be vibrated. In this case, the direction of deviation and the vibration part may be associated with each other. For example, if the operator's touch position is shifted to the right from the face position, the right part of the lens frame is vibrated, and if the operator's touch position is shifted from the face position, the upper part of the lens frame Vibrate.

ステップS201において、対象物の情報と位置情報の両方を記憶していないと判定した場合、すなわち位置のみ指定モードで指定がなされた場合に、制御部124は、記憶している位置と対象物の位置とが同じ位置であるか否かを判定する(ステップS205)。ここでは、両者の位置差が許容範囲内であれば同じ位置であるとする。また、対象物は、予め定められているものとする。ステップS205における判定においては、定められた対象物を画像データから探索してその位置を記憶位置と比較する。   In step S201, when it is determined that both the object information and the position information are not stored, that is, when designation is made in the position only designation mode, the control unit 124 stores the stored position and the object information. It is determined whether or not the position is the same position (step S205). Here, if the positional difference between the two is within an allowable range, the same position is assumed. The object is assumed to be predetermined. In the determination in step S205, the determined object is searched from the image data and its position is compared with the storage position.

ステップS205において、記憶している位置と対象物の位置とが同じ位置であると判定した場合に、制御部124は、図13と同様に、圧電素子1082におけるタッチ位置の検出点に対応した部分を振動させる(ステップS206)。その後、制御部124は、図12の処理を終了させる。このようにして、操作者は、対象物が予め指定した位置にあることを表示部106の表示を見なくとも知ることができる。また、振動がない場合には、対象物が指定された位置にいないことを示している。このとき、操作者は表示部106の画面をみずに対象物を目視しながら対象物が特定の位置にくるようにカメラ1を動かすことが期待される。これにより、例えばカメラ1において設定されている画角が狭く、表示画面上で対象物を確認できないような場合であっても、正しく対象物を表示画面内に収めて撮影を行うことが可能である。
また、撮影用の対象物に限る必要はない。本実施形態の技術は、専用の観察機器への応用でも良い。このような専用の観察機器の場合、自動で対象物を設定し、設定した対象物が画面内にあるかを判定しても良い。このような対象物としては、車載用の機器ならな対向車や歩行者、産業用の機器ならばクラックや断線、医療用の機器ならば病変の画像等が相当する。これらの対象物の画像特徴は、テキストや音声と関連づけられていて、指定が可能であってもよい。また、対象物が撮影できるかを判定するのではなく、単に対象物が画像範囲に入ってきたかの判定だけでも良い。
If it is determined in step S205 that the stored position and the position of the target object are the same position, the control unit 124 corresponds to the touch position detection point on the piezoelectric element 1082, as in FIG. Is vibrated (step S206). Thereafter, the control unit 124 ends the process of FIG. In this way, the operator can know that the object is at a position designated in advance without looking at the display on the display unit 106. Further, when there is no vibration, it indicates that the object is not at the designated position. At this time, the operator is expected to move the camera 1 so that the object comes to a specific position while viewing the object without looking at the screen of the display unit 106. As a result, for example, even when the angle of view set in the camera 1 is narrow and the object cannot be confirmed on the display screen, it is possible to capture the object correctly within the display screen. is there.
Moreover, it is not necessary to limit to the object for photography. The technique of this embodiment may be applied to a dedicated observation device. In the case of such a dedicated observation device, an object may be automatically set, and it may be determined whether the set object is in the screen. Such an object corresponds to an oncoming vehicle or a pedestrian that is a vehicle-mounted device, a crack or a disconnection that is an industrial device, a lesion image that is a medical device, or the like. The image features of these objects may be associated with text or audio and can be specified. Further, instead of determining whether the object can be photographed, it may be merely determining whether the object has entered the image range.

ここで、ステップS206において、鏡枠の周囲に形成された圧電素子1042を振動させても良いし、レリーズボタン1141を振動させるようにしても良い。すなわち、撮影時において操作者の指が触れ得る箇所であれば振動させて良い。さらには、圧電素子1082の振動以外の音声等の他の手法を用いて操作者に対象物の位置を通知するようにしても良い。   Here, in step S206, the piezoelectric element 1042 formed around the lens frame may be vibrated, or the release button 1141 may be vibrated. That is, it may be vibrated as long as it can be touched by an operator's finger during photographing. Furthermore, the operator may be notified of the position of the object using other methods such as sound other than the vibration of the piezoelectric element 1082.

ステップ205において、記憶している対象物の位置と対象物の位置とが同じ位置でないと判定した場合に、制御部124は、タッチ位置から、記憶位置と対象物の位置とのずれ方向に向かって圧電素子1042を順次にへこませる(ステップS207)。なお、へこみ量は、一定量としても良いし、対象物の位置とタッチ位置とのずれ量に応じて変化させるようにしても良い。その後、制御部124は、図12の処理を終了させる。   If it is determined in step 205 that the position of the stored object and the position of the object are not the same position, the control unit 124 moves from the touch position in the direction of deviation between the storage position and the position of the object. Then, the piezoelectric elements 1042 are sequentially dented (step S207). The dent amount may be a fixed amount, or may be changed according to the amount of deviation between the position of the object and the touch position. Thereafter, the control unit 124 ends the process of FIG.

ここで、ステップS206において、圧電素子1042を振動させても良い。この場合、ずれの方向と振動部分とを関連付けておくようにしても良い。例えば、操作者のタッチ位置が顔の位置から右にずれていた場合、鏡枠の右側部分を振動させ、操作者のタッチ位置が顔の位置から上にずれていた場合、鏡枠の上側部分を振動させる。   Here, in step S206, the piezoelectric element 1042 may be vibrated. In this case, the direction of deviation and the vibration part may be associated with each other. For example, if the operator's touch position is shifted to the right from the face position, the right part of the lens frame is vibrated, and if the operator's touch position is shifted from the face position, the upper part of the lens frame Vibrate.

図18は、再生モードの処理を示すフローチャートである。本実施形態では、撮影モード時だけでなく、再生モード時においても振動制御を行うようにしている。   FIG. 18 is a flowchart showing processing in the playback mode. In the present embodiment, vibration control is performed not only in the shooting mode but also in the playback mode.

再生モード時に、制御部124は、記録部120に記録されている画像ファイルの一覧を表示部106に表示させる(ステップS301)。続いて、制御部124は、操作者によって画像ファイルの選択がなされたか否かを判定する(ステップS302)。ステップS302において、画像ファイルの選択がなされていないと判定した場合に、制御部124は、処理をステップS319に移行させる。   In the playback mode, the control unit 124 causes the display unit 106 to display a list of image files recorded in the recording unit 120 (step S301). Subsequently, the control unit 124 determines whether an image file has been selected by the operator (step S302). If it is determined in step S302 that no image file has been selected, the control unit 124 shifts the process to step S319.

ステップS302において、画像ファイルの選択がなされたと判定した場合に、制御部124は、操作者により選択された画像ファイルを再生する(ステップS303)。再生処理において、制御部124は、操作者により選択された画像ファイルを記録部120から読み出し、読みだした画像ファイルを伸長する。そして、制御部124は、伸長された画像データを表示部106に入力して画像の表示を行う。   If it is determined in step S302 that an image file has been selected, the control unit 124 reproduces the image file selected by the operator (step S303). In the reproduction process, the control unit 124 reads the image file selected by the operator from the recording unit 120, and decompresses the read image file. Then, the control unit 124 inputs the decompressed image data to the display unit 106 and displays the image.

画像ファイルの再生後のステップS304〜S318の処理は、ステップS107〜122で説明した対象物の指定及び振動制御の処理である。したがって、説明を省略する。ただし、図18からは、撮影に関する処理をなくしている。具体的には、ステップS111の撮影及び画像記録処理とステップS118の位置のみ指定モードとをなくしている。   The processes in steps S304 to S318 after the reproduction of the image file are the object designation and vibration control processes described in steps S107 to S122. Therefore, the description is omitted. However, from FIG. 18, processing related to shooting is eliminated. Specifically, the shooting and image recording processing in step S111 and the designation mode only in the position in step S118 are eliminated.

振動制御の処理や対象物の指定の後、制御部124は、操作者により再生モードの終了が指示されたか否かを判定する(ステップS319)。例えば、動作モードが切り替えられた場合に再生モードの終了が指示されたと判定する。ステップS319において、再生モードの終了が指示されていないと判定した場合に、制御部124は、操作者により画像を変更する指示がされたか否かを判定する(ステップS320)。例えば、再生中の画像の再生終了が指示された場合に、画像を変更する指示がされたと判定する。ステップS320において、画像を変更する指示がされたと判定した場合、制御部124は、処理をステップ301に戻す。また、画像を変更する指示がされていないと判定した場合、制御部124は、処理をステップ303に戻す。   After the vibration control process and target object specification, the control unit 124 determines whether or not the operator has instructed the end of the reproduction mode (step S319). For example, when the operation mode is switched, it is determined that the end of the reproduction mode is instructed. If it is determined in step S319 that the end of the playback mode has not been instructed, the control unit 124 determines whether an instruction to change the image has been given by the operator (step S320). For example, when an instruction to end reproduction of an image being reproduced is given, it is determined that an instruction to change the image has been given. If it is determined in step S320 that an instruction to change the image has been given, the control unit 124 returns the process to step 301. If it is determined that an instruction to change the image has not been given, the control unit 124 returns the process to step 303.

以上説明したように、本実施形態によれば、操作者のタッチ位置と予め指定した対象物の位置との位置関係に応じて圧電素子を屈曲させたり振動させたりすることによって操作者の指に触覚刺激を与えるようにしている。これにより、操作者は、表示部106の表示画面を見なくとも、また特別な知識がなくとも、画像内の対象物の位置を認識することが可能である。   As described above, according to the present embodiment, the piezoelectric element is bent or vibrated according to the positional relationship between the touch position of the operator and the position of the object specified in advance, so that the finger of the operator Tactile stimulation is given. Thus, the operator can recognize the position of the object in the image without looking at the display screen of the display unit 106 or without special knowledge.

また、本実施形態によれば、タッチセンサに形成された圧電素子の部分毎に信号電極を形成することによって、圧電素子を部分毎に屈曲させることが可能である。これにより、タッチセンサ上の任意の位置を他と独立して屈曲させることが可能である。これにより、操作者の指に対して直接的に触覚刺激を与えることが可能である。   Moreover, according to this embodiment, it is possible to bend a piezoelectric element for every part by forming a signal electrode for every part of the piezoelectric element formed in the touch sensor. Thereby, an arbitrary position on the touch sensor can be bent independently of the others. Thereby, it is possible to give a tactile stimulus directly to an operator's finger.

また、本実施形態では、2枚の電極の間にポリ乳酸層を挟んで圧電素子を構成している。ポリ乳酸層は透明材であるので、表示部106の上に圧電素子を形成したとしても表示部106の表示が邪魔される可能性を低減できる。さらに、D体ポリ乳酸層とL体ポリ乳酸層とを積層することにより、屈曲変位を大きくすることが可能である。   In the present embodiment, a piezoelectric element is configured by sandwiching a polylactic acid layer between two electrodes. Since the polylactic acid layer is a transparent material, even if a piezoelectric element is formed on the display unit 106, the possibility that the display on the display unit 106 is obstructed can be reduced. Furthermore, it is possible to increase the bending displacement by laminating the D-form polylactic acid layer and the L-form polylactic acid layer.

ここで、ポリ乳酸層の何れかの層に電極を接続することで、圧電素子をタッチセンサとしても用いることが可能である。すなわち、操作者の指がタッチされた際のポリ乳酸層の撓みに応じた電圧信号を検出することで、タッチ位置を検出できる。このように構成した場合、圧電素子とタッチセンサとを1つにすることもできる。   Here, the piezoelectric element can also be used as a touch sensor by connecting an electrode to any one of the polylactic acid layers. That is, the touch position can be detected by detecting a voltage signal corresponding to the bending of the polylactic acid layer when the operator's finger is touched. In such a configuration, the piezoelectric element and the touch sensor can be combined into one.

さらに、例えば音声による対象物指定であれば表示部106又はファインダ表示部110による画像の表示は必要ない。すなわち、表示部106又はファインダ表示部110がなくとも、タッチセンサの検出点の位置と画像の各位置との対応付けがされていれば、図12で示したのと同様の振動制御を行うことが可能である。ここでは、振動し、位置センシングし、透過性、可撓性、成形性に優れたポリ乳酸の実施例を詳しく説明したが、他の複数の素材を組み合わせても同様の効果を奏することは言うまでもない。ポリ乳酸は、振動位置を変更するのも簡単であるが、タッチパネル全体を動かすような工夫で対応も可能である。   Further, for example, if an object is specified by voice, display of an image by the display unit 106 or the finder display unit 110 is not necessary. That is, even if the display unit 106 or the finder display unit 110 is not provided, if the position of the detection point of the touch sensor is associated with each position of the image, vibration control similar to that illustrated in FIG. 12 is performed. Is possible. Here, the embodiment of polylactic acid that vibrates, senses position, and has excellent permeability, flexibility, and moldability has been described in detail, but it goes without saying that the same effect can be achieved by combining a plurality of other materials. Yes. Polylactic acid is easy to change the vibration position, but it can also be handled by moving the entire touch panel.

以上実施形態に基づいて本発明を説明したが、民生用のカメラやビデオカメラ、モバイル機器以外への応用が可能で、産業用、医療用、監視用の専用の撮影機器、観察機器への応用も可能である。また、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。また、前述の各動作フローチャートの説明において、便宜上「まず」、「次に」等を用いて動作を説明しているが、この順で動作を実施することが必須であることを意味するものではない。   Although the present invention has been described based on the above embodiments, the present invention can be applied to cameras other than consumer cameras, video cameras, and mobile devices, and can be applied to industrial, medical, and monitoring dedicated imaging devices and observation devices. Is also possible. Further, the present invention is not limited to the above-described embodiment, and various modifications and applications are possible within the scope of the gist of the present invention. Further, in the description of each operation flowchart described above, the operation is described using “first”, “next”, and the like for convenience, but this does not mean that it is essential to perform the operations in this order. Absent.

また、上述した実施形態における画像処理装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも制御部124に実行させることができるプログラムとして記憶させておくこともできる。この他、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に格納して配布することができる。そして、制御部124は、この外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   In addition, each processing method by the image processing apparatus in the above-described embodiment, that is, the processing shown in each flowchart can be stored as a program that can be executed by the control unit 124. In addition, memory cards (ROM cards, RAM cards, etc.), magnetic disks (floppy disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), storage media of external storage devices such as semiconductor memories, etc. are distributed. be able to. And the control part 124 can perform the process mentioned above by reading the program memorize | stored in the storage medium of this external storage device, and operation | movement being controlled by this read program.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

1…カメラ、102…撮影レンズ、103…レンズ駆動部、104…タッチ操作装置、106…表示部、108…タッチ操作装置、110…ファインダ表示部、112…アイセンサ、1141…レリーズボタン、114…操作部、116…音声入力部、118…撮像部、120…記録部、122…時計部、123…スピーカ、124…制御部、202…下側絶縁層、204…信号電極、206…下側グランド(GND)電極、208…ポリ乳酸層、210…上側グランド(GND)電極、212…スルーホール、214…上側絶縁層、216…軟材質層、218…基材層、1041,1081…タッチセンサ、1042,1082…圧電素子、1043,1083…印加部   DESCRIPTION OF SYMBOLS 1 ... Camera, 102 ... Shooting lens, 103 ... Lens drive part, 104 ... Touch operation apparatus, 106 ... Display part, 108 ... Touch operation apparatus, 110 ... Finder display part, 112 ... Eye sensor, 1141 ... Release button, 114 ... Operation 116: Audio input unit, 118 ... Imaging unit, 120 ... Recording unit, 122 ... Clock unit, 123 ... Speaker, 124 ... Control unit, 202 ... Lower insulating layer, 204 ... Signal electrode, 206 ... Lower ground ( GND) electrode, 208 ... polylactic acid layer, 210 ... upper ground (GND) electrode, 212 ... through hole, 214 ... upper insulating layer, 216 ... soft material layer, 218 ... base material layer, 1041,1081 ... touch sensor, 1042 , 1082 ... Piezoelectric element, 1043, 1083 ... Application section

Claims (10)

画像の位置と対応付けられた複数の検出点を有し、該検出点に対する操作者のタッチ操作を検出するタッチセンサと、
撮影又は再生の対象となる対象物を指定する対象物指定部と、
前記操作者に対して感覚刺激を与える感覚刺激提供部と、
前記画像における前記対象物の位置と前記タッチセンサで検出されたタッチ位置との位置関係に応じて前記感覚刺激提供部によって前記感覚刺激を与える制御部と、
を具備することを特徴とする情報機器。
A touch sensor that has a plurality of detection points associated with the position of the image and detects an operator's touch operation on the detection points;
An object designating unit for designating an object to be photographed or reproduced;
A sensory stimulus providing unit for giving a sensory stimulus to the operator;
A control unit that applies the sensory stimulus by the sensory stimulus providing unit according to a positional relationship between the position of the object in the image and the touch position detected by the touch sensor;
An information device comprising:
前記感覚刺激は、触覚刺激であることを特徴とする請求項1に記載の情報機器。   The information device according to claim 1, wherein the sensory stimulus is a tactile stimulus. 前記制御部は、前記対象物の位置と前記タッチ位置とが異なる場合に、その差異に対応して振動を変化させて前記触覚刺激を与えることを特徴とする請求項2に記載の情報機器。   The information device according to claim 2, wherein when the position of the object is different from the touch position, the control unit applies the tactile stimulus by changing vibration according to the difference. 前記感覚刺激提供部は、前記タッチ位置を屈曲させることによって前記触覚刺激を与えることを特徴とする請求項2又は3に記載の情報機器。   The information device according to claim 2, wherein the sensory stimulus providing unit applies the tactile stimulus by bending the touch position. 前記制御部は、前記対象物の位置と前記タッチ位置とが等しい場合に前記タッチ位置に対応する前記感覚刺激提供部の部分を屈曲振動させて前記触覚刺激を与えることを特徴とする請求項4に記載の情報機器。   The said control part gives the said tactile stimulus by bending-vibrating the part of the said sensory stimulus provision part corresponding to the said touch position when the position of the said target object and the said touch position are equal. Information equipment described in 前記感覚刺激提供部は、前記対象物の位置と前記タッチ位置とが等しくない場合に前記対象物の位置と前記タッチ位置とのずれ方向に応じて前記感覚刺激提供部の屈曲位置を変化させて前記触覚刺激を与えることを特徴とする請求項4又は5に記載の情報機器。   The sensory stimulus providing unit changes a bending position of the sensory stimulus providing unit according to a shift direction between the position of the object and the touch position when the position of the object and the touch position are not equal. 6. The information device according to claim 4, wherein the tactile stimulus is applied. 前記画像における位置を指定する位置指定部をさらに具備し、
前記制御部は、前記位置指定部によって指定された位置と前記画像における前記対象物の位置との位置関係に応じて前記感覚刺激提供部によって前記感覚刺激を与えることを特徴とする請求項1乃至6の何れか1項に記載の情報機器。
A position designating unit for designating a position in the image;
The said control part gives the said sensory stimulus by the said sensory stimulus provision part according to the positional relationship of the position designated by the said position designation | designated part and the position of the said target object in the said image. The information device according to any one of 6.
前記対象物指定部は、音声入力によって前記対象物を指定することを特徴とする請求項1乃至6の何れか1項に記載の情報機器。   The information device according to claim 1, wherein the object specifying unit specifies the object by voice input. 前記対象物指定部は、タッチ操作によって前記対象物を指定することを特徴とする請求項1乃至6の何れか1項に記載の情報機器。   The information device according to claim 1, wherein the object designating unit designates the object by a touch operation. 前記対象物の画像を取得する撮像部をさらに具備し、
前記制御部は、前記撮像部で得られた画像の特徴から前記画像における前記対象物の位置を探索することを特徴とする請求項1乃至9の何れか1項に記載の情報機器。
An image pickup unit for acquiring an image of the object;
The information device according to claim 1, wherein the control unit searches for a position of the object in the image from a feature of the image obtained by the imaging unit.
JP2013053888A 2013-01-30 2013-03-15 Information device and control method of information device Active JP6196790B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013053888A JP6196790B2 (en) 2013-03-15 2013-03-15 Information device and control method of information device
US14/168,790 US9690378B2 (en) 2013-01-30 2014-01-30 Operation apparatus
CN201710822310.5A CN107483829A (en) 2013-01-30 2014-01-30 Camera device, operation device, object confirmation method
CN201410044193.0A CN103973971B (en) 2013-01-30 2014-01-30 The control method of information equipment and information equipment
US15/601,552 US10198075B2 (en) 2013-01-30 2017-05-22 Operation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013053888A JP6196790B2 (en) 2013-03-15 2013-03-15 Information device and control method of information device

Publications (2)

Publication Number Publication Date
JP2014178996A true JP2014178996A (en) 2014-09-25
JP6196790B2 JP6196790B2 (en) 2017-09-13

Family

ID=51698849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013053888A Active JP6196790B2 (en) 2013-01-30 2013-03-15 Information device and control method of information device

Country Status (1)

Country Link
JP (1) JP6196790B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017134699A (en) * 2016-01-29 2017-08-03 株式会社ニコン Electronic instrument and program
JP2018072927A (en) * 2016-10-25 2018-05-10 株式会社東海理化電機製作所 Haptic presentation device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058321A (en) * 2001-08-17 2003-02-28 Fuji Xerox Co Ltd Touch panel device
JP2008070983A (en) * 2006-09-12 2008-03-27 Toyota Motor Corp Input device
JP2009009412A (en) * 2007-06-28 2009-01-15 Canon Inc Information presentation device and information presentation method
JP2009089174A (en) * 2007-10-01 2009-04-23 Fujifilm Corp Digital camera and photographing method thereof
JP2010044580A (en) * 2008-08-12 2010-02-25 Nikon Corp Camera and retrieval system
JP2010211509A (en) * 2009-03-10 2010-09-24 Ricoh Co Ltd Input device and image forming device
JP2010257215A (en) * 2009-04-24 2010-11-11 Nikon Corp Digital camera and illustrative photographing/posting program
JP2011146821A (en) * 2010-01-12 2011-07-28 Canon Inc Device and method for providing tactile information, and program
JP2011166306A (en) * 2010-02-05 2011-08-25 Olympus Imaging Corp Imaging device
JP2012216156A (en) * 2011-04-01 2012-11-08 Kyocera Corp Electronic device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058321A (en) * 2001-08-17 2003-02-28 Fuji Xerox Co Ltd Touch panel device
JP2008070983A (en) * 2006-09-12 2008-03-27 Toyota Motor Corp Input device
JP2009009412A (en) * 2007-06-28 2009-01-15 Canon Inc Information presentation device and information presentation method
JP2009089174A (en) * 2007-10-01 2009-04-23 Fujifilm Corp Digital camera and photographing method thereof
JP2010044580A (en) * 2008-08-12 2010-02-25 Nikon Corp Camera and retrieval system
JP2010211509A (en) * 2009-03-10 2010-09-24 Ricoh Co Ltd Input device and image forming device
JP2010257215A (en) * 2009-04-24 2010-11-11 Nikon Corp Digital camera and illustrative photographing/posting program
JP2011146821A (en) * 2010-01-12 2011-07-28 Canon Inc Device and method for providing tactile information, and program
JP2011166306A (en) * 2010-02-05 2011-08-25 Olympus Imaging Corp Imaging device
JP2012216156A (en) * 2011-04-01 2012-11-08 Kyocera Corp Electronic device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017134699A (en) * 2016-01-29 2017-08-03 株式会社ニコン Electronic instrument and program
JP2018072927A (en) * 2016-10-25 2018-05-10 株式会社東海理化電機製作所 Haptic presentation device

Also Published As

Publication number Publication date
JP6196790B2 (en) 2017-09-13

Similar Documents

Publication Publication Date Title
US10198075B2 (en) Operation apparatus
CN105681652B (en) The control method of camera and camera
JP5246790B2 (en) Sound data processing apparatus and program
US8767116B2 (en) Imaging apparatus, imaging method and imaging program for displaying an enlarged area of subject image
JP2015099506A (en) Operation device, display device, and imaging device
KR20210098292A (en) Electronic device including camera and operating method thereof
WO2015072166A1 (en) Imaging device, imaging assistant method, and recoding medium on which imaging assistant program is recorded
KR102540100B1 (en) Haptic enabled device with multi-image capturing abilities
KR20190087215A (en) Electronic device and methof to control auto focus of camera
WO2017018043A1 (en) Electronic device, electronic device operation method, and control program
JP6196790B2 (en) Information device and control method of information device
JP2017069618A (en) Electronic apparatus and imaging method
JP6168780B2 (en) Touch operation device and control method thereof
US9179128B2 (en) Image sensing unit, 3D image processing apparatus, 3D camera system, and 3D image processing method
US20160212328A1 (en) Haptic interface of image photographing device and control method thereof
EP3767928A1 (en) Optical device and mobile terminal comprising same
JP2014044057A (en) Electronic apparatus, pressure measuring method and sensor device
CN214675328U (en) Camera module and electronic equipment
KR102127396B1 (en) Image acquiring device
US10412303B2 (en) Imaging device, startup method of imaging device, and computer readable recording medium
JP5712599B2 (en) Imaging apparatus and program
JP5611805B2 (en) Electronic camera
JP2014179913A (en) Interface device, imaging apparatus provided therewith, and control method for interface device
JP2016036081A (en) Image processing device, method and program, and recording medium
JP2013007851A (en) Imaging apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R151 Written notification of patent or utility model registration

Ref document number: 6196790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250