WO2007116977A1 - Camera - Google Patents

Camera Download PDF

Info

Publication number
WO2007116977A1
WO2007116977A1 PCT/JP2007/057787 JP2007057787W WO2007116977A1 WO 2007116977 A1 WO2007116977 A1 WO 2007116977A1 JP 2007057787 W JP2007057787 W JP 2007057787W WO 2007116977 A1 WO2007116977 A1 WO 2007116977A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
camera
unit
user
registration information
Prior art date
Application number
PCT/JP2007/057787
Other languages
French (fr)
Japanese (ja)
Inventor
Hitoshi Aoki
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Publication of WO2007116977A1 publication Critical patent/WO2007116977A1/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Definitions

  • FIG. 5 is a diagram showing a finger position on the monitor and an example of arrangement of display elements when the camera is in the horizontal position.
  • FIG. 7 is a diagram showing a screen display example when the user is instructed of the thumb position when the camera is in the horizontal position.
  • the registration unit 18c stores in the memory 19 information on the display layout determined by the layout determination unit 18b and information on the position of the user's thumb detected by the finger position detection unit 18a as lateral position registration information. To record.
  • information about the display layout for example, information (coordinate values) indicating the display position of each display element on the monitor 13 and the display size of each display element are registered. Further, as the information regarding the position of the user's thumb, information indicating the position (coordinates) and length on the monitor 13 of the straight lines 8a to 8c constituting the thumb range 32 described above is recorded.
  • step S350 the display control unit 18e determines whether the posture of the camera 10 has changed based on the output from the posture sensor 21. If it is determined that the posture of the camera 10 has changed, the process returns to step S330, and the display control unit 18e extracts information relating to the display layout corresponding to the posture of the camera 10 after the change. On the other hand, if it is determined that the posture of the camera 10 has not changed, the process proceeds to step S360.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A camera is provided with a display having a touch panel arranged thereon; a detector for detecting positions of the fingers of a user on the touch panel when the user grasps the camera, based on output from the touch panel; a display layout determining section for determining display layout of display elements to be displayed on the display, based on the detection results from the detector; a display control section for displaying the display element on the display, in accordance with the display layout determined by the display layout determining section; and a registering section for registering information relating to at least the display layout determined by the display layout determining section or the positions of the fingers detected by the detector, as registered information.

Description

明 細 書  Specification
カメラ  The camera
技術分野  Technical field
[0001] 本発明は、被写体像を撮影して画像を得るためのカメラに関する。  The present invention relates to a camera for taking a subject image and obtaining an image.
背景技術  Background art
[0002] 次のような画面表示部を有する機器の操作装置が特許文献 1によって知られて!/、 る。この装置では、画面上に設けられたタツチパネル上の押された位置を検出し、そ の検出した位置の周囲に操作ボタンを配置する。  [0002] A device operating device having the following screen display unit is known from Patent Document 1! In this device, a pressed position on a touch panel provided on the screen is detected, and operation buttons are arranged around the detected position.
[0003] 特許文献 1 :特開平 11 164175号公報  Patent Document 1: Japanese Patent Application Laid-Open No. 11 164175
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0004] し力しながら、従来の装置においては、タツチパネルが押された位置が変化した場 合には、操作ボタンの位置は変化後の位置に応じた位置に更新されてしまい、過去 に使用したボタン配置を再現することが困難であった。 [0004] However, in the conventional apparatus, when the position where the touch panel is pressed is changed, the position of the operation button is updated to a position corresponding to the position after the change and used in the past. It was difficult to reproduce the button layout.
課題を解決するための手段  Means for solving the problem
[0005] 本発明によるカメラは、タツチパネルを配置した表示器と、タツチパネルからの出力 に基づ!/、て、使用者がカメラを把持したときのタツチパネル上の使用者の指の位置を 検出する検出器と、検出器による検出結果に基づいて、表示器に表示する表示要素 の表示レイアウトを決定する表示レイアウト決定部と、表示レイアウト決定部で決定し た表示レイアウトに従って、表示要素を表示器に表示する表示制御部と、表示レイァ ゥト決定部で決定した表示レイアウト、および検出器で検出した指の位置の少なくとも いずれか一方に関する情報を登録情報として登録する登録部とを備える。このカメラ の表示要素は、タツチパネルの操作位置を示す操作領域を含む。また、登録部は、 複数の登録情報を登録することが好まし 、。 [0005] The camera according to the present invention detects the position of the user's finger on the touch panel when the user grips the camera based on the display on which the touch panel is arranged and the output from the touch panel! Based on the detector, the display layout determination unit for determining the display layout of the display element to be displayed on the display unit based on the detection result by the detector, and the display element on the display unit according to the display layout determined by the display layout determination unit A display control unit for displaying, and a registration unit for registering, as registration information, information relating to at least one of the display layout determined by the display layout determining unit and the position of the finger detected by the detector. The display element of this camera includes an operation area indicating the operation position of the touch panel. In addition, the registration unit preferably registers multiple registration information.
レンズを通して入力される被写体像を撮像する撮像装置を備える本発明によるカメ ラにおいては、表示要素は、撮像装置で撮像した被写体像を表示するための被写体 像表示領域を含む。 レンズを通して入力される被写体像を撮像して画像データを生成する画像取得部 と、画像データを記憶媒体に記録する記録制御部とをさらに備える本発明によるカメ ラにおいては、表示要素は、記憶媒体に記録された画像データの画像を再生表示 するための再生表示領域を含む。 In the camera according to the present invention including an imaging device that captures a subject image input through a lens, the display element includes a subject image display area for displaying the subject image captured by the imaging device. In the camera according to the present invention, further comprising: an image acquisition unit that captures a subject image input through the lens to generate image data; and a recording control unit that records the image data in the storage medium. It includes a playback display area for playing back and displaying images of image data recorded in the.
以上のようなカメラにあっては、検出器で検出した使用者の指の位置が前記タツチ パネル上の所定範囲外にある場合には警告する警告部をさらに備えることが好まし い。  The camera as described above preferably further includes a warning unit that warns when the position of the user's finger detected by the detector is outside a predetermined range on the touch panel.
本発明によるカメラは、表示レイアウト決定部による決定結果を使用者による操作に 基づいて確定する確定部をさらに備えることができる。このカメラの登録部は、確定部 で確定した表示レイアウト、および検出器で検出した指の位置の少なくとも ヽずれか 一方に関する情報を登録情報として登録する。確定部は、使用者によるレリーズボタ ンの操作に基づ 、て確定することができる。  The camera according to the present invention may further include a determination unit that determines a determination result by the display layout determination unit based on an operation by a user. The registration unit of the camera registers information regarding at least one of the display layout determined by the determination unit and the finger position detected by the detector as registration information. The confirming unit can confirm based on the operation of the release button by the user.
本発明によるカメラにおいて、表示レイアウト決定部で決定した表示レイアウトを、使 用者による操作に基づ ヽて修正する修正部をさらに備えるようにしてもょ 、。  The camera according to the present invention may further include a correction unit that corrects the display layout determined by the display layout determination unit based on an operation by a user.
本発明によるカメラは、表示レイアウト決定部による決定タイミングを指示するタイミ ング指示部をさらに備えることができる。このカメラの表示レイアウト決定部は、タイミン グ指示部力 決定タイミングが指示されたときに、検出器による使用者の指の位置の 検出情報がないと判定した場合には、所定の表示レイアウトを表示要素の表示レイァ ゥトとして決定することが好ま 、。  The camera according to the present invention may further include a timing instruction unit that instructs determination timing by the display layout determination unit. The display layout determination unit of this camera displays a predetermined display layout when it is determined that there is no detection information of the position of the user's finger by the detector when the timing instruction unit force determination timing is instructed. It is preferable to determine the display layout of the element.
本発明によるカメラにおいて、検出器は、カメラの姿勢が第 1の姿勢となるように使 用者がカメラを把持したときのタツチパネル上の指の位置を第 1の検出位置として検 出し、カメラの姿勢が第 2の姿勢となるように使用者がカメラを把持したときのタツチパ ネル上の指の位置を第 2の検出位置として検出する。このカメラでは、表示レイアウト 決定部は、検出器で検出した第 1の検出位置に基づ 、て第 1の表示レイアウトを決定 し、検出器で検出した第 2の検出位置に基づいて第 2の表示レイアウトを決定するこ とができる。このカメラの登録部は、表示レイアウト決定部で決定した第 1の表示レイ アウトに応じた登録情報と第 2の表示レイアウトに応じた登録情報とを関連付けて登 録することが好ましい。 本発明によるカメラでは、登録部で登録した登録情報を読み出す読み出し部をさら に備えてもよい。このカメラの表示制御部は、読み出し部で読み出した登録情報に基 づいて、表示要素を表示器に表示することができる。このカメラでは、登録部に複数 の登録情報が登録されている場合、読み出し部は、複数の登録情報の中から 1つを 選択して読み出すことができる。また、このカメラでは、カメラの姿勢を検出する姿勢 検出器をさらに備えることができる。登録情報としてカメラの姿勢に応じた第 1の登録 情報と第 2の登録情報とが含まれる場合、読み出し部は、姿勢検出器による検出結 果に基づいて第 1の登録情報または第 2の登録情報を読み出す。 In the camera according to the present invention, the detector detects the position of the finger on the touch panel when the user holds the camera so that the camera is in the first position as the first detection position. The position of the finger on the touch panel when the user holds the camera so that the posture becomes the second posture is detected as the second detection position. In this camera, the display layout determination unit determines the first display layout based on the first detection position detected by the detector, and determines the second display based on the second detection position detected by the detector. The display layout can be determined. The registration unit of the camera preferably registers the registration information corresponding to the first display layout determined by the display layout determination unit and the registration information corresponding to the second display layout in association with each other. The camera according to the present invention may further include a reading unit that reads registration information registered by the registration unit. The display control unit of this camera can display the display elements on the display unit based on the registration information read by the reading unit. In this camera, when a plurality of pieces of registration information are registered in the registration unit, the reading unit can select and read one of the plurality of registration information. In addition, this camera can further include a posture detector that detects the posture of the camera. When the registration information includes the first registration information and the second registration information corresponding to the posture of the camera, the reading unit determines whether the first registration information or the second registration is based on the detection result by the posture detector. Read information.
レンズを通して入力される被写体像を撮像して画像データを生成する撮像装置と、 画像データを記憶媒体に記録する記録制御部と、撮像装置で撮像した被写体像を 被写体像表示領域に表示する撮影モードと、記憶媒体に記録された画像データの 画像を再生表示領域に再生表示する再生モードとを切り替えるモード切替部とを備 える本発明によるカメラにおいて、モード切替部は、再生モード時のタツチパネルの 操作に基づ 、て撮影モードに切り替えるようにしてもょ 、。  An imaging device that captures a subject image input through a lens and generates image data, a recording control unit that records the image data in a storage medium, and a shooting mode that displays the subject image captured by the imaging device in a subject image display area And a mode switching unit that switches between a playback mode in which an image of the image data recorded in the storage medium is played back and displayed in the playback display area. In the camera according to the present invention, the mode switching unit operates the touch panel in the playback mode. You can switch to shooting mode based on.
本発明の他の態様によるカメラは、タツチパネルを配置した表示器と、カメラの撮影 モードにお 、て、表示器に表示するタツチパネルの操作位置を示す操作領域を含む 表示要素の表示レイアウトを決定する表示レイアウト決定部と、撮影モードにお!、て 表示レイアウト決定部で決定した表示レイアウトに従って、表示要素を表示器に表示 する表示制御部と、表示レイアウト決定部で決定した表示レイアウトに関する登録情 報を複数登録する登録部とを備える。  A camera according to another aspect of the present invention determines a display layout of a display element including a display device having a touch panel and an operation area indicating an operation position of the touch panel displayed on the display device in a shooting mode of the camera. The display layout determining unit, the shooting mode !, and the display control unit for displaying display elements on the display according to the display layout determined by the display layout determining unit, and the registration information on the display layout determined by the display layout determining unit A registration unit for registering a plurality of.
本発明の他の態様のカメラは、登録部で登録した複数の登録情報の中から 1つを 選択して読み出す読み出し部をさらに備えることができる。このカメラの表示制御部 は、読み出し部で読み出した登録情報に基づいて、表示要素を表示器に表示するこ とが好ましい。  The camera according to another aspect of the present invention may further include a reading unit that selects and reads one of a plurality of registration information registered by the registration unit. The display control unit of the camera preferably displays the display element on the display based on the registration information read by the reading unit.
本発明のさらに他の態様のカメラは、タツチパネルを配置した表示器と、表示器に 表示するタツチパネルの操作位置を示す操作領域を含む表示要素の表示レイアウト を決定する表示レイアウト決定部と、表示レイアウト決定部で決定した表示レイアウト に関する登録情報をカメラの姿勢に対応付けて登録する登録部と、カメラの姿勢を検 出する姿勢検出器と、登録情報の中から姿勢検出器で検出したカメラの姿勢に応じ た登録情報を読み出す読み出し部と、読み出し部で読み出した登録情報に基づく表 示レイアウトに従って、表示要素を表示器に表示する表示制御部とを備える。 A camera according to still another aspect of the present invention includes a display device including a touch panel, a display layout determining unit that determines a display layout of a display element including an operation area indicating an operation position of the touch panel displayed on the display device, and a display layout. A registration unit for registering registration information related to the display layout determined by the determination unit in association with the camera posture, and a camera posture. Display element according to the display layout based on the registration information read out by the orientation detector, the readout unit that reads out registration information according to the orientation of the camera detected by the orientation detector from the registration information, and the readout unit A display control unit for displaying on the display.
発明の効果  The invention's effect
[0006] 本発明によれば、登録情報に基づいて容易に過去に使用したレイアウトを再現す ることがでさる。  [0006] According to the present invention, it is possible to easily reproduce a layout used in the past based on registration information.
図面の簡単な説明  Brief Description of Drawings
[0007] [図 1]カメラ(デジタルカメラ)の外観を模式的に示した図であり、 (a)は背面斜視図で あり、(b)は前面斜視図である。  [0007] Fig. 1 is a diagram schematically showing the appearance of a camera (digital camera), (a) is a rear perspective view, and (b) is a front perspective view.
[図 2]カメラ 10の一実施の形態の構成を示すブロック図である。  2 is a block diagram showing a configuration of an embodiment of the camera 10. FIG.
[図 3]タツチパネルによる押圧位置の検出方法を模式的に示す図であり、 (a)はモ- タの拡大図であり、(b)はタツチパネルを擬似可視化した図であり、(c)はタツチパネ ルが指で押圧された場合の具体例を示す図である。  [Fig. 3] Fig. 3 is a diagram schematically showing a method of detecting the pressed position by the touch panel, (a) is an enlarged view of the motor, (b) is a diagram in which the touch panel is visualized, and (c) is a diagram. It is a figure which shows the specific example when a touch panel is pressed with the finger | toe.
[図 4]使用者がレリーズボタンを操作するためにカメラを横向きに把持した場合の具 体例を示す図である。  FIG. 4 is a diagram showing a specific example when the user holds the camera sideways in order to operate the release button.
[図 5]カメラの姿勢が横位置のときのモニタ上における指の位置と表示要素の配置例 を示した図である。  FIG. 5 is a diagram showing a finger position on the monitor and an example of arrangement of display elements when the camera is in the horizontal position.
[図 6]使用者がレリーズボタンを操作するためにカメラを縦向きに把持した場合の具 体例を示す図である。  FIG. 6 is a diagram showing a specific example when the user holds the camera vertically in order to operate the release button.
[図 7]カメラの姿勢が横位置のときに使用者に対して親指の位置を指示する場合の画 面表示例を示す図である。  FIG. 7 is a diagram showing a screen display example when the user is instructed of the thumb position when the camera is in the horizontal position.
[図 8]親指範囲の検出方法を具体的に示す図である。  FIG. 8 is a diagram specifically illustrating a method for detecting a thumb range.
[図 9]カメラの姿勢が横位置のときに決定される表示レイアウトの具体例を示す図であ り、(a)は使用者の指が上寄りに置かれた場合を示し、(b)は使用者の指が下寄りに 置かれた場合を示す。  [Fig. 9] A diagram showing a specific example of the display layout determined when the camera posture is in the horizontal position. (A) shows the case where the user's finger is placed on the upper side. (B) Indicates the case where the user's finger is placed on the lower side.
[図 10]カメラの姿勢が縦位置のときに使用者に対して親指の位置を指示する場合の 画面表示例を示す図である。  FIG. 10 is a diagram showing an example of a screen display when the user is instructed of the thumb position when the camera is in the vertical position.
[図 11]カメラの姿勢が縦位置のときに決定される表示レイアウトの具体例を示す図で ある。 FIG. 11 is a diagram showing a specific example of a display layout determined when the camera posture is a vertical position. is there.
[図 12]登録情報の読み出し方法の具体例を示す図であり、 (a)はカメラ本体部に登 録番号に対応する番号を印字する場合を示し、 (b)は登録番号を一覧表示する場合 を示す。  [FIG. 12] A diagram showing a specific example of a method for reading registration information. (A) shows a case where a number corresponding to a registration number is printed on the camera body, and (b) shows a list of registration numbers. Indicates the case.
[図 13]登録情報の登録処理を示すフローチャート図である。  FIG. 13 is a flowchart showing registration information registration processing.
[図 14]表示レイアウト決定処理を示すフローチャート図である。  FIG. 14 is a flowchart showing display layout determination processing.
[図 15]登録情報の読み出し処理および表示要素の表示制御処理を示すフローチヤ ート図である。  FIG. 15 is a flowchart showing registration information reading processing and display element display control processing.
[図 16]操作ボタンに相当する表示要素を円弧状に配置した場合の具体例を示す図 である。  FIG. 16 is a diagram showing a specific example when display elements corresponding to operation buttons are arranged in an arc shape.
[図 17]表示要素配置不可範囲 8dをモード切り替えスィッチとして使用する場合の具 体例を示す図であり、(a)は各表示要素が重ならない場合を示し、(b)は表示領域に 相当する表示要素に操作ボタンに相当する表示要素が重なる場合を示す。  FIG. 17 is a diagram showing an example of the case where display element disposition impossible range 8d is used as a mode switching switch, (a) shows a case where each display element does not overlap, and (b) corresponds to a display area. A case where a display element corresponding to an operation button overlaps the display element is shown.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0008] 図 1は、本実施の形態におけるカメラ(デジタルカメラ)の外観を模式的に示した図 である。図 1 (a)はカメラ 10を背面液晶を備える面 (背面)を斜め上面 (天面)から見た 図を示し、図 1 (b)はカメラ 10をレンズを備える面 (前面)を斜め上面から見た図を示 している。 FIG. 1 is a diagram schematically showing the appearance of a camera (digital camera) in the present embodiment. Fig. 1 (a) shows the camera 10 with the back LCD (back) viewed from the diagonal top (top), and Fig. 1 (b) shows the camera 10 with the lens (front) diagonal. The figure seen from is shown.
[0009] カメラ 10は、上面にレリーズボタン 11、電源ボタン 12を備えている。また、背面にモ ユタ 13、滑り止め 14を、前面にはレンズ 16、ストロボ発光部 17をそれぞれ備えてい る。  The camera 10 includes a release button 11 and a power button 12 on the top surface. In addition, a motor 13 and a non-slip 14 are provided on the back, and a lens 16 and a strobe light emitting unit 17 are provided on the front.
[0010] レリーズボタン 11は、使用者が画像の撮影を指示する場合に押下するためのボタ ンであり、本発明ではさらに後述するようにモニタ 13内の表示要素の表示レイアウト を決定する際にも使用される。電源ボタン 12は、カメラ 10の電源をオンおよびオフす るためのボタンである。  [0010] The release button 11 is a button to be pressed when the user instructs to take an image. In the present invention, when the display layout of the display elements in the monitor 13 is determined as described later, the release button 11 is used. Also used. The power button 12 is a button for turning the camera 10 on and off.
[0011] モニタ 13は、例えばアスペクト比が 16 : 9の横長の液晶モニタであり、図 1 (a)に示 すようにカメラ 10の背面のほぼ全体にわたって搭載されている。このとき、モニタ 13 は、使用者によるカメラ 10の把持位置を考慮してモニタ 13の左側のスペース 10bより も右側のスペース 10aの方が広くなるようにカメラ 10に取り付けられている。また、この モニタ 13にはタツチパネルが設けられており、使用者がモニタ 13の表面を指で押圧 することによってカメラ 10を操作するための操作信号を入力することができる。 The monitor 13 is a horizontally long liquid crystal monitor with an aspect ratio of 16: 9, for example, and is mounted over almost the entire back surface of the camera 10 as shown in FIG. 1 (a). At this time, the monitor 13 considers the gripping position of the camera 10 by the user from the space 10b on the left side of the monitor 13. Is also attached to the camera 10 so that the space 10a on the right side is wider. The monitor 13 is provided with a touch panel, and the user can input an operation signal for operating the camera 10 by pressing the surface of the monitor 13 with a finger.
[0012] 滑り止め 14は、使用者がレリーズボタン 11を操作するためにカメラ 10を把持したと きの親指の付け根位置に相当する位置に設けられ、使用者がカメラ 10を把持したと きに手が滑らないようになつている。具体的には、滑り止め 14は、使用者がカメラを横 向きに把持したとき、すなわち使用者が矢印 Aの先が上を向くようにカメラ 10を構え たときに親指の付け根が当たる位置に設けられている。  [0012] The anti-slip 14 is provided at a position corresponding to the base of the thumb when the user grips the camera 10 to operate the release button 11, and when the user grips the camera 10, The hand is not slipping. Specifically, the anti-slip 14 is positioned so that the base of the thumb hits when the user grips the camera sideways, that is, when the user holds the camera 10 with the arrow A pointing up. Is provided.
[0013] レンズ 16は、使用者がレリーズボタン 11を操作するためにカメラ 10を把持したとき のグリップ位置とは逆側に設けられ、撮影時に使用者の手がレンズ 16に重ならない ようになつている。また、レンズ 16の開口部にはノリア羽根が設けられており、撮影時 以外は開口部をバリア羽根で覆うことによってレンズ 16に指紋や傷がつきにくいよう に設計されている。ストロボ発光部 17は、使用者がカメラを縦方向 *横方向のいずれ の方向で構えたときにも、ストロボ光をレンズ 16の上側力も照射するように配置されて いる。  [0013] The lens 16 is provided on the side opposite to the grip position when the user grips the camera 10 to operate the release button 11, so that the user's hand does not overlap the lens 16 during shooting. ing. In addition, the aperture of the lens 16 is provided with a Noria blade. The lens 16 is designed to be protected from fingerprints and scratches by covering the aperture with a barrier blade except during shooting. The strobe light emitting unit 17 is arranged so as to irradiate the strobe light with the upper force of the lens 16 when the user holds the camera in either the vertical direction or the horizontal direction.
[0014] 図 2は、本実施の形態におけるカメラ 10の一実施の形態の構成を示すブロック図で ある。なお、図 2においては、図 1で説明した構成要素については説明を省略する。 カメラ 10は、レリーズボタン 11、電源ボタン 12、モニタ 13、レンズ 16、撮像素子 16a 、ストロボ発光部 17、制御装置 18、メモリ 19、メモリカードスロット 20、および姿勢セン サ 21を備えている。  FIG. 2 is a block diagram showing a configuration of an embodiment of the camera 10 in the present embodiment. In FIG. 2, the description of the components described in FIG. 1 is omitted. The camera 10 includes a release button 11, a power button 12, a monitor 13, a lens 16, an image sensor 16 a, a strobe light emitting unit 17, a control device 18, a memory 19, a memory card slot 20, and a posture sensor 21.
[0015] 撮像素子 16aは、例えば CCDであり、レンズ 16を通して入力される被写体像を撮 像し、画像信号を制御装置 18へ出力する。撮像素子 16aから出力された画像信号 は、一時的にメモリ 19に記録された後、制御装置 18で種々の画像処理が施されて 画像データが生成される。そして、生成された画像データはメモリカードスロット 20に 挿入されて ヽるメモリカードに記録されて保存される。  The image sensor 16 a is, for example, a CCD, images a subject image input through the lens 16, and outputs an image signal to the control device 18. The image signal output from the image sensor 16a is temporarily recorded in the memory 19, and then subjected to various image processing by the control device 18 to generate image data. The generated image data is recorded and stored in the memory card inserted into the memory card slot 20.
[0016] タツチパネル 13aは、使用者によるタツチパネル 13aの押圧位置を検出し、その押 圧位置に応じた入力信号を制御装置 18へ出力する。タツチパネル 13aによる押圧位 置の検出について、図 3を用いて詳細に説明する。図 3 (a)は、モニタ 13を拡大して 表した図である。この図 3 (a)に示すように、モニタ 13上に設置されたタツチパネル 13 aは透明であるため、タツチパネル 13aが設置されていることによってモニタ 13上の表 示が遮られることはない。 [0016] The touch panel 13a detects a pressing position of the touch panel 13a by the user, and outputs an input signal corresponding to the pressing position to the control device 18. The detection of the pressed position by the touch panel 13a will be described in detail with reference to FIG. Figure 3 (a) shows an enlarged view of the monitor 13. FIG. As shown in FIG. 3 (a), since the touch panel 13a installed on the monitor 13 is transparent, the display on the monitor 13 is not obstructed by the installation of the touch panel 13a.
[0017] 図 3 (b)は、モニタ 13上に設置されたタツチパネル 13aを説明のために擬似的に可 視化した例を示している。この図 3 (b)に示すように、タツチパネル 13aは、表示範囲 上に格子状に区切られた微細な入力領域を有しており、使用者がこのタツチパネル 1 3a上を指ゃタツチペンで押圧すると押圧位置にある入力領域がオンされる。タツチパ ネル 13aは、オンされた入力領域のタツチパネル 13a上における位置を特定する情 報、例えば座標値をタツチパネル 13aの操作信号として制御装置 18へ出力する。な お、本実施の形態ではタツチパネル 13aが有する入力領域は格子状に区切られてい る例について説明する力 S、入力領域の配置は千鳥配置などのその他の配置であつ てもよい。 FIG. 3 (b) shows an example in which the touch panel 13 a installed on the monitor 13 is visualized in a pseudo manner for explanation. As shown in FIG. 3 (b), the touch panel 13a has a fine input area partitioned in a grid pattern on the display range, and when the user presses the touch panel 13a with the touch pen. The input area at the pressed position is turned on. The touch panel 13a outputs information for specifying the position of the input area on the touch panel 13a, for example, a coordinate value, to the control device 18 as an operation signal of the touch panel 13a. In the present embodiment, the input area of the touch panel 13a may be a force S for explaining an example in which the input area is partitioned in a grid pattern, and the arrangement of the input area may be another arrangement such as a staggered arrangement.
[0018] 図 3 (c)は、タツチパネル 13aが使用者の指で押圧された場合の具体例を示す図で ある。この図 3 (c)における指の位置は、図 4に示すように使用者がレリーズボタン 11 を操作するためにカメラ 10を横向きに把持したときのタツチパネル 13a上における親 指の位置を示している。このように、本実施の形態におけるカメラ 10のようにモニタ 13 が背面のほぼ全体にわたって搭載されている場合には、使用者は、レリーズボタン 1 1を操作するためにカメラ 10を把持すると親指 3aがモニタ 13にかかってしまう。  FIG. 3 (c) is a diagram showing a specific example when the touch panel 13a is pressed by the user's finger. The position of the finger in FIG. 3 (c) indicates the position of the master finger on the touch panel 13a when the user holds the camera 10 sideways to operate the release button 11 as shown in FIG. . As described above, when the monitor 13 is mounted over almost the entire rear surface as in the camera 10 in the present embodiment, the user grasps the camera 10 to operate the release button 11 and moves the thumb 3a. On monitor 13.
[0019] このため、使用者はレリーズボタン 11を操作するためにカメラ 10を把持するだけで 、背面を把持する親指 3aでタツチパネル 13aを押圧してしまうことになる。使用者によ つてタツチパネル 13aが押圧されると、上述したようにその押圧された位置に存在す る入力領域がオンされる。この図 3 (c)においては、使用者がカメラ 10を把持した親 指 3aでタツチパネル 13aを押圧することによって、タツチパネル 13a上の範囲 3b内に 存在する入力領域がオンされて!ヽる例を示して!/ヽる。  For this reason, the user simply presses the touch panel 13a with the thumb 3a holding the back surface only by holding the camera 10 in order to operate the release button 11. When the touch panel 13a is pressed by the user, the input area existing at the pressed position is turned on as described above. In FIG. 3 (c), when the user presses the touch panel 13a with the master finger 3a holding the camera 10, the input area existing in the range 3b on the touch panel 13a is turned on! Show me an example!
[0020] 姿勢センサ 21は、カメラ 10の重力方向に対する向きを検出するためのセンサであ り、検出信号は制御装置 18へ出力される。制御装置 18は、 CPUやその他の周辺回 路で構成され、指位置検出部 18a、レイアウト決定部 18b、登録部 18c、読み出し部 18d、および表示制御部 18eを機能的に備えている。 [0021] 指位置検出部 18aは、タツチパネル 13aから出力される操作信号に基づいて、使用 者がレリーズボタン 11を操作するためにカメラ 100を把持したときのタツチパネル 13a 上における押圧範囲 3bを特定する。そして特定した押圧範囲 3bに基づいて、タツチ パネル 13a上の使用者の指の位置を検出する。すなわち、図 3 (c)に示すように、使 用者が指先でタツチパネル 13aを押圧した場合の押圧範囲 3bは、使用者の親指全 体を表すものではなぐ使用者の指先の中央付近を表す範囲である。よって、この押 圧範囲 3bに基づいて、タツチパネル 13a上に力かっている使用者の指全体に相当 する範囲を推定することで使用者の指位置を検出する。 The attitude sensor 21 is a sensor for detecting the orientation of the camera 10 with respect to the direction of gravity, and a detection signal is output to the control device 18. The control device 18 includes a CPU and other peripheral circuits, and functionally includes a finger position detection unit 18a, a layout determination unit 18b, a registration unit 18c, a reading unit 18d, and a display control unit 18e. [0021] The finger position detection unit 18a identifies the pressing range 3b on the touch panel 13a when the user holds the camera 100 to operate the release button 11 based on the operation signal output from the touch panel 13a. . Based on the specified pressing range 3b, the position of the user's finger on the touch panel 13a is detected. That is, as shown in FIG. 3 (c), when the user presses the touch panel 13a with the fingertip, the pressing range 3b does not represent the entire thumb of the user but represents the vicinity of the center of the user's fingertip. It is a range. Therefore, based on the pressing pressure range 3b, the user's finger position is detected by estimating a range corresponding to the entire finger of the user who is striking the touch panel 13a.
[0022] レイアウト決定部 18bは、指位置検出部 18aによる指位置の検出結果に応じてモ- タ 13上に表示する種々の表示要素の配置位置、すなわち表示レイアウトを決定する 。具体的には、レイアウト決定部 18bは、図 5に示すように、タツチパネル 13a上にお ける使用者の指位置と、符号 5a〜5jで示す各表示要素の配置位置が重ならな 、よう に表示レイアウトを決定する。  The layout determining unit 18b determines the arrangement positions of various display elements to be displayed on the motor 13, that is, the display layout, according to the finger position detection result by the finger position detecting unit 18a. Specifically, as shown in FIG. 5, the layout determining unit 18b does not overlap the user's finger position on the touch panel 13a with the arrangement positions of the display elements indicated by reference numerals 5a to 5j. Determine the display layout.
[0023] なお、表示要素には、タツチパネルの操作位置を示す領域としての操作ボタンに相 当する表示要素 5a〜5iと、画像を表示するための表示領域に相当する表示要素 ¾ とを含む。表示要素 ¾としては、 CCD 16aで撮像された被写体像をスルー画表示す るための被写体像表示領域と、メモリカードスロット 20内のメモリカードに記録されて いる画像データを再生表示するための再生表示領域とがある。そして、カメラ 10のモ ードが撮影モードである場合には、モニタ 13上には被写体像表示領域が表示要素 5 jとして配置され、カメラ 10のモードが再生モードである場合には、モニタ 13上には再 生表示領域が表示要素 ¾として配置される。  [0023] Note that the display elements include display elements 5a to 5i corresponding to operation buttons as areas indicating the operation position of the touch panel and display elements ¾ corresponding to display areas for displaying images. Display elements ¾ include a subject image display area for displaying a subject image captured by the CCD 16a and a playback for displaying and displaying image data recorded on a memory card in the memory card slot 20. There is a display area. When the camera 10 mode is the shooting mode, the subject image display area is arranged on the monitor 13 as the display element 5 j. When the camera 10 mode is the playback mode, the monitor 13 On the top, a playback display area is arranged as a display element ¾.
[0024] 例えば、図 5に示す例では、一般的なデジタルカメラが液晶モニタを備える位置に 表示領域に相当する表示要素 ¾が表示されている。そして、使用者の親指の上側に 配置されている表示要素 5aおよび 5bにはそれぞれズーム機能が割り当てられており 、例えば表示要素 5aはズームワイドボタン、表示要素 5bはズームテレボタンに相当 する。また使用者の指の下側には表示要素 5g、表示要素 5h、および表示要素 5iが 配置される。表示要素 5gは、表示要素 ¾にメニュー画面を表示するためのメニュー ボタンに相当する表示要素である。表示要素 5hは、カメラ 10を撮影モード力も再生 モードに切り替えて表示領域 (再生表示領域) 5jにメモリ 19に記録されて 、る画像を 再生表示するための再生ボタンに相当する表示要素である。表示要素 5iは、表示要 素 ¾に表示されている画像の削除を指示するための削除ボタンに相当する表示要素 である。 For example, in the example shown in FIG. 5, a display element example corresponding to a display area is displayed at a position where a general digital camera includes a liquid crystal monitor. A zoom function is assigned to each of the display elements 5a and 5b arranged above the user's thumb. For example, the display element 5a corresponds to a zoom wide button and the display element 5b corresponds to a zoom tele button. A display element 5g, a display element 5h, and a display element 5i are arranged below the user's finger. The display element 5g is a display element corresponding to a menu button for displaying a menu screen on the display element ¾. Display element 5h also plays back camera 10 shooting mode power It is a display element corresponding to a playback button for switching to the mode and playing back and displaying an image recorded in the memory 19 in the display area (playback display area) 5j. The display element 5i is a display element corresponding to a delete button for instructing deletion of an image displayed in the display element example.
[0025] さらに、表示要素 5jの下側には、十字キー状に表示要素 5c〜5fが配置されており 、それぞれカメラ 10を操作するための機能が割り当てられている。表示要素 5cは左 ボタンに相当する表示要素である。表示要素 5dは上ボタンに相当する表示要素であ る。表示要素 5eは下ボタンに相当する表示要素である。表示要素 5fは右ボタンに相 当する表示要素である。使用者は、モニタ 13上に表示されたこれらの操作ボタン 5a 〜5iを押圧することによって、タツチパネル 13aを介してカメラ 10を操作することがで きる。なお、上述した表示領域の配置位置、および各表示領域に割り当てられている 機能はあくまでも一例であり、これに限定されない。  [0025] Furthermore, display elements 5c to 5f are arranged in a cross key shape below the display element 5j, and functions for operating the camera 10 are assigned to the display elements 5c to 5f, respectively. Display element 5c is a display element corresponding to the left button. Display element 5d is a display element corresponding to the up button. The display element 5e is a display element corresponding to the down button. Display element 5f is a display element corresponding to the right button. The user can operate the camera 10 via the touch panel 13a by pressing these operation buttons 5a to 5i displayed on the monitor 13. Note that the arrangement positions of the display areas and the functions assigned to the display areas are merely examples, and the present invention is not limited thereto.
[0026] ここで、使用者がレリーズボタン 11を操作するためにカメラ 10を把持するときは、図 4に示したようにカメラ 10を横向きに構えてレリーズボタン 11を操作する場合だけで なぐカメラ 10を縦向きに構えてレリーズボタン 11を操作する場合も考えられる。この ため、使用者がレリーズボタン 11を操作するためにカメラ 10を把持したときの押圧範 囲 3bとしては、図 5で上述したカメラ 10の姿勢が横位置のときの押圧範囲 3b以外に 、図 6に示すようなカメラ 10の姿勢が縦位置のときの押圧範囲 3bである場合もある。 そして、レイアウト決定部 18bは、カメラ 10の姿勢が縦位置の場合にも、図 6に示すよ うにタツチパネル 13a上における使用者の指 3aと表示要素 5a〜5jの配置位置が重 ならな 、ように表示レイアウトを決定する。  [0026] Here, when the user grips the camera 10 to operate the release button 11, the camera can be operated only by holding the camera 10 sideways and operating the release button 11 as shown in FIG. It is also conceivable to operate release button 11 with 10 held vertically. Therefore, as the pressing range 3b when the user holds the camera 10 to operate the release button 11, the pressing range 3b other than the pressing range 3b when the posture of the camera 10 described above in FIG. In some cases, the pressing range 3b when the posture of the camera 10 is in the vertical position as shown in FIG. Then, the layout determining unit 18b does not make the arrangement positions of the user's finger 3a and the display elements 5a to 5j overlap on the touch panel 13a as shown in FIG. 6 even when the posture of the camera 10 is vertical. Determine the display layout.
[0027] 登録部 18cは、使用者に対してカメラ 10を横向きに把持するように促し、その結果 、レイアウト決定部 18bで決定されるカメラ 10の姿勢が横位置のときの表示要素の表 示レイアウト (横位置レイアウト)を得る。次に、使用者に対してカメラ 10を縦向きに把 持するように促し、その結果、レイアウト決定部 18bで決定されるカメラ 10の姿勢が縦 位置のときの表示要素の表示レイアウト(縦位置レイアウト)を得る。そして、このように して得た横位置レイアウトに関する情報と縦位置レイアウトに関する情報とを関連付 けた登録情報をメモリ 19に登録する。 [0028] 登録部 18cは、複数の登録情報を登録することができ、本実施の形態では、カメラ 1 0の使用者が複数いる場合に、使用者ごとに得た登録情報を登録する例について説 明する。以下、指位置検出部 18a、レイアウト決定部 18b、および登録部 18cによる 登録情報の登録処理について具体的に説明する。 [0027] The registration unit 18c prompts the user to hold the camera 10 sideways, and as a result, displays the display elements when the posture of the camera 10 determined by the layout determination unit 18b is in the horizontal position. Get the layout (horizontal layout). Next, the user is prompted to hold the camera 10 vertically, and as a result, the display layout of the display element (vertical position) when the posture of the camera 10 determined by the layout determination unit 18b is vertical. Layout). Then, registration information in which the information on the horizontal position layout and the information on the vertical position layout obtained in this way are associated is registered in the memory 19. [0028] The registration unit 18c can register a plurality of registration information. In this embodiment, when there are a plurality of users of the camera 10, an example of registering registration information obtained for each user is described. explain. Hereinafter, registration information registration processing by the finger position detection unit 18a, the layout determination unit 18b, and the registration unit 18c will be described in detail.
[0029] まず、登録部 18cは、使用者によって登録情報の登録開始が指示されると、使用者 に対してこれから登録する登録情報に付加する登録番号の指定を促す。この登録番 号は、複数の登録情報が登録されたときにそれぞれの登録情報を識別するための番 号である。例えば、登録部 18cは、モニタ 13上に選択可能な登録番号を表示し、使 用者にその中から任意の番号を選択させるようにする。なお、登録番号の指定を使 用者に促さず、登録部 18cが任意の番号、例えば連番などを自動的に付加するよう にしてもよい。  First, when the registration instruction of registration information is instructed by the user, the registration unit 18c prompts the user to specify a registration number to be added to registration information to be registered. This registration number is a number for identifying each registered information when a plurality of registered information is registered. For example, the registration unit 18c displays a selectable registration number on the monitor 13, and allows the user to select an arbitrary number from the list. The registration unit 18c may automatically add an arbitrary number such as a serial number without prompting the user to specify the registration number.
[0030] 登録部 18cは、使用者によって登録番号が指定されると、使用者に対して、例えば 「横位置の登録情報を登録します」のようなメッセージをモニタ 13に表示して、使用者 に対して横位置レイアウトに関する情報 (横位置の登録情報)の登録を開始する旨を 通知する。その後、使用者に対してカメラ 10を横向きに把持してレリーズボタン 11の 半押しをするように促す。  [0030] When the registration number is specified by the user, the registration unit 18c displays a message such as "Register registration information in the horizontal position" on the monitor 13 for use. Notify the user that registration of information about the horizontal position layout (registration information of the horizontal position) will start. Thereafter, the user is urged to hold the camera 10 sideways and press the release button 11 halfway.
[0031] 例えば、図 7に示すように、モニタ 13上に「カメラを横向きに構えて半押しして下さ い」のようなメッセージを表示する。このとき、使用者がレリーズボタン 11を操作すると きのカメラ 10の姿勢が図 5に示した横位置となり、かつ使用者のタツチパネル上の親 指の位置があら力じめ定めた所定範囲内に納まるように指示を出す。具体的には、 登録部 18cは、モニタ 13上のあらかじめ定めた所定範囲に視認可能な親指配置領 域 7aを設定し、その親指配置領域 7a内に「ここに親指をお 、て下さ!/、」のようなメッセ ージを表示する。  For example, as shown in FIG. 7, a message such as “Please hold the camera sideways and press halfway” is displayed on the monitor 13. At this time, the posture of the camera 10 when the user operates the release button 11 is in the horizontal position shown in FIG. 5, and the position of the user's finger on the touch panel is within a predetermined range. Give instructions to fit. Specifically, the registration unit 18c sets a thumb placement area 7a that can be visually recognized within a predetermined range on the monitor 13, and within the thumb placement area 7a, `` Put your thumb here! / A message such as “,” is displayed.
[0032] 使用者は、メッセージに従ってカメラ 10を把持することにより、親指 3aでタツチパネ ル 13a上の親指配置領域 7a内を押圧した状態で、カメラ 10の姿勢が横位置となるよ うにカメラ 10を把持することができる。指位置検出部 18aは、使用者がモニタ 13上の メッセージに従ってレリーズボタン 11を半押ししたことを検出した場合には、そのとき のタツチパネル 13aからの出力信号に基づいてタツチパネル 13a上での使用者の親 指 3aによる押圧範囲 3bを特定する。その結果、特定した押圧範囲 3bが親指配置領 域 7aからはみ出していることを検出した場合には、登録部 18cは、使用者に親指 3a の位置を親指配置領域 7a内に移動するように警告する。 [0032] The user grasps the camera 10 according to the message, and holds the camera 10 so that the posture of the camera 10 is in the horizontal position while the thumb 3a presses the inside of the thumb placement area 7a on the touch panel 13a. It can be gripped. When the finger position detection unit 18a detects that the user half-presses the release button 11 in accordance with the message on the monitor 13, the finger position detection unit 18a detects the user on the touch panel 13a based on the output signal from the touch panel 13a at that time. Parents The pressing range 3b by the finger 3a is specified. As a result, when it is detected that the specified pressing range 3b protrudes from the thumb placement area 7a, the registration unit 18c warns the user to move the position of the thumb 3a into the thumb placement area 7a. To do.
[0033] これに対して、特定した押圧範囲 3bが親指配置領域 7a内にあることを検出した場 合には、そのときの押圧範囲 3bに基づいて上述した使用者の指位置を検出する。ま ず、指位置検出部 18aは、図 8に示すように、略楕円となる押圧範囲 3bの長径の両 端 30bおよび 30dと、短径の両端 30aおよび 30cの 4点を検出する。そして、 30bおよ び 30dを結んだ直線 (短径の中心を通る直線)を中心線 31 dとして決定する。次に、 指位置検出部 18aは、短径の両端 30aおよび 30cのそれぞれを通り、中心線 31dに 対して所定の角度 Θを持つ 2本の直線 31aと 31bとを設定する。さらに指先に相当す る側の長径 30bを通り、 2本の直線 31aと 31bそれぞれ接するような半径の円弧 31c を設定する。 On the other hand, when it is detected that the specified pressing range 3b is within the thumb placement area 7a, the above-described finger position of the user is detected based on the pressing range 3b at that time. First, as shown in FIG. 8, the finger position detection unit 18a detects four points, that is, both ends 30b and 30d of the major axis of the pressing range 3b that are substantially oval and both ends 30a and 30c of the minor axis. A straight line connecting 30b and 30d (a straight line passing through the center of the minor axis) is determined as the center line 31d. Next, the finger position detection unit 18a sets two straight lines 31a and 31b having a predetermined angle Θ with respect to the center line 31d through the both ends 30a and 30c of the short diameter. Furthermore, a circular arc 31c having a radius passing through the major axis 30b on the side corresponding to the fingertip and touching the two straight lines 31a and 31b is set.
[0034] このように設定した直線 31aおよび 31bと円弧 31cで囲まれる範囲 31の内部は、押 圧範囲 3bを使用者の親指の指先に相当するものとして推定したタツチパネル 13a上 にかかる親指の範囲 (仮想親指範囲)に相当する。ここで、上述したように、押圧範囲 3bは、使用者の指先の中央付近を表す範囲であることから、実際にタツチパネル 13 a上に力かっている親指の範囲は、この仮想親指範囲 31よりも広い範囲となる。よつ て、指位置検出部 18aは、仮想親指範囲 31の外側に数ミリ程度の所定距離 Dだけォ フセットした範囲 32を設定し、この範囲 32をタツチパネル 13a上で使用者の親指が 力かっている範囲 (親指範囲)として推定することで使用者の指位置を検出する。  [0034] The inside of the range 31 surrounded by the straight lines 31a and 31b and the arc 31c set in this way is the range of the thumb on the touch panel 13a that is estimated as the pressing range 3b corresponding to the fingertip of the user's thumb. It corresponds to (virtual thumb range). Here, as described above, the pressing range 3b is a range that represents the vicinity of the center of the user's fingertip. Therefore, the range of the thumb that is actually exerted on the touch panel 13a is greater than the virtual thumb range 31. Wide range. Therefore, the finger position detection unit 18a sets a range 32 that is offset by a predetermined distance D of several millimeters outside the virtual thumb range 31, and the user's thumb is pressed on the touch panel 13a. The finger position of the user is detected by estimating it as the range (thumb range).
[0035] レイアウト決定部 18bは、指位置検出部 18aで設定された親指範囲 32と、上述した 種々の表示要素 5a〜5jとが重ならな!/、ように表示要素 5a〜5jの表示レイアウトを決 定する。すなわち、親指範囲 32は、上述したようにタツチパネル 13a上に力かる親指 の範囲であることから、この範囲内に操作ボタン等の表示要素を配置した場合には、 操作ボタンが親指に隠れて見にくかったり、親指の下にある操作ボタンを誤って押圧 してしまうなどの不具合が生じる。  [0035] The layout determining unit 18b is configured so that the thumb range 32 set by the finger position detecting unit 18a and the various display elements 5a to 5j described above do not overlap! / Decide. That is, since the thumb range 32 is a range of the thumb that is applied to the touch panel 13a as described above, when a display element such as an operation button is arranged within this range, the operation button is hidden behind the thumb and is difficult to see. Or the operator presses the operation button under the thumb by mistake.
[0036] このため、このような不具合を解消するために、レイアウト決定部 18bは、次のように して親指範囲 32と各表示要素とが重ならな 、ように表示要素の表示レイアウトを決定 する。まず、レイアウト決定部 18bは、親指範囲 32の上端に位置する点と接する水平 方向の直線 8aを設定し、親指範囲 32の左端に位置する点と接する垂直方向の直線 8bを設定する。さらに親指範囲 32の左端に位置する点より下方に存在する親指範 囲 32を構成する直線 8cを抽出する。そして、レイアウト決定部 18bは、設定した直線 8aおよび 8bと抽出した直線 8cとで囲まれる範囲内を表示要素配置不可範囲 8dとし て設定し、この範囲内には表示要素を配置しないように表示レイアウトを決定する。 [0036] Therefore, in order to solve such a problem, the layout determining unit 18b determines the display layout of the display element so that the thumb range 32 and each display element do not overlap as follows. To do. First, the layout determining unit 18b sets a horizontal straight line 8a in contact with a point located at the upper end of the thumb range 32, and sets a vertical straight line 8b in contact with a point located at the left end of the thumb range 32. Further, a straight line 8c constituting the thumb range 32 existing below the point located at the left end of the thumb range 32 is extracted. Then, the layout determining unit 18b sets the range surrounded by the set straight lines 8a and 8b and the extracted straight line 8c as the display element disabling range 8d, and displays the display element so as not to be placed within this range. Determine the layout.
[0037] 例えば、レイアウト決定部 18bは、表示要素配置不可範囲 8dを加味して表示要素 5 jをあら力じめ設定されている最大サイズでモニタ 13上に表示可能力否かを判断する 。その結果、表示要素 ¾を最大サイズで表示できないと判断した場合には、表示要 素配置不可範囲 8dの大きさに応じて表示要素 ¾をアスペクト比を維持したまま縮小 し、表示要素 ¾をモニタ 13上の所定位置に配置する。これに対して表示要素 ¾を最 大サイズで表示できると判断した場合には、レイアウト決定部 18bは、モニタ 13上の 所定の位置に最大サイズの表示要素 ¾を配置する。  [0037] For example, the layout determining unit 18b determines whether or not the display element 5j can be displayed on the monitor 13 with the maximum size that is preliminarily set by considering the display element disposition impossible range 8d. As a result, when it is determined that the display element ¾ cannot be displayed at the maximum size, the display element ¾ is reduced while maintaining the aspect ratio according to the size of the display element disposition impossible range 8d, and the display element ¾ is monitored. 13 is placed at a predetermined position. On the other hand, when it is determined that the display element ¾ can be displayed in the maximum size, the layout determining unit 18b arranges the display element ¾ having the maximum size at a predetermined position on the monitor 13.
[0038] そして、レイアウト決定部 18bは、表示要素配置不可範囲 8d外であり、かつ表示要 素 5jが配置されていない空きスペースに、その他の表示要素 5a〜5iを配置する。こ のとき、レイアウト決定部 18bは、表示要素同士が重ならないように、各表示要素のサ ィズおよび位置を調整する。これによつて、レイアウト決定部 18bは、表示要素配置 不可範囲 8d外に各表示要素が重ならな 、ように表示要素の表示レイアウトを決定す ることがでさる。  [0038] Then, the layout determining unit 18b arranges the other display elements 5a to 5i in an empty space outside the display element disposition impossible range 8d and in which the display element 5j is not arranged. At this time, the layout determining unit 18b adjusts the size and position of each display element so that the display elements do not overlap each other. Thus, the layout determining unit 18b can determine the display layout of the display elements so that the display elements do not overlap outside the display element disposition impossible range 8d.
[0039] なお、表示要素 5a〜5i、すなわち操作ボタンに相当する各表示要素には、上述し たようにカメラ 10を操作するための機能が割り当てられていることから、各表示要素の 相対的な配置位置はカメラ 10の操作性を加味してあら力じめ決定されている。よって 、レイアウト決定部 18bは、各表示要素の位置関係を保持したまま、全ての表示要素 が表示要素配置不可範囲 8dの外側に配置されるように、表示要素の大きさおよび位 置を調整して表示レイアウトを決定する。  [0039] Note that the display elements 5a to 5i, that is, the display elements corresponding to the operation buttons, are assigned the function for operating the camera 10 as described above. The appropriate arrangement position is determined with the operability of the camera 10 in mind. Therefore, the layout determination unit 18b adjusts the size and position of the display elements so that all the display elements are arranged outside the display element non-placeable range 8d while maintaining the positional relationship between the display elements. To determine the display layout.
[0040] 図 9に、親指範囲 32に応じた表示要素配置不可範囲 8dの設定例、および表示要 素の配置例を示す。図 9 (a)は、使用者が親指配置領域 7a内の上寄りに親指を置い てカメラ 10を把持した場合に設定される表示要素配置不可範囲 8dの具体例を示し ており、図 9 (b)は、使用者が親指配置領域 7a内の下寄りに親指を置いてカメラ 10を 把持した場合に設定される表示要素配置不可範囲 8dの具体例を示して 、る。このよ うに、図 9 (a)の場合と図 9 (b)の場合とでは、タツチパネル 13a上における親指範囲 3 2の位置に応じて、表示要素配置不可範囲 8dの位置も変化して 、ることがわ力る。 FIG. 9 shows a setting example of the display element disabling range 8d corresponding to the thumb range 32, and a display element arrangement example. Fig. 9 (a) shows a specific example of the display element disposition impossible range 8d set when the user holds the camera 10 with the thumb placed above the thumb placement region 7a. FIG. 9 (b) shows a specific example of the display element non-placement range 8d set when the user holds the camera 10 with the thumb placed below the thumb placement area 7a. . As described above, in the case of FIG. 9 (a) and FIG. 9 (b), the position of the display element non-placeable range 8d also changes depending on the position of the thumb range 32 on the touch panel 13a. I can tell you.
[0041] すなわち、図 9 (a)においては、親指範囲 32が上寄りに検出されていることに伴い、 モニタ 13上では表示要素配置不可範囲 8dの上側のスペースが狭ぐ下側のスぺー スが広くなつている。このため、レイアウト決定部 18bは、表示要素配置不可範囲 8d の上側に配置する表示要素 5aおよび 5bのサイズを小さくし、かつ表示要素 5aおよ び 5bの配置位置がモニタ 13の外枠に近い位置になるように表示レイアウトを決定し ている。また、表示要素配置不可範囲 8dの下側に配置する表示要素 5g〜5iについ ては、そのサイズが表示要素 5aおよび 5bよりも大きくなつている。  That is, in FIG. 9 (a), as the thumb range 32 is detected upward, the lower space in which the upper space of the display element disabling range 8d is narrow on the monitor 13 is narrowed. The service is getting wider. For this reason, the layout determining unit 18b reduces the size of the display elements 5a and 5b arranged above the display element non-placeable range 8d, and the arrangement positions of the display elements 5a and 5b are close to the outer frame of the monitor 13. The display layout is determined so that it is positioned. In addition, the display elements 5g to 5i arranged below the display element disposition impossible range 8d are larger in size than the display elements 5a and 5b.
[0042] これに対して、図 9 (b)においては、親指範囲 32が下寄りに検出されていることに伴 い、モニタ 13上では表示要素配置不可範囲 8dの上側のスペースが広ぐ下側のス ペースが狭くなつている。このため、レイアウト決定部 18bは、表示要素配置不可範 囲 8dの上側に配置する表示要素 5aおよび 5bのサイズを図 9 (a)の場合よりも大きくし 、配置位置も下側に移動している。このように使用者の親指の近くに表示要素 5aおよ び 5bを配置することで、使用者が操作ボタンを操作しやすくなつている。また、表示 要素配置不可範囲 8dの下側に配置する表示要素 5g〜5iについては、そのサイズが 表示要素 5aおよび 5bよりも小さくなつており、図 9 (a)の場合よりも配置位置が左側に ずれている。  On the other hand, in FIG. 9 (b), the space above the display element disabling range 8d is widened on the monitor 13 because the thumb range 32 is detected downward. The side space is narrow. Therefore, the layout determining unit 18b increases the size of the display elements 5a and 5b arranged above the display element arrangement impossible range 8d as compared with the case of FIG. 9 (a) and moves the arrangement position downward. Yes. By arranging the display elements 5a and 5b near the user's thumb in this way, the user can easily operate the operation buttons. In addition, the size of display elements 5g to 5i to be placed below display element disposition range 8d is smaller than display elements 5a and 5b, and the placement position is on the left side compared to the case of Fig. 9 (a). It is shifted to.
[0043] 表示制御部 18eは、レイアウト決定部 18dで決定された表示レイアウトに従って表 示要素 5a〜¾をモニタ 13上に配置して表示する。そして、登録部 18cは、使用者に 対して現在表示されている表示レイアウトを決定するか否かを確認するメッセージを 表示する。例えば、本実施の形態では、使用者によってレリーズボタン 11が全押しさ れることによって表示レイアウトを決定する。登録部 18cは、モニタ 13上に「この表示 レイアウトでよければ全押しして下さ!/、」のような確認メッセージを表示する。  [0043] The display control unit 18e arranges and displays the display elements 5a to ¾ on the monitor 13 in accordance with the display layout determined by the layout determination unit 18d. Then, the registration unit 18c displays a message for confirming whether or not to determine the display layout currently displayed to the user. For example, in the present embodiment, the display layout is determined when the release button 11 is fully pressed by the user. The registration unit 18c displays a confirmation message on the monitor 13 such as “Please fully press this display layout! /”.
[0044] 使用者は、現在表示されて!ヽる表示レイアウトを変更した ヽときは、表示されて!ヽる 各表示要素を指先でドラッグすることにより、各表示要素の配置位置を微調整するこ とができる。また、使用者はカメラ 10を把持したときの親指の位置を変更して、一から 表示レイアウトを変更しなおしたいと考えた場合には、タツチパネル 13a上の親指の 位置を変更してカメラ 10を把持し、再度レリーズボタン 11を半押しする。 [0044] When the user changes the display layout that is currently displayed, it is displayed and displayed. By dragging each display element with a fingertip, the position of each display element is finely adjusted. This You can. Also, if the user changes the position of the thumb when holding the camera 10 and wants to change the display layout from scratch, change the position of the thumb on the touch panel 13a and move the camera 10 Grasp and press release button 11 halfway again.
[0045] これによつて、指位置検出部 18aおよびレイアウト決定部 18bは変更後の親指の位 置に基づいて上述した処理を実行し、表示制御部 18eは、改めてレイアウト決定部 1 8bで決定された表示レイアウトに従って表示要素をモニタ 13上に配置する。一方、 使用者によってレリーズボタン 11が全押しされ、表示レイアウトの決定が指示された 場合には、レイアウト決定部 18bは、モニタ 13上に表示されている表示レイアウトを確 定する。 Thereby, the finger position detecting unit 18a and the layout determining unit 18b execute the above-described processing based on the changed thumb position, and the display control unit 18e is newly determined by the layout determining unit 18b. The display elements are arranged on the monitor 13 in accordance with the displayed display layout. On the other hand, when the release button 11 is fully pressed by the user and the display layout is instructed, the layout determining unit 18b determines the display layout displayed on the monitor 13.
[0046] 登録部 18cは、レイアウト決定部 18bで確定された表示レイアウトに関する情報、指 位置検出部 18aで検出された使用者の親指の位置に関する情報を横位置の登録情 報としてメモリ 19に内に記録する。なお、表示レイアウトに関する情報としては、例え ば各表示要素のモニタ 13上での表示位置を表す情報 (座標値)および各表示要素 の表示サイズが登録される。また、使用者の親指の位置に関する情報としては、上述 した親指範囲 32を構成する直線 8a〜8cのモニタ 13上での位置 (座標)および長さ を表す情報が記録される。  [0046] The registration unit 18c stores in the memory 19 information on the display layout determined by the layout determination unit 18b and information on the position of the user's thumb detected by the finger position detection unit 18a as lateral position registration information. To record. As the information about the display layout, for example, information (coordinate values) indicating the display position of each display element on the monitor 13 and the display size of each display element are registered. Further, as the information regarding the position of the user's thumb, information indicating the position (coordinates) and length on the monitor 13 of the straight lines 8a to 8c constituting the thumb range 32 described above is recorded.
[0047] 以上のように、カメラ 10の姿勢が横位置であるときの表示レイアウトの登録が完了す ると、登録部 18cは、使用者に対して、例えば「縦位置の登録情報を登録します」のよ うなメッセージをモニタ 13に表示して、使用者に対して縦位置レイアウトに関する情 報 (縦位置の登録情報)の登録を開始する旨を通知する。その後、使用者に対して力 メラ 10を縦向きに把持してレリーズボタン 11の半押しをするように促す。  [0047] As described above, when registration of the display layout when the posture of the camera 10 is in the horizontal position is completed, the registration unit 18c instructs the user to register, for example, "registration information of the vertical position. A message such as “Masa” is displayed on the monitor 13 to notify the user that registration of information on the vertical layout (vertical registration information) is to be started. Thereafter, the user is urged to hold the force camera 10 vertically and press the release button 11 halfway.
[0048] 例えば、図 10に示すように、登録部 18cは表示制御部 18eにより、モニタ 13上に「 カメラを縦向きに構えて半押しして下さい」のようなメッセージを表示させる。このとき、 図 7で上述した横位置の場合と同様に、登録部 18cは、使用者のタツチパネル上の 親指の位置があらかじめ定めた所定範囲内に納まるようにモニタ 13上に親指配置領 域 7aを設定し、表示制御部 18eに、その親指配置領域 7a内に「ここに親指をおいて 下さ 、」のようなメッセージを表示させる。  For example, as shown in FIG. 10, the registration unit 18c causes the display control unit 18e to display a message such as “Please hold the camera vertically and press halfway” on the monitor 13. At this time, as in the case of the horizontal position described above with reference to FIG. 7, the registration unit 18c displays the thumb placement area 7a on the monitor 13 so that the thumb position on the touch panel of the user falls within a predetermined range. And the display control unit 18e displays a message such as “Put your thumb here” in the thumb placement area 7a.
[0049] なお、カメラ 10の姿勢が縦位置の場合の親指配置領域 7aは、使用者力カメラ 10の 姿勢が縦方向となるように把持したときに、ストロボ発光部 17がレンズ 16の上側に位 置するように設定される。上述したように、ストロボ発光部 17は、使用者がカメラを縦 方向 '横方向のいずれの方向で構えたときにも、ストロボ光をレンズ 16の上側から照 射するように配置されている。しかし、使用者がカメラ 10を縦方向に構えて把持する ときには、横方向のようにカメラ 10を把持する向きが明確ではないため、使用者が誤 つてストロボ発光部 17がレンズ 16の下側に位置するようにカメラ 10を把持してしまう 可能性がある。 [0049] It should be noted that the thumb placement region 7a when the posture of the camera 10 is the vertical position is The electronic flash unit 17 is set to be positioned above the lens 16 when the posture is held in the vertical direction. As described above, the strobe light emitting unit 17 is arranged so that the strobe light is emitted from the upper side of the lens 16 when the user holds the camera in either the vertical direction or the horizontal direction. However, when the user holds the camera 10 in the vertical direction and holds it, the direction in which the camera 10 is held is not clear as in the horizontal direction, so the user mistakenly puts the flash unit 17 under the lens 16. There is a possibility of holding the camera 10 so that it is positioned.
[0050] したがって、親指配置領域 7aをストロボ発光部 17がレンズ 16の上側に位置するよ うに設定することによって、使用者が逆向きにカメラ 10を把持することを回避すること ができ、使用者に対して常にストロボ光がレンズ 16の上側力も照射されるようにカメラ 10の把持向きを誘導することができる。  [0050] Therefore, by setting the thumb placement area 7a so that the strobe light emitting unit 17 is positioned above the lens 16, the user can be prevented from gripping the camera 10 in the reverse direction. On the other hand, the holding direction of the camera 10 can be guided so that the strobe light is always irradiated with the upper force of the lens 16.
[0051] 指位置検出部 18aは、レリーズボタン 11が半押しされたことを検出したときに、使用 者によってタツチパネル 13aが押圧されている力否かを判定する。そして、使用者に よってタツチパネル 13aが押圧されているときには、その押圧範囲 3bを特定し、特定 した押圧範囲 3bが親指配置領域 7a内に位置している力否かを検出する。その結果 、特定した押圧範囲 3bが親指配置領域 7aからはみ出していることを検出した場合に は、登録部 18cは、使用者に親指 3aの位置を親指配置領域 7a内に移動するように 警告する。  [0051] When the finger position detection unit 18a detects that the release button 11 is half-pressed, the finger position detection unit 18a determines whether or not the user is pressing the touch panel 13a. Then, when the touch panel 13a is pressed by the user, the pressing range 3b is specified, and it is detected whether or not the specified pressing range 3b is positioned within the thumb placement region 7a. As a result, when it is detected that the specified pressing range 3b protrudes from the thumb placement area 7a, the registration unit 18c warns the user to move the position of the thumb 3a into the thumb placement area 7a. .
[0052] これに対して、特定した押圧範囲 3bが親指配置領域 7a内に含まれていることを検 出した場合には、上述した横位置の場合と同様に使用者の指位置を検出する。そし て、レイアウト決定部 18bは、検出された指位置、すなわち親指範囲 32に基づいて、 図 11に示すように直線 8a〜8cを設定して表示要素配置不可範囲 8dを設定する。そ して、設定した表示要素配置不可範囲 8dの外側に表示要素を配置するように表示レ ィアウトを決定する。その後、表示制御部 18eは、決定された表示レイアウトに従って 各表示要素をモニタ 13上に表示する。  [0052] On the other hand, when it is detected that the specified pressing range 3b is included in the thumb placement area 7a, the finger position of the user is detected as in the case of the horizontal position described above. . Then, based on the detected finger position, that is, the thumb range 32, the layout determining unit 18b sets straight lines 8a to 8c as shown in FIG. Then, the display layout is determined so that the display element is arranged outside the set display element disabling range 8d. Thereafter, the display control unit 18e displays each display element on the monitor 13 according to the determined display layout.
[0053] 一方、レリーズボタン 11が半押しされたことを検出したときに、使用者によってタツチ パネル 13aが押圧されていないときには、指位置検出部 18aは指位置の検出処理を 行わない。この場合には、表示制御部 18eは、記録済みの横位置の登録情報をメモ リ 19から読み込んで、横位置の登録情報に基づく表示レイアウトに従って各表示要 素を表示する。このとき、例えば操作ボタンなどのように、表示要素内に文字が記載 されているものがあるときは、横位置の場合とは文字の向きを 90度回転させて表示す るようにして、使用者がカメラ 10を縦向きに構えたときに、文字が正常に読めるように する。 On the other hand, when it is detected that the release button 11 is half-pressed and the touch panel 13a is not pressed by the user, the finger position detection unit 18a does not perform the finger position detection process. In this case, the display control unit 18e takes note of the recorded lateral position registration information. Read from the list 19 and display each display element according to the display layout based on the registration information of the horizontal position. At this time, for example, if there are characters written in the display element, such as operation buttons, it is used by rotating the direction of the character 90 degrees from the case of the horizontal position. When a person holds the camera 10 vertically, the characters can be read correctly.
[0054] 登録部 18cは、表示制御部 18eによって表示要素がモニタ 13上に表示されると、 横位置の場合と同様に、使用者に対して現在表示されている表示レイアウトを決定 する力否かを確認するメッセージ、例えば「この表示レイアウトでよければ全押しして 下さい」を表示制御部 18eによりモニタ 13に表示させる。ここで使用者は上述した横 位置の場合と同様に各表示要素をドラッグして微調整することもでき、再度レリーズボ タン 11を半押しして、新たな指の位置に基づく表示レイアウトを決定することもできる  [0054] When the display element is displayed on the monitor 13 by the display control unit 18e, the registration unit 18c determines whether the display layout currently displayed to the user is the same as in the horizontal position. A message for confirming, for example, “Please press the button fully if this display layout is acceptable” is displayed on the monitor 13 by the display control unit 18e. Here, the user can also finely adjust each display element by dragging in the same manner as in the case of the horizontal position described above, and press the release button 11 halfway again to determine the display layout based on the new finger position. Can also
[0055] 使用者によってレリーズボタン 11が全押しされると、レイアウト決定部 18bは、モニタ 13上に表示されている表示レイアウトを確定する。そして、登録部 18cは、レイアウト 決定部 18bで確定された表示レイアウトに関する情報、指位置検出部 18aで検出さ れた使用者の親指の位置に関する情報を縦位置の登録情報としてメモリ 19に記録 する。そして、登録部 18cは、上述した処理で記録した横位置の登録情報と縦位置 の登録情報に最初に使用者によって指定された登録番号を付加して、メモリ 19内に 設けた登録領域に登録する。これによつて、登録部 18cは、横位置の登録情報と縦 位置の登録情報とを同一の登録番号により、対応付けて登録することができる。 When the release button 11 is fully pressed by the user, the layout determining unit 18b determines the display layout displayed on the monitor 13. Then, the registration unit 18c records, in the memory 19, information on the display layout determined by the layout determination unit 18b and information on the user's thumb position detected by the finger position detection unit 18a as vertical position registration information. . Then, the registration unit 18c adds the registration number initially specified by the user to the registration information of the horizontal position and the registration information of the vertical position recorded by the above-described processing, and registers it in the registration area provided in the memory 19 To do. Accordingly, the registration unit 18c can register the registration information of the horizontal position and the registration information of the vertical position in association with each other using the same registration number.
[0056] 使用者は、一度登録した登録情報を再度呼び出して使用することができる。すなわ ち、使用者は、次回以降カメラ 10を使用する際には、モニタ 13上に表示される表示 要素の表示レイアウトを呼び出した登録情報に含まれる表示レイアウトに従ったものと することができる。なお、本実施の形態では、上述したように使用者ごとに複数の登 録情報を登録することができるため、使用者は登録されている登録情報の中から自 分用に登録した登録情報を選択して読み出す必要がある。  [0056] The user can recall and use the registered information once registered. In other words, the user can follow the display layout included in the registered information for calling the display layout of the display element displayed on the monitor 13 the next time the camera 10 is used. . In this embodiment, as described above, since a plurality of pieces of registration information can be registered for each user, the user can register registration information registered for his own use from among the registered registration information. Need to select and read.
[0057] 本実施の形態におけるカメラ 11では、例えば、図 12 (a)に示すようにモニタ 13の上 部のカメラ本体部に登録番号に対応する番号を印字しておき、使用者は印字された 登録番号の下部に位置するタツチパネル 13aを押圧しながらカメラ 10の電源を投入 することによって、読み出したい登録番号を指定することができる。すなわち、読み出 し部 18dは、カメラ 10の電源が投入された時点におけるタツチパネル 13a上の押圧 位置を検出し、使用者によってどの登録番号に応じた位置が押圧されているかを判 定すること〖こよって、使用者によって指定された登録番号を特定する。そして読み出 し部 18dは、特定した登録番号の登録情報をメモリ 19から読み出す。 In the camera 11 according to the present embodiment, for example, as shown in FIG. 12 (a), a number corresponding to the registration number is printed on the camera body at the top of the monitor 13, and the user is printed. The By turning on the camera 10 while pressing the touch panel 13a located below the registration number, the registration number to be read can be designated. That is, the reading unit 18d detects the pressing position on the touch panel 13a when the power of the camera 10 is turned on, and determines which registration number is pressed by the user. Thus, the registration number designated by the user is specified. Then, the reading unit 18d reads the registration information of the specified registration number from the memory 19.
[0058] 表示制御部 18eは、読み出し部 18dによって読み出された登録情報に含まれてい る表示レイアウトに関する情報に基づいて各表示要素をそれぞれの表示位置に配置 してモニタ 13上に表示する。すなわち、表示制御部 18eは、姿勢センサ 21からの出 力に基づ 、て現在のカメラ 10の姿勢が横位置か縦位置かを判定する。そして読み 出し部 18dによって読み出されている登録情報の中から、現在のカメラ 10の姿勢に 応じた表示レイアウトに関する情報を抽出し、抽出した表示レイアウトに従って表示要 素 5a〜5jをモニタ 13上に配置する。  [0058] The display control unit 18e arranges the display elements at the respective display positions based on the information regarding the display layout included in the registration information read by the reading unit 18d and displays the display elements on the monitor 13. That is, the display control unit 18e determines whether the current posture of the camera 10 is the horizontal position or the vertical position based on the output from the posture sensor 21. Information on the display layout corresponding to the current posture of the camera 10 is extracted from the registration information read by the reading unit 18d, and the display elements 5a to 5j are displayed on the monitor 13 according to the extracted display layout. Deploy.
[0059] これによつて使用者は、カメラ 10の電源投入時に登録済みの登録情報を選択する ことができ、あらかじめ登録した使用者の親指位置 (親指範囲 32)に合った表示レイ アウトに従って表示された表示要素を使用してカメラ 10を操作することができる。また 、表示制御部 18eは、登録情報に含まれる横位置の登録情報と縦位置の登録情報 の中力 姿勢センサ 21からの出力に応じた登録情報を抽出して表示要素をモニタ 1 3上に配置するようにした。これによつて、使用者はカメラ 10を構えた向きに応じた最 適な画面レイアウトでカメラ 10を使用することができ、使用者の利便性が向上する。  [0059] This allows the user to select registered registration information when the camera 10 is turned on, and displays the information according to the display layout that matches the user's previously registered thumb position (thumb range 32). The displayed display element can be used to operate the camera 10. In addition, the display control unit 18e extracts registration information corresponding to the output from the medium force posture sensor 21 of the horizontal position registration information and the vertical position registration information included in the registration information, and displays the display elements on the monitor 13. It was arranged. As a result, the user can use the camera 10 with an optimal screen layout according to the direction in which the camera 10 is held, and the convenience for the user is improved.
[0060] 使用者は、電源投入時に指定した登録番号が誤って!/ヽた場合には、登録番号の 指定を変更することができる。具体的には、使用者カ^ニュ一ボタンに相当する表示 要素 (メニューボタン) 5gを操作して、登録番号の読み出しを指示すると表示制御部 18eは表示要素 ¾内に図 12 (b)に示すように登録番号を一覧表示する。そして、使 用者は、一覧の中から任意の登録番号を選択してタツチすることによって、登録番号 の再読み出しを指示することができる。  [0060] The user incorrectly entered the registration number specified when the power was turned on! In case of a mistake, the registration number designation can be changed. Specifically, when the display element (menu button) 5g corresponding to the user's menu button is operated to instruct to read the registration number, the display control unit 18e displays the display element ¾ in FIG. 12 (b). List registration numbers as shown. The user can instruct re-reading of the registration number by selecting and touching an arbitrary registration number from the list.
[0061] 読み出し部 18dは、使用者によっていずれかの登録番号が押圧されると、押圧され た登録番号の登録情報をメモリ 19から読み出す。表示制御部 18eは、姿勢センサ 21 力もの出力に基づいて現在のカメラ 10の姿勢が横位置か縦位置かを判定する。そし て読み出し部 18dによって読み出されている登録情報の中から、現在のカメラ 10の 姿勢に応じた表示レイアウトに関する情報を抽出し、抽出した表示レイアウトに従って 表示要素 5a〜5jをモニタ 13上に配置する。 [0061] When any registration number is pressed by the user, the reading unit 18d reads the registration information of the pressed registration number from the memory 19. The display control unit 18e is provided with an attitude sensor 21 Based on the output of force, it is determined whether the current posture of the camera 10 is the horizontal position or the vertical position. Then, information related to the display layout corresponding to the current posture of the camera 10 is extracted from the registration information read by the reading unit 18d, and the display elements 5a to 5j are arranged on the monitor 13 according to the extracted display layout. To do.
[0062] その後、表示制御部 18eは、姿勢センサ 21からの出力に基づいて、カメラ 10の姿 勢が変更されたと判断した場合には、読み出し部 18dによって読み出されている登 録情報の中から、変更後のカメラ 10の姿勢に応じた表示レイアウトに関する情報を抽 出し、抽出した表示レイアウトに従って表示要素 5a〜¾をモニタ 13上に配置する。こ のとき、表示制御装置 18eは、モニタ 13上に文字が表示されている表示要素がある 場合には、その文字の向きもカメラの向きに合わせて変更する。  [0062] After that, when the display control unit 18e determines that the posture of the camera 10 has been changed based on the output from the attitude sensor 21, the display control unit 18e includes the registration information read by the reading unit 18d. Then, information on the display layout corresponding to the posture of the camera 10 after the change is extracted, and the display elements 5a to ¾ are arranged on the monitor 13 according to the extracted display layout. At this time, if there is a display element displaying characters on the monitor 13, the display control device 18e also changes the direction of the characters according to the direction of the camera.
[0063] 例えば、メニューボタン 5gに「メニュー」と 、う文字が表示されて!、る場合には、カメ ラ 10の姿勢が横位置の時は使用者がカメラ 10を横向きに構えたときに文字を正しい 向きに読めるように文字の向きを変化させるようにする。同様に、カメラ 10の姿勢が縦 位置の時は使用者がカメラ 10を縦向きに構えたときに文字を正しい向きに読めるよう にする。なお、文字の向きを変更する際には、瞬間的に文字の向きを変更するように してもよく、あるいは文字の向きが徐々に変化するようにアニメーション表示するように してちよい。  [0063] For example, when the menu button 5g is displayed with the word "menu" and the letter "!", When the camera 10 is in the horizontal position, the user holds the camera 10 sideways. Change the orientation of the characters so that they can be read in the correct orientation. Similarly, when the camera 10 is in the vertical position, when the user holds the camera 10 in the vertical direction, the characters can be read in the correct direction. When changing the direction of characters, the direction of characters may be changed instantaneously, or animation may be displayed so that the direction of characters gradually changes.
[0064] 以上のように、カメラ 10の姿勢の変化に応じて、横位置の登録情報に基づく表示レ ィアウトと縦位置の登録情報に基づく表示レイアウトとを切り替えるようにしたことにより 、使用者によるカメラ 10を構える向きが変化した場合であっても、モニタ 13上の表示 内容をカメラの向きに応じたものとすることができ、使用者の利便性が向上する。  [0064] As described above, the display layout based on the registration information of the horizontal position and the display layout based on the registration information of the vertical position are switched according to the change in the posture of the camera 10, so that the user can Even when the orientation in which the camera 10 is held is changed, the display content on the monitor 13 can be made in accordance with the orientation of the camera, which improves the convenience for the user.
[0065] 図 13は、本実施の形態における上述した登録情報の登録処理を示すフローチヤ ートである。図 13における処理は、使用者によって登録情報の登録開始が指示され た場合に起動する処理として制御装置 18によって実行される。  FIG. 13 is a flow chart showing the registration information registration process described above in the present embodiment. The process in FIG. 13 is executed by the control device 18 as a process to be started when the registration instruction of registration information is instructed by the user.
[0066] ステップ S10において、登録部 18cは、使用者に対してこれから登録する登録情報 に付加する登録番号の指定を促すためのメッセージを出力してステップ S20へ進む 。ステップ S20では、登録部 18cは、使用者によって登録番号が指定された力否かを 判断し、指定されたと判断した場合にはステップ S30へ進む。ステップ S30では、登 録部 18cは、例えば「横位置の登録情報を登録します」のようなメッセージをモニタ 13 に表示して、使用者に対して横位置の登録情報の登録を開始する旨を通知する。そ の後、ステップ S40へ進む。 [0066] In step S10, the registration unit 18c outputs a message for prompting the user to specify a registration number to be added to the registration information to be registered, and proceeds to step S20. In step S20, the registration unit 18c determines whether or not the registration number is designated by the user. If it is determined that the registration number is designated, the process proceeds to step S30. In step S30, For example, the recording unit 18c displays a message such as “Register lateral position registration information” on the monitor 13 to notify the user that registration of the lateral position registration information is started. Then go to step S40.
[0067] ステップ S40では、登録部 18cは、図 7で上述したように、カメラ 10の姿勢が横位置 の場合の親指配置領域 7aを設定してその領域の範囲を示す線をモニタ 13上に表示 する。その後、ステップ S50へ進み、登録部 18cは、モニタ 13上に「カメラを横向きに 構えて半押しして下さい」のようなメッセージを表示して、使用者に半押しを促す。同 時に、親指配置領域 7a内に「ここに親指をおいて下さい」のようなメッセージを表示す る。その後、ステップ S60へ進む。  [0067] In step S40, as described above with reference to FIG. 7, the registration unit 18c sets the thumb placement region 7a when the posture of the camera 10 is in the horizontal position, and displays a line indicating the range of the region on the monitor 13. indicate. Thereafter, the process proceeds to step S50, and the registration unit 18c displays a message such as “Please hold the camera sideways and press halfway” on the monitor 13 to prompt the user to press halfway. At the same time, a message such as “Place your thumb here” is displayed in the thumb placement area 7a. Thereafter, the process proceeds to step S60.
[0068] ステップ S60では、指位置検出部 18aは、使用者によってレリーズボタン 11が半押 しされたか否かを判断する。レリーズボタン 11が半押しされたと判断した場合にはス テツプ S70へ進み、指位置検出部 18aおよびレイアウト決定部 18bは、図 14で後述 する表示レイアウト決定処理を実行する。すなわち、指位置検出部 18aはカメラ 10の 姿勢が横位置のときの使用者の押圧範囲 3bを特定し、レイアウト決定部 18bは押圧 範囲 3bに基づいて横位置のときの表示要素の表示レイアウトを決定する。  [0068] In step S60, the finger position detector 18a determines whether or not the release button 11 is half-pressed by the user. If it is determined that the release button 11 has been half-pressed, the process proceeds to step S70, where the finger position detection unit 18a and the layout determination unit 18b execute a display layout determination process described later with reference to FIG. That is, the finger position detection unit 18a specifies the pressing range 3b of the user when the posture of the camera 10 is in the horizontal position, and the layout determination unit 18b determines the display layout of the display element when in the horizontal position based on the pressing range 3b. decide.
[0069] その後、ステップ S80へ進み、表示制御部 18eは、レイアウト決定部 18bによって決 定された表示レイアウトに従って各表示要素をモニタ 13上に配置して表示する。その 後、ステップ S90へ進み、登録部 18cは、使用者に対して現在表示されている表示レ ィアウトを決定する力否かを確認するメッセージをモニタ 13に出力してステップ S100 へ進む。ステップ S100では、登録部 18cは、使用者によってレリーズボタン 11が全 押しされた力否かを判断する。レリーズボタン 11が全押しされて 、な 、と判断した場 合には、ステップ S110へ進む。  Thereafter, the process proceeds to step S80, and the display control unit 18e arranges and displays each display element on the monitor 13 in accordance with the display layout determined by the layout determination unit 18b. After that, the process proceeds to step S90, and the registration unit 18c outputs a message confirming whether or not the user is able to determine the display layout currently displayed to the user to the monitor 13 and proceeds to step S100. In step S100, the registration unit 18c determines whether or not the release button 11 is fully pressed by the user. If it is determined that the release button 11 has been fully pressed, the process proceeds to step S110.
[0070] ステップ S110では、登録部 18cは、上述したように使用者によってタツチパネル 13 a上で表示要素がドラッグされることによって表示レイアウトが修正されたか否かを判 断する。表示レイアウトが修正されていないと判断した場合には、後述するステップ S 121へ進む。一方、表示レイアウトが修正されたと判断した場合には、ステップ S 120 へ進み、レイアウト決定部 18cは、使用者によるタツチパネル操作に応じて表示レイ アウトを変更し、ステップ S121へ進む。 [0071] ステップ S121では、使用者によってレリーズボタン 11の半押しが解除されたか否 かを判断する。使用者によって半押しが解除されたと判断した場合には、ステップ S6 0へ戻って処理を繰り返す。これに対して、使用者によって半押しが解除されていな いと判断した場合には、ステップ S 100へ戻って処理を繰り返す。 In step S110, the registration unit 18c determines whether or not the display layout has been corrected by dragging the display element on the touch panel 13a by the user as described above. If it is determined that the display layout has not been modified, the process proceeds to step S 121 described later. On the other hand, if it is determined that the display layout has been modified, the process proceeds to step S120, where the layout determining unit 18c changes the display layout in accordance with the touch panel operation by the user, and proceeds to step S121. In step S121, it is determined whether or not the release button 11 is half-pressed by the user. If it is determined that the half-press is released by the user, the process returns to step S60 and repeats the process. On the other hand, if it is determined by the user that the half-press has not been released, the process returns to step S100 and the process is repeated.
[0072] ステップ S100でレリーズボタン 11が全押しされたと判断した場合には、ステップ S1 30へ進み、登録部 18cは、モニタ 13に表示されている表示レイアウトに関する情報、 および指位置検出部 18aで検出した使用者の親指の位置に関する情報を横位置の 登録情報としてメモリ 19に記録する。その後、ステップ S 140へ進み、登録部 18cは、 横位置の登録情報と縦位置の登録両方のいずれも記録が完了したか否かを判断す る。いずれも完了したと判断した場合には、後述するステップ S210へ進む。これに対 して横位置の登録情報の記録しか完了していないと判断した場合にはステップ S15 0へ進む o  [0072] If it is determined in step S100 that the release button 11 has been fully pressed, the process proceeds to step S130, and the registration unit 18c receives information on the display layout displayed on the monitor 13 and the finger position detection unit 18a. Information on the detected user's thumb position is recorded in the memory 19 as lateral position registration information. Thereafter, the process proceeds to step S140, and the registration unit 18c determines whether or not both the horizontal position registration information and the vertical position registration have been recorded. If it is determined that both have been completed, the process proceeds to step S210 described later. On the other hand, if it is determined that only recording of the registration information in the horizontal position has been completed, the process proceeds to step S150.
[0073] ステップ S150では、登録部 18cは、例えば「縦位置の登録情報を登録します」のよ うなメッセージをモニタ 13に表示して、使用者に対して縦位置の登録情報の登録を 開始する旨を通知する。その後、ステップ S160へ進み、登録部 18cは、図 10で上述 したように、カメラ 10の姿勢が縦位置の場合の親指配置領域 7aを設定してその領域 の範囲を示す線をモニタ 13上に表示してステップ S 170へ進む。ステップ S 170では 、登録部 18cは、モニタ 13上に「カメラを縦向きに構えて半押しして下さい」のようなメ ッセージを表示して、使用者に半押しを促す。同時に、親指配置領域 7a内に「ここに 親指をおいて下さい」のようなメッセージを表示する。その後、ステップ S180へ進む。  [0073] In step S150, the registration unit 18c displays a message such as "Register vertical position registration information" on the monitor 13, and starts registration of vertical position registration information for the user. Notify you. Thereafter, the process proceeds to step S160, and the registration unit 18c sets the thumb placement area 7a when the posture of the camera 10 is the vertical position and sets a line indicating the range of the area on the monitor 13 as described above with reference to FIG. Display and go to step S170. In step S 170, the registration unit 18 c displays a message such as “Please hold the camera vertically and press it halfway” on the monitor 13 to prompt the user to press it halfway. At the same time, a message such as “Place your thumb here” is displayed in the thumb placement area 7a. Thereafter, the process proceeds to step S180.
[0074] ステップ S180では、指位置検出部 18aは、使用者によってレリーズボタン 11が半 押しされたカゝ否かを判断する。レリーズボタン 11が半押しされたと判断した場合には ステップ S190へ進む。ステップ S190では、指位置検出部 18aは、使用者がタツチパ ネル 13a上を押圧しているか否かを判断する。使用者がタツチパネル 13a上を押圧し て 、ると判断した場合には、ステップ S 70へ戻る。  In step S180, the finger position detection unit 18a determines whether or not the release button 11 has been pressed halfway by the user. If it is determined that the release button 11 has been pressed halfway, the process proceeds to step S190. In step S190, the finger position detection unit 18a determines whether or not the user is pressing on the touch panel 13a. If it is determined that the user presses on the touch panel 13a, the process returns to step S70.
[0075] ステップ S70では、指位置検出部 18aおよびレイアウト決定部 18bは、図 14で後述 する表示レイアウト決定処理を実行する。すなわち、指位置検出部 18aはカメラ 10の 姿勢が縦位置のときの使用者の押圧範囲 3bを特定し、レイアウト決定部 18bは押圧 範囲 3bに基づいて縦位置のときの表示要素の表示レイアウトを決定する。 In step S70, the finger position detection unit 18a and the layout determination unit 18b execute a display layout determination process described later with reference to FIG. That is, the finger position detection unit 18a specifies the pressing range 3b of the user when the posture of the camera 10 is the vertical position, and the layout determination unit 18b Based on range 3b, the display layout of the display element in the vertical position is determined.
[0076] 一方、使用者カ^ッチパネル 13a上を押圧していないと判断した場合には、ステツ プ S200へ進む。ステップ S200では、表示制御部 18eは、記録済みの横位置の登 録情報をメモリ 19から読み込んで、横位置の登録情報に基づく表示レイアウトに従つ て各表示要素を表示する。その後、ステップ S90へ戻って処理を続行する。  [0076] On the other hand, if it is determined that the user's touch panel 13a is not pressed, the process proceeds to step S200. In step S200, the display control unit 18e reads the recorded lateral position registration information from the memory 19, and displays each display element in accordance with the display layout based on the lateral position registration information. Thereafter, the process returns to step S90 to continue the processing.
[0077] ステップ S210では、登録部 18cは、上述した処理でメモリ 19に記録した横位置の 登録情報および縦位置の登録情報に、ステップ S20で使用者によって指定された登 録番号を付カ卩してメモリ 19に登録する。その後ステップ S220へ進み、モニタ 13に登 録情報の登録完了を通知するメッセージを出力して、処理を終了する。  [0077] In step S210, the registration unit 18c adds the registration number designated by the user in step S20 to the horizontal position registration information and the vertical position registration information recorded in the memory 19 by the above-described processing. And register it in memory 19. Thereafter, the process proceeds to step S220, a message notifying registration completion of registration information is output to the monitor 13, and the process ends.
[0078] 図 14は、ステップ S70で実行される表示レイアウト決定処理を示すフローチャート である。ステップ S71において、指位置検出部 18aは、タツチパネル 13aからの信号 に基づいてタツチパネル 13a上での使用者の親指 3aによる押圧範囲 3bを特定する。 その後、ステップ S72へ進み、指位置検出部 18aは、特定した押圧範囲 3bが親指配 置領域 7a内にあるか否かを判断する。押圧範囲 3bが親指配置領域 7a内にないと判 断した場合にはステップ S73へ進み、登録部 18cは、使用者に対して親指 3aの位置 を親指配置領域 7a内に移動するように警告するメッセージを表示制御部 18eに表示 させ、ステップ S71へ戻る。なお、警告は音声によって行うようにしてもよい。  FIG. 14 is a flowchart showing the display layout determination process executed in step S70. In step S71, the finger position detection unit 18a specifies the pressing range 3b by the user's thumb 3a on the touch panel 13a based on the signal from the touch panel 13a. Thereafter, the process proceeds to step S72, and the finger position detection unit 18a determines whether or not the specified pressing range 3b is within the thumb placement area 7a. If it is determined that the pressing range 3b is not within the thumb placement area 7a, the process proceeds to step S73, and the registration unit 18c warns the user to move the position of the thumb 3a into the thumb placement area 7a. The message is displayed on the display control unit 18e, and the process returns to step S71. The warning may be given by voice.
[0079] 一方、押圧範囲 3bが親指配置領域 7a内にあると判断した場合には、ステップ S 74 へ進み、指位置検出部 18aは、図 8で上述したように押圧範囲 3bに基づいて仮想親 指範囲 31を推定する。その後、ステップ S75へ進み、指位置検出部 18aは、推定し た仮想親指範囲 31にオフセット Dをカ卩えて親指範囲 32を検出してステップ S76へ進 む。  On the other hand, if it is determined that the pressing range 3b is within the thumb placement region 7a, the process proceeds to step S74, and the finger position detection unit 18a performs virtual processing based on the pressing range 3b as described above with reference to FIG. Estimate parent range 31. Thereafter, the process proceeds to step S75, and the finger position detection unit 18a detects the thumb range 32 by adding the offset D to the estimated virtual thumb range 31, and proceeds to step S76.
[0080] ステップ S76では、レイアウト決定部 18bは、図 9に示したように、親指範囲 32に基 づいてモニタ 13上に表示要素配置不可範囲 8dを設定してステップ S 77へ進む。ス テツプ S77では、レイアウト決定部 18bは、表示要素配置不可範囲 8dの外に表示要 素を配置するように各表示要素の表示レイアウトを決定する。その後、処理を終了す る。  In step S76, as shown in FIG. 9, the layout determining unit 18b sets the display element disabling range 8d on the monitor 13 based on the thumb range 32, and proceeds to step S77. In step S77, the layout determining unit 18b determines the display layout of each display element so that the display element is arranged outside the display element disposition impossible range 8d. Then, the process ends.
[0081] 図 15は、本実施の形態における登録情報の読み出し処理および表示要素の表示 制御処理を示すフローチャートである。図 15に示す処理は、カメラ 10の電源がオンさ れると起動するプログラムとして制御装置 18によって実行される。 FIG. 15 shows the registration information read processing and display element display in the present embodiment. It is a flowchart which shows a control process. The process shown in FIG. 15 is executed by the control device 18 as a program that starts when the power of the camera 10 is turned on.
[0082] ステップ S310において、読み出し部 18dは、図 12に示したように使用者によって 電源オン時にタツチパネル 13a上で指定されていた登録番号を検出する。使用者の 指定入力がない場合は登録番号 1が指定されたと判定する。その後、ステップ S320 へ進み、読み出し部 18dは、使用者によって指定された登録番号の登録情報をメモ リ 19から読み出してステップ S330へ進む。ステップ S330では、表示制御部 18eは、 姿勢センサ 21からの出力に基づいて現在のカメラ 10の姿勢を判定し、現在のカメラ 10の姿勢に応じた表示レイアウトに関する情報を抽出する。その後、ステップ S340 へ進み、抽出した表示レイアウトに従って表示要素 5a〜5jをモニタ 13上に配置して ステップ S350へ進む。 In step S310, the reading unit 18d detects the registration number designated on the touch panel 13a when the power is turned on by the user as shown in FIG. If there is no user input, it is determined that registration number 1 is specified. Thereafter, the process proceeds to step S320, where the reading unit 18d reads the registration information of the registration number designated by the user from the memory 19, and proceeds to step S330. In step S330, the display control unit 18e determines the current posture of the camera 10 based on the output from the posture sensor 21, and extracts information related to the display layout according to the current posture of the camera 10. Thereafter, the process proceeds to step S340, the display elements 5a to 5j are arranged on the monitor 13 according to the extracted display layout, and the process proceeds to step S350.
[0083] ステップ S350では、表示制御部 18eは、姿勢センサ 21からの出力に基づいてカメ ラ 10の姿勢が変化した力否かを判断する。カメラ 10の姿勢が変化したと判断した場 合には、ステップ S330へ戻って、表示制御部 18eは、変化した後のカメラ 10の姿勢 に応じた表示レイアウトに関する情報を抽出する。これに対してカメラ 10の姿勢が変 化していないと判断した場合には、ステップ S360へ進む。  In step S350, the display control unit 18e determines whether the posture of the camera 10 has changed based on the output from the posture sensor 21. If it is determined that the posture of the camera 10 has changed, the process returns to step S330, and the display control unit 18e extracts information relating to the display layout corresponding to the posture of the camera 10 after the change. On the other hand, if it is determined that the posture of the camera 10 has not changed, the process proceeds to step S360.
[0084] ステップ S360では、読み出し部 18dは、使用者によってメニューボタン 5gが操作さ れて登録番号の変更が指示された力否かを判断する。登録番号の変更が指示され たと判断した場合には、ステップ S310へ戻り、読み出し部 18dは、タツチパネル 13a 力もの出力に基づいて使用者によって再指定された登録番号を検出する。一方、使 用者によって登録番号の変更が指示されて ヽな 、と判断した場合には、ステップ S3 70へ進む。  [0084] In step S360, the reading unit 18d determines whether or not the user has operated the menu button 5g to instruct the change of the registration number. If it is determined that the registration number change is instructed, the process returns to step S310, and the reading unit 18d detects the registration number re-designated by the user based on the output of the touch panel 13a. On the other hand, if it is determined that the user is instructed to change the registration number, the process proceeds to step S370.
[0085] ステップ S370では、制御装置 18は、使用者によって電源ボタン 12が押下され、力 メラ 10の電源がオフされた力否かを判断する。電源がオフされていないと判断した場 合には、ステップ S350へ戻って処理を繰り返す。これに対して電源がオフされたと判 断した場合には、処理を終了する。  In step S370, the control device 18 determines whether the power button 12 is pressed by the user and the power of the force camera 10 is turned off. If it is determined that the power is not turned off, the process returns to step S350 and the process is repeated. On the other hand, if it is determined that the power has been turned off, the process is terminated.
[0086] 以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。  [0086] According to the present embodiment described above, the following operational effects can be obtained.
(1)タツチパネル 13aを備えるモニタ 13が背面のほぼ全体に搭載されるカメラ 10に ぉ 、て、使用者がカメラ 10を把持したときに親指がモニタ 13にかかる範囲を特定し て、親指が力かる範囲にはボタンなどの表示要素を配置しないように表示要素の表 示レイアウトを決定するようにした。これによつて、使用者がカメラ 10把持したときに、 操作ボタンが親指に隠れて見にくかったり、親指の下にある操作ボタンを誤って押圧 してしまうなどの不具合を解消することができる。 (1) The monitor 13 with the touch panel 13a is mounted on the camera 10 mounted on almost the entire rear surface. て When the user grips the camera 10, specify the range where the thumb covers the monitor 13 and set the display layout of the display element so that buttons and other display elements are not placed in the range where the thumb works. I decided to decide. As a result, when the user holds the camera 10, it is possible to solve problems such as the operation buttons hidden behind the thumb and difficult to see, or the operation buttons under the thumb being pressed by mistake.
[0087] (2)使用者がタツチパネル 13aを押圧した押圧範囲 3bに基づいて、タツチパネル 13 a上にかかる親指の範囲 (仮想親指範囲)を推定し、仮想親指範囲の外側にオフセッ ト Dをとつた領域を親指範囲 32として検出するようにした。これによつて、押圧範囲 3b は、使用者の指先の中央付近を表す範囲であることから、実際にタツチパネル 13a上 にかかっている親指範囲 32は、押圧範囲 3bに基づいて推定した仮想親指範囲 31よ りも広い範囲となることを加味して、精度高く親指範囲 32を検出することができる。  [0087] (2) Based on the pressing range 3b where the user pressed the touch panel 13a, the thumb range (virtual thumb range) applied on the touch panel 13a is estimated, and the offset D is set outside the virtual thumb range. The detected area is detected as the thumb range 32. As a result, since the pressing range 3b is a range that represents the vicinity of the center of the user's fingertip, the thumb range 32 actually on the touch panel 13a is the virtual thumb range estimated based on the pressing range 3b. Taking into account that the range is wider than 31, the thumb range 32 can be detected with high accuracy.
[0088] (3)検出した親指範囲 32に基づいてタツチパネル 13a上に表示要素配置不可範囲 8dを設定し、この表示要素配置不可範囲 8d内には表示要素を配置しな 、ようにした 。これによつて、タツチパネル 13a上の親指が力かる範囲に表示要素が配置されるこ とを防ぐことができる。  (3) Based on the detected thumb range 32, the display element disposition impossible range 8d is set on the touch panel 13a, and no display element is disposed in the display element disposition disallowable range 8d. As a result, it is possible to prevent the display element from being arranged in a range where the thumb on the touch panel 13a is applied.
[0089] (4)表示要素配置不可範囲 8dの外側に表示要素を配置するに当たっては、図 9に 示したように、表示要素配置不可範囲 8d周囲のモニタ 13のスペースに応じて配置す る表示要素のサイズや位置を調整して表示レイアウトを決定するようにした。これによ つて、使用者力 Sカメラ 10を把持したときの親指の位置に応じた最適な表示レイアウト を決定することができる。  [0089] (4) When disposing display elements outside the display element disposition range 8d, as shown in Fig. 9, the display is arranged according to the space of the monitor 13 around the display element disposition range 8d. The display layout was determined by adjusting the size and position of elements. Accordingly, it is possible to determine an optimal display layout according to the position of the thumb when the user power S camera 10 is held.
[0090] (5)カメラ 10の姿勢が縦位置の場合の親指配置領域 7aは、使用者力カメラ 10の姿 勢が縦方向となるように把持したときに、ストロボ発光部 17がレンズ 16の上側に位置 するように設定するようにした。これによつて、使用者が逆向きにカメラ 10を把持する ことを回避することができ、使用者に対して常にストロボ光がレンズ 16の上側力も照 射されるようにカメラ 10の把持向きを誘導することができる。  [0090] (5) The thumb placement area 7a when the posture of the camera 10 is in the vertical position is such that when the user-powered camera 10 is gripped so that the posture of the user-powered camera 10 is in the vertical direction, It was set to be positioned on the upper side. This prevents the user from gripping the camera 10 in the opposite direction, and the orientation of the camera 10 is adjusted so that the strobe light always irradiates the upper force of the lens 16 to the user. Can be guided.
[0091] (6)決定した表示レイアウトに関する情報、および検出した使用者の親指の位置に関 する情報を登録情報として登録するようにし、次回カメラ 10の電源投入時には、登録 した登録情報を呼び出して表示要素を配置できるようにした。これによつて、一度表 示レイアウトを決定して登録情報を登録しておけば、次回以降は登録済みの表示レ ィアウトを使用してモニタ 13上に表示要素を表示することができ、再度表示レイアウト を決定するための処理を行わずに済む。 (6) Information on the determined display layout and information on the detected user's thumb position are registered as registration information. When the camera 10 is turned on next time, the registered information is called up. The display element can be arranged. With this, once the table Once the display layout has been determined and the registration information has been registered, the display elements can be displayed on the monitor 13 using the registered display layout from the next time, and the process for determining the display layout again. You don't have to.
[0092] (7)登録情報としてはカメラ 10の姿勢が横位置のときの登録情報と縦位置のときの登 録情報とを登録番号により関連付けて登録できるようにした。これによつて、カメラ 10 を横向きに把持したときと縦向きに把持したときとではタツチパネル 13a上に力かる親 指の範囲が異なることから、それぞれの場合に応じた登録情報を登録することができ 、使用者の利便性が向上する。  (7) As registration information, registration information when the posture of the camera 10 is in the horizontal position and registration information when the camera 10 is in the vertical position can be registered in association with each other by a registration number. As a result, when the camera 10 is held sideways and when it is held vertically, the range of the master finger exerted on the touch panel 13a is different, so registration information can be registered according to each case. This improves user convenience.
[0093] (8)カメラ 10には姿勢センサ 21を搭載し、姿勢センサ 21からの出力に基づいてカメ ラ 10の姿勢が変化したことを検出した場合には、変化後のカメラ 10の姿勢に応じた 登録情報を抽出し、カメラ 10の姿勢に応じたレイアウトで表示要素を表示するように した。これによつて、使用者がカメラ 10の向きを変えて把持した場合でも、その向きに 応じた画面表示を使用者に提供することができる。  (8) The camera 10 is equipped with a posture sensor 21, and when it is detected that the posture of the camera 10 has changed based on the output from the posture sensor 21, the posture of the camera 10 after the change is changed. The corresponding registration information is extracted and the display elements are displayed in a layout according to the posture of the camera 10. As a result, even when the user holds the camera 10 while changing the orientation, it is possible to provide the user with a screen display according to the orientation.
[0094] (9)複数の登録情報を登録できるようにしたため、複数の使用者力カメラ 10を使用す る場合であっても、使用者ごとの登録情報を記録することができる。  (9) Since a plurality of registration information can be registered, the registration information for each user can be recorded even when a plurality of user-powered cameras 10 are used.
[0095] (10)使用者は、決定された表示レイアウトに従ってモニタ 13上に表示された表示要 素をドラッグすることにより、表示レイアウトを修正できるようにした。これによつて、使 用者が好みのレイアウトで表示要素を配置できるようになり、使用者の利便性が向上 する。  [0095] (10) The user can modify the display layout by dragging the display elements displayed on the monitor 13 in accordance with the determined display layout. As a result, the user can arrange the display elements in a desired layout, and the convenience for the user is improved.
[0096] 一変形例一  [0096] One variation 1
なお、上述した実施の形態のカメラは、以下のように変形することもできる。 (1)上述した実施の形態では、登録部 18cは、カメラ 10の姿勢が縦位置の場合、横 位置の場合ともに、レイアウト決定部 18bで確定された表示レイアウトに関する情報、 指位置検出部 18aで検出された使用者の親指の位置に関する情報を登録情報とし てメモリ 19に内に設けた登録領域に登録するようにした。し力しながら登録部 18cは 、表示レイアウトに関する情報と使用者の親指の位置に関する情報のいずれか一方 を登録情報として登録するようにしてもょ 、。  The camera according to the above-described embodiment can be modified as follows. (1) In the above-described embodiment, the registration unit 18c uses the finger position detection unit 18a to display information related to the display layout determined by the layout determination unit 18b in both the vertical position and the horizontal position of the camera 10. Information about the detected user's thumb position is registered as registration information in a registration area provided in the memory 19. However, the registration unit 18c may register either the information relating to the display layout or the information relating to the position of the user's thumb as registration information.
[0097] このとき、登録情報として親指の位置に関する情報のみが登録されているときに登 録情報を読み出して表示要素を配置する場合には、レイアウト決定部 18bは、読み 出し部 18dによって読み出された親指の位置に関する情報に基づいて表示要素の 表示レイアウトを決定するようにし、表示制御部 18eはレイアウト決定部 18bで決定さ れた表示レイアウトに従って表示要素をモニタ上に配置して表示すればよい。すなわ ち、レイアウト決定部 18bは、読み出し部 18dによって登録情報が読み出される度に 、およびカメラ 10の姿勢が変化する度に、登録情報に含まれる親指範囲 32に基づ Vヽて表示要素の表示レイアウトを決定するようにすればよ!、。 [0097] At this time, when only information related to the thumb position is registered as registration information, When the recording information is read out and the display element is arranged, the layout determination unit 18b determines the display layout of the display element based on the information on the thumb position read out by the reading unit 18d, and performs display control. The unit 18e may display the display elements on the monitor according to the display layout determined by the layout determining unit 18b. In other words, the layout determination unit 18b determines the display element V based on the thumb range 32 included in the registration information every time the registration information is read out by the reading unit 18d and whenever the posture of the camera 10 changes. Just decide the display layout!
[0098] (2)上述した実施の形態では、図 9に示すように操作ボタンに相当する表示要素は 長方形であるものとして表示レイアウトを決定する例について説明した。しかしながら 、操作ボタンに相当する表示要素はその他の形状であってもよい。例えばレイアウト 決定部 18bは、図 16に示すように、親指範囲 32に基づいて使用者の親指の回転中 心を求め、その回転中心に対する親指範囲 32の角度に応じて指先の可動軌跡を推 定する。そして、操作ボタンに相当する各表示要素を使用者の指先の可動軌跡に沿 つて円弧状に配置するようにしてもょ 、。  (2) In the above-described embodiment, the example in which the display layout is determined assuming that the display element corresponding to the operation button is a rectangle as shown in FIG. However, the display elements corresponding to the operation buttons may have other shapes. For example, as shown in FIG. 16, the layout determining unit 18b obtains the rotation center of the user's thumb based on the thumb range 32, and estimates the movable locus of the fingertip according to the angle of the thumb range 32 with respect to the rotation center. To do. Then, each display element corresponding to the operation button may be arranged in an arc along the movable locus of the user's fingertip.
[0099] (3)上述した実施の形態では、使用者は再生ボタンに相当する表示要素 5hを操作 して撮影モードと再生モードとを切り替えるようにした。しかしこれに限定されず、再生 モードが設定されているときに表示要素配置不可範囲 8d内が押圧された場合には 自動的に撮影モードへ切り替えるようにしてもよい。すなわち、表示要素配置不可範 囲 8dに相当する領域をモードの切り替えを指示するための操作ボタン (スィッチ)とし て使用してもよい。  (3) In the embodiment described above, the user operates the display element 5h corresponding to the playback button to switch between the shooting mode and the playback mode. However, the present invention is not limited to this, and when the playback mode is set, if the inside of the display element disabling range 8d is pressed, the mode may be automatically switched to the shooting mode. In other words, the area corresponding to the display element disabling range 8d may be used as an operation button (switch) for instructing mode switching.
[0100] 例えば、図 17 (a)に示すように、再生モード時にモニタ 13内に画像が再生されてい るときに、使用者が表示要素配置不可範囲 8dを押圧したことを検出した場合には、 制御装置 18は、カメラ 10のモードを再生モードから撮影モードに切り替えるようにす ればよい。また、カメラ 10のモードが再生モードのとき、再生する画像のアスペクト比 が 4: 3の場合と 16: 9との場合とで、再生表示要素 ¾のサイズを変更するようにしても よい。例えば、再生する画像のアスペクト比が 4 : 3の場合には図 17 (a)に示すように 再生表示要素 5jのアスペクト比も 4: 3となるようにサイズを調整し、再生する画像のァ スぺタト比が 16 : 9の場合には図 17 (b)に示すように再生表示要素 5jのアスペクト比 も 16: 9となるようにサイズを調整すればよ!、。 [0100] For example, as shown in FIG. 17 (a), when an image is being reproduced in the monitor 13 in the reproduction mode, it is detected that the user has pressed the display element non-placeable range 8d. The control device 18 may switch the mode of the camera 10 from the playback mode to the shooting mode. Further, when the camera 10 is in the playback mode, the size of the playback display element ¾ may be changed depending on whether the aspect ratio of the image to be played is 4: 3 or 16: 9. For example, when the aspect ratio of the image to be played is 4: 3, the size of the playback display element 5j is adjusted so that the aspect ratio of the playback display element 5j is 4: 3 as shown in FIG. When the aspect ratio is 16: 9, the aspect ratio of the playback display element 5j is as shown in Fig. 17 (b). Also, adjust the size to 16: 9!
[0101] (4)上述した実施の形態では、レイアウト決定部 18bは、各表示要素が重ならないよ うに表示レイアウトを決定するようにした。し力しながら、図 17 (b)に示すように、表示 領域に相当する表示要素の上に操作ボタンに相当する表示要素が重なるように表示 レイアウトを決定するようにしてもょ 、。これによつて画像を表示する表示領域のサイ ズを最大限に確保しつつ、必要な操作ボタンも配置することができるようになる。  (4) In the embodiment described above, the layout determining unit 18b determines the display layout so that the display elements do not overlap. However, as shown in Fig. 17 (b), the display layout may be determined so that the display elements corresponding to the operation buttons overlap the display elements corresponding to the display area. This makes it possible to arrange necessary operation buttons while ensuring the maximum size of the display area for displaying an image.
[0102] (5)上述した実施の形態では、登録部 18cは、横位置→縦位置の順で登録情報を 記録する例について説明したが、縦位置→横位置の順で登録情報を記録するように してちよい。  (5) In the above-described embodiment, the registration unit 18c has described the example in which the registration information is recorded in the order of the horizontal position → the vertical position, but the registration information is recorded in the order of the vertical position → the horizontal position. You can do it.
[0103] (6)上述した実施の形態では、登録情報には登録番号が付加され、使用者は、登録 情報を読み出すに当たっては、電源投入時に本体部に印字された登録番号に応じ てタツチパネル 13aを押圧する例について説明した。しかしながら、使用者ごとの登 録情報に使用者の生体認証に関する情報を付加して登録するようにしてもよい。例 えば、カメラ 10に使用者の指紋を読み取るための指紋センサを搭載し、登録情報を 登録する前に使用者の指紋を読み込んで識別情報として、登録情報にこの識別情 報を付加して登録しておくようにする。そして、カメラ 10の電源投入時には、使用者 は指紋センサに指をかざして認証を行い、読み出し部 18dは、認証した指紋情報に 応じた登録情報を読み出すようにしてもよい。なお、生体認証の方法としては指紋認 証に限定されず、静脈認証などの他の認証方法を用いてもょ ヽ。  (6) In the embodiment described above, the registration number is added to the registration information, and the user reads the registration information according to the registration number printed on the main unit when the power is turned on. The example which presses was demonstrated. However, the registration information for each user may be registered by adding information related to the biometric authentication of the user. For example, the camera 10 is equipped with a fingerprint sensor for reading the user's fingerprint, and the user's fingerprint is read and registered as identification information before registration information is registered. Try to keep it. When the camera 10 is turned on, the user may hold the finger over the fingerprint sensor to perform authentication, and the reading unit 18d may read registration information corresponding to the authenticated fingerprint information. The biometric authentication method is not limited to fingerprint authentication, and other authentication methods such as vein authentication may be used.
[0104] (7)上述した実施の形態では、カメラ 10の背面のほぼ全体にタツチパネル 13aを備 えるモニタ 13が搭載される例について説明した。しかしながら、カメラ 10を使用者が 把持したときに、親指がタツチパネルを備えるモニタにかかるようなカメラであれば、 背面全体にモニタが搭載されていない場合であっても本発明は適用可能である。ま た、モニタ 13にかかる指は親指でなぐその他の指であってもよい。  (7) In the above-described embodiment, the example in which the monitor 13 including the touch panel 13a is mounted on almost the entire back surface of the camera 10 has been described. However, the present invention can be applied even if the monitor is not mounted on the entire rear surface, as long as the camera is such that when the user grips the camera 10 the thumb is applied to the monitor having the touch panel. Also, the finger on the monitor 13 may be another finger that is removed by the thumb.
[0105] 上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容 に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態 様も本発明の範囲内に含まれる。  [0105] While various embodiments and modifications have been described above, the present invention is not limited to these contents. Other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.
[0106] 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。 日本国特許出願 2006年第 105365号(2006年 4月 6日出願) [0106] The disclosure of the following priority application is incorporated herein by reference. Japanese patent application No. 105365 in 2006 (filed on April 6, 2006)

Claims

請求の範囲 The scope of the claims
[1] タツチパネルを配置した表示器と、  [1] A display with a touch panel,
前記タツチパネル力もの出力に基づ!/、て、使用者がカメラを把持したときの前記タツ チパネル上の使用者の指の位置を検出する検出器と、  A detector for detecting the position of the user's finger on the touch panel when the user holds the camera based on the output of the touch panel force;
前記検出器による検出結果に基づいて、前記表示器に表示する表示要素の表示 レイアウトを決定する表示レイアウト決定部と、  A display layout determining unit that determines a display layout of display elements to be displayed on the display based on a detection result by the detector;
前記表示レイアウト決定部で決定した前記表示レイアウトに従って、前記表示要素 を前記表示器に表示する表示制御部と、  In accordance with the display layout determined by the display layout determination unit, a display control unit that displays the display element on the display device,
前記表示レイアウト決定部で決定した前記表示レイアウト、および前記検出器で検 出した指の位置の少なくともいずれか一方に関する情報を登録情報として登録する 登録部とを備えるカメラ。  A camera comprising: a registration unit that registers, as registration information, information related to at least one of the display layout determined by the display layout determination unit and a finger position detected by the detector.
[2] 請求項 1に記載のカメラにおいて、  [2] In the camera according to claim 1,
前記表示要素は、前記タツチパネルの操作位置を示す操作領域を含むカメラ。  The display element is a camera including an operation area indicating an operation position of the touch panel.
[3] 請求項 1に記載のカメラにおいて、 [3] In the camera according to claim 1,
レンズを通して入力される被写体像を撮像する撮像装置をさらに備え、 前記表示要素は、前記撮像装置で撮像した前記被写体像を表示するための被写 体像表示領域を含むカメラ。  The camera further includes an imaging device that captures a subject image input through a lens, and the display element includes a subject image display area for displaying the subject image captured by the imaging device.
[4] 請求項 1に記載のカメラにおいて、 [4] In the camera according to claim 1,
レンズを通して入力される被写体像を撮像して画像データを生成する画像取得部 と、  An image acquisition unit that captures a subject image input through a lens and generates image data;
前記画像データを記憶媒体に記録する記録制御部とをさらに備え、  A recording control unit for recording the image data in a storage medium;
前記表示要素は、前記記憶媒体に記録された前記画像データの画像を再生表示 するための再生表示領域を含むカメラ。  The display element includes a reproduction display area for reproducing and displaying an image of the image data recorded in the storage medium.
[5] 請求項 1に記載のカメラにおいて、 [5] The camera according to claim 1,
前記検出器で検出した使用者の指の位置が前記タツチパネル上の所定範囲外に ある場合には警告する警告部をさらに備えるカメラ。  A camera further comprising a warning unit that warns when the position of the user's finger detected by the detector is outside a predetermined range on the touch panel.
[6] 請求項 1に記載のカメラにおいて、 [6] In the camera according to claim 1,
前記登録部は、複数の前記登録情報を登録するカメラ。 The registration unit is a camera that registers a plurality of the registration information.
[7] 請求項 1に記載のカメラにおいて、 [7] The camera according to claim 1,
前記表示レイアウト決定部による決定結果を使用者による操作に基づいて確定す る確定部をさらに備え、  A decision unit that decides a determination result by the display layout determination unit based on an operation by a user;
前記登録部は、前記確定部で確定した前記表示レイアウト、および前記検出器で 検出した指の位置の少なくともいずれか一方に関する情報を前記登録情報として登 録するカメラ。  The registration unit is a camera that registers, as the registration information, information related to at least one of the display layout determined by the determination unit and a finger position detected by the detector.
[8] 請求項 7に記載のカメラにおいて、 [8] The camera according to claim 7,
前記確定部は、使用者によるレリーズボタンの操作に基づいて前記決定結果を確 定するカメラ。  The confirmation unit is a camera that confirms the determination result based on a release button operation by a user.
[9] 請求項 1に記載のカメラにおいて、 [9] The camera according to claim 1,
前記表示レイアウト決定部で決定した前記表示レイアウトを、使用者による操作に 基づいて修正する修正部をさらに備えるカメラ。  A camera further comprising a correction unit that corrects the display layout determined by the display layout determination unit based on an operation by a user.
[10] 請求項 1に記載のカメラにおいて、 [10] In the camera of claim 1,
前記表示レイアウト決定部による決定タイミングを指示するタイミング指示部をさらに 備え、  A timing instructing unit for instructing a determination timing by the display layout determining unit;
前記表示レイアウト決定部は、前記タイミング指示部力 前記決定タイミングが指示 されたときに、前記検出器による使用者の指の位置の検出情報がないと判定した場 合には、所定の表示レイアウトを前記表示要素の表示レイアウトとして決定するカメラ  The display layout determining unit determines a predetermined display layout when it is determined that there is no detection information of the position of the user's finger by the detector when the determination timing is instructed. Camera determined as a display layout of the display element
[11] 請求項 1に記載のカメラにおいて、 [11] The camera according to claim 1,
前記検出器は、カメラの姿勢が第 1の姿勢となるように使用者力カメラを把持したと きの前記タツチパネル上の指の位置を第 1の検出位置として検出し、カメラの姿勢が 第 2の姿勢となるように使用者力 Sカメラを把持したときの前記タツチパネル上の指の位 置を第 2の検出位置として検出し、  The detector detects the position of a finger on the touch panel when the user-powered camera is gripped so that the camera posture is the first posture as the first detection position, and the camera posture is the second posture. The user's force so that the posture becomes the S position of the finger on the touch panel when the camera is gripped is detected as the second detection position,
前記表示レイアウト決定部は、前記検出器で検出した前記第 1の検出位置に基づ V、て第 1の表示レイアウトを決定し、前記検出器で検出した前記第 2の検出位置に基 づ 、て第 2の表示レイアウトを決定するカメラ。  The display layout determining unit determines a first display layout based on the first detection position detected by the detector and based on the second detection position detected by the detector. To determine the second display layout.
[12] 請求項 11に記載のカメラにおいて、 前記登録部は、前記表示レイアウト決定部で決定した前記第 1の表示レイアウトに 応じた前記登録情報と前記第 2の表示レイアウトに応じた前記登録情報とを関連付け て登録するカメラ。 [12] The camera of claim 11, The registration unit is a camera that associates and registers the registration information according to the first display layout determined by the display layout determination unit and the registration information according to the second display layout.
[13] 請求項 1に記載のカメラにおいて、 [13] The camera according to claim 1,
前記登録部で登録した前記登録情報を読み出す読み出し部をさらに備え、 前記表示制御部は、前記読み出し部で読み出した前記登録情報に基づいて、前 記表示要素を前記表示器に表示するカメラ。  The camera further includes a reading unit that reads the registration information registered by the registration unit, and the display control unit displays the display element on the display unit based on the registration information read by the reading unit.
[14] 請求項 13に記載のカメラにおいて、 [14] The camera of claim 13,
前記登録部に複数の前記登録情報が登録されている場合、前記読み出し部は、 複数の前記登録情報の中から 1つを選択して読み出すカメラ。  When a plurality of pieces of registration information are registered in the registration unit, the reading unit selects and reads one of the plurality of registration information.
[15] 請求項 13に記載のカメラにおいて、 [15] The camera according to claim 13,
カメラの姿勢を検出する姿勢検出器をさらに備え、  A posture detector for detecting the posture of the camera;
前記登録情報としてカメラの姿勢に応じた第 1の登録情報と第 2の登録情報とが含 まれる場合、前記読み出し部は、前記姿勢検出器による検出結果に基づいて前記 第 1の登録情報または前記第 2の登録情報を読み出すカメラ。  When the registration information includes first registration information and second registration information corresponding to the posture of the camera, the reading unit is configured to detect the first registration information or the first registration information based on a detection result by the posture detector. A camera that reads the second registration information.
[16] 請求項 1に記載のカメラにおいて、 [16] The camera according to claim 1,
レンズを通して入力される被写体像を撮像して画像データを生成する撮像装置と、 前記画像データを記憶媒体に記録する記録制御部と、  An imaging device that captures a subject image input through a lens and generates image data; a recording control unit that records the image data in a storage medium;
前記撮像装置で撮像した前記被写体像を被写体像表示領域に表示する撮影モー ドと、前記記憶媒体に記録された前記画像データの画像を再生表示領域に再生表 示する再生モードとを切替えるモード切替部とをさらに備え、  Mode switching for switching between a shooting mode in which the subject image captured by the imaging device is displayed in a subject image display area and a playback mode in which an image of the image data recorded in the storage medium is displayed in a playback display area And further comprising
前記モード切替部は、前記再生モード時の前記タツチパネルの操作に基づ 、て前 記撮影モードに切り替えるカメラ。  The mode switching unit is a camera that switches to the shooting mode based on an operation of the touch panel in the playback mode.
[17] タツチパネルを配置した表示器と、 [17] An indicator with a touch panel,
カメラの撮影モードにぉ 、て、前記表示器に表示する前記タツチパネルの操作位 置を示す操作領域を含む表示要素の表示レイアウトを決定する表示レイアウト決定 部と、  A display layout determining unit for determining a display layout of a display element including an operation area indicating an operation position of the touch panel to be displayed on the display unit in a shooting mode of the camera;
前記撮影モードにおいて前記表示レイアウト決定部で決定した前記表示レイアウト に従って、前記表示要素を前記表示器に表示する表示制御部と、 The display layout determined by the display layout determining unit in the shooting mode According to the display control unit for displaying the display element on the display,
前記表示レイアウト決定部で決定した前記表示レイアウトに関する登録情報を複数 登録する登録部とを備えるカメラ。  A camera comprising: a registration unit that registers a plurality of registration information related to the display layout determined by the display layout determination unit.
[18] 請求項 17に記載のカメラにおいて、  [18] The camera of claim 17,
前記登録部で登録した複数の前記登録情報の中から 1つを選択して読み出す読 み出し部をさらに備え、  A reading unit that further selects and reads one of the plurality of registration information registered by the registration unit;
前記表示制御部は、前記読み出し部で読み出した前記登録情報に基づいて、前 記表示要素を前記表示器に表示するカメラ。  The display control unit is a camera that displays the display element on the display based on the registration information read by the reading unit.
[19] タツチパネルを配置した表示器と、 [19] An indicator with a touch panel,
前記表示器に表示する前記タツチパネルの操作位置を示す操作領域を含む表示 要素の表示レイアウトを決定する表示レイアウト決定部と、  A display layout determining unit for determining a display layout of a display element including an operation area indicating an operation position of the touch panel to be displayed on the display;
前記表示レイアウト決定部で決定した前記表示レイアウトに関する登録情報をカメ ラの姿勢に対応付けて登録する登録部と、  A registration unit for registering registration information related to the display layout determined by the display layout determination unit in association with a camera posture;
カメラの姿勢を検出する姿勢検出器と、  An attitude detector for detecting the attitude of the camera;
前記登録情報の中から前記姿勢検出器で検出したカメラの姿勢に応じた前記登録 情報を読み出す読み出し部と、  A reading unit that reads out the registration information corresponding to the posture of the camera detected by the posture detector from the registration information;
前記読み出し部で読み出した前記登録情報に基づく表示レイアウトに従って、前記 表示要素を前記表示器に表示する表示制御部とを備えるカメラ。  A camera comprising: a display control unit configured to display the display element on the display according to a display layout based on the registration information read by the reading unit.
PCT/JP2007/057787 2006-04-06 2007-04-06 Camera WO2007116977A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006105365A JP2009158989A (en) 2006-04-06 2006-04-06 Camera
JP2006-105365 2006-04-06

Publications (1)

Publication Number Publication Date
WO2007116977A1 true WO2007116977A1 (en) 2007-10-18

Family

ID=38581256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/057787 WO2007116977A1 (en) 2006-04-06 2007-04-06 Camera

Country Status (2)

Country Link
JP (1) JP2009158989A (en)
WO (1) WO2007116977A1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031214A1 (en) * 2007-09-05 2009-03-12 Panasonic Corporation Portable terminal device and display control method
WO2009157687A2 (en) 2008-06-25 2009-12-30 Lg Electronics Inc. Display device and method of controlling the same
JP2010062706A (en) * 2008-09-02 2010-03-18 Casio Comput Co Ltd Imaging apparatus
JP2010108080A (en) * 2008-10-28 2010-05-13 Sharp Corp Menu display device, control method for menu display device, and menu display program
JP2010134587A (en) * 2008-12-03 2010-06-17 Sony Corp Information processing apparatus and imaging apparatus
JP2011003125A (en) * 2009-06-22 2011-01-06 Sony Corp Information processing apparatus, display control method, and program
CN102741796A (en) * 2010-03-15 2012-10-17 株式会社尼康 Electronic apparatus
EP2149839A3 (en) * 2008-07-31 2012-12-05 Sony Corporation Information processing apparatus, method, and program
CN103052937A (en) * 2010-08-08 2013-04-17 高通股份有限公司 Method and system for adjusting display content
JP5370374B2 (en) * 2009-02-13 2013-12-18 富士通モバイルコミュニケーションズ株式会社 Information processing device
EP2860954A1 (en) * 2013-10-11 2015-04-15 Lg Electronics Inc. Mobile terminal and controlling method thereof
EP3229114A1 (en) * 2009-08-18 2017-10-11 Canon Kabushiki Kaisha Information processing apparatus, control method therefor, program, and recording medium

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4979600B2 (en) * 2007-09-05 2012-07-18 パナソニック株式会社 Portable terminal device and display control method
CN101847079A (en) * 2010-04-30 2010-09-29 中兴通讯股份有限公司 Method and device for regulating control button layout
JP5817716B2 (en) 2010-04-30 2015-11-18 日本電気株式会社 Information processing terminal and operation control method thereof
JP5813991B2 (en) 2011-05-02 2015-11-17 埼玉日本電気株式会社 Portable terminal, input control method and program
JP2012248137A (en) * 2011-05-31 2012-12-13 Sharp Corp Display device and display method
JP5957834B2 (en) * 2011-09-26 2016-07-27 日本電気株式会社 Portable information terminal, touch operation control method, and program
JP5189197B1 (en) * 2011-10-27 2013-04-24 シャープ株式会社 Portable information terminal
JP5861421B2 (en) * 2011-12-05 2016-02-16 株式会社ニコン Electronics
JP5409873B2 (en) * 2012-10-22 2014-02-05 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
JP5980154B2 (en) 2013-03-21 2016-08-31 京セラ株式会社 Imaging device, program, and control method of imaging device
JP6161556B2 (en) * 2013-03-22 2017-07-12 株式会社Nttドコモ Notification information display device and notification information display method
WO2015025549A1 (en) * 2013-08-22 2015-02-26 シャープ株式会社 Display device and touch-operation processing method
JP2016025031A (en) * 2014-07-23 2016-02-08 三菱電機株式会社 Induction heating cooker
JP5932953B2 (en) * 2014-12-08 2016-06-08 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
FR3046859B1 (en) * 2016-01-19 2019-07-05 Valeo Comfort And Driving Assistance METHOD FOR SECURING A MANEUVER TO BE APPLIED TO A MOTOR VEHICLE
JP6149952B2 (en) * 2016-01-25 2017-06-21 カシオ計算機株式会社 Electronic device, display control method and program
JP6863441B2 (en) * 2019-12-04 2021-04-21 日本電気株式会社 Mobile terminal, invalid area identification method and program
JP2021170184A (en) * 2020-04-14 2021-10-28 株式会社東芝 Terminal device, display method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289484A (en) * 1998-04-06 1999-10-19 Fuji Photo Film Co Ltd Camera with monitor
JP2004023581A (en) * 2002-06-19 2004-01-22 Konica Minolta Holdings Inc Digital camera
JP2005234993A (en) * 2004-02-20 2005-09-02 Toshiba Corp Image display device and image display method
JP2005303728A (en) * 2004-04-13 2005-10-27 Fuji Photo Film Co Ltd Digital camera
JP2006311209A (en) * 2005-04-28 2006-11-09 Nikon Corp Camera
JP2006344168A (en) * 2005-06-10 2006-12-21 Fujifilm Holdings Corp Image display apparatus and photographing apparatus
JP2007028536A (en) * 2005-07-21 2007-02-01 Fujifilm Holdings Corp Digital camera
JP2007028512A (en) * 2005-07-21 2007-02-01 Fujifilm Holdings Corp Display device and imaging apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289484A (en) * 1998-04-06 1999-10-19 Fuji Photo Film Co Ltd Camera with monitor
JP2004023581A (en) * 2002-06-19 2004-01-22 Konica Minolta Holdings Inc Digital camera
JP2005234993A (en) * 2004-02-20 2005-09-02 Toshiba Corp Image display device and image display method
JP2005303728A (en) * 2004-04-13 2005-10-27 Fuji Photo Film Co Ltd Digital camera
JP2006311209A (en) * 2005-04-28 2006-11-09 Nikon Corp Camera
JP2006344168A (en) * 2005-06-10 2006-12-21 Fujifilm Holdings Corp Image display apparatus and photographing apparatus
JP2007028536A (en) * 2005-07-21 2007-02-01 Fujifilm Holdings Corp Digital camera
JP2007028512A (en) * 2005-07-21 2007-02-01 Fujifilm Holdings Corp Display device and imaging apparatus

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009031214A1 (en) * 2007-09-05 2009-03-12 Panasonic Corporation Portable terminal device and display control method
WO2009157687A2 (en) 2008-06-25 2009-12-30 Lg Electronics Inc. Display device and method of controlling the same
EP2304530A2 (en) * 2008-06-25 2011-04-06 LG Electronics Inc. Display device and method of controlling the same
EP2304530A4 (en) * 2008-06-25 2011-12-21 Lg Electronics Inc Display device and method of controlling the same
EP2149839A3 (en) * 2008-07-31 2012-12-05 Sony Corporation Information processing apparatus, method, and program
JP2010062706A (en) * 2008-09-02 2010-03-18 Casio Comput Co Ltd Imaging apparatus
JP2010108080A (en) * 2008-10-28 2010-05-13 Sharp Corp Menu display device, control method for menu display device, and menu display program
JP2010134587A (en) * 2008-12-03 2010-06-17 Sony Corp Information processing apparatus and imaging apparatus
JP5370374B2 (en) * 2009-02-13 2013-12-18 富士通モバイルコミュニケーションズ株式会社 Information processing device
JP2011003125A (en) * 2009-06-22 2011-01-06 Sony Corp Information processing apparatus, display control method, and program
EP3229114A1 (en) * 2009-08-18 2017-10-11 Canon Kabushiki Kaisha Information processing apparatus, control method therefor, program, and recording medium
US10168829B2 (en) 2009-08-18 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, control method therefor, program, and recording medium
US10365760B2 (en) 2009-08-18 2019-07-30 Canon Kabushiki Kaisha Information processing apparatus, control method therefor, program, and recording medium
CN102741796A (en) * 2010-03-15 2012-10-17 株式会社尼康 Electronic apparatus
CN103052937A (en) * 2010-08-08 2013-04-17 高通股份有限公司 Method and system for adjusting display content
EP2601569A1 (en) * 2010-08-08 2013-06-12 Qualcomm Incorporated Method and system for adjusting display content
EP2860954A1 (en) * 2013-10-11 2015-04-15 Lg Electronics Inc. Mobile terminal and controlling method thereof
US9547392B2 (en) 2013-10-11 2017-01-17 Lg Electronics Inc. Mobile terminal and controlling method thereof

Also Published As

Publication number Publication date
JP2009158989A (en) 2009-07-16

Similar Documents

Publication Publication Date Title
WO2007116977A1 (en) Camera
US20050248542A1 (en) Input device and method for controlling input device
JP5304848B2 (en) projector
JP5434997B2 (en) Image display device
KR101499546B1 (en) Method and apparatus for controlling display area in touch screen device, and computer readable medium thereof
JP2005234993A (en) Image display device and image display method
JP5728885B2 (en) Nail printing apparatus and printing control method
JP2008084158A (en) Input device
JP2011197848A (en) Touch-panel input device
JP2009301094A (en) Input device and control method for input device
JP2010213169A (en) Display device, display processing method, and imaging apparatus
JP2004356819A (en) Remote control apparatus
US6992661B2 (en) Electronic device, digital still camera and display control method
JP2008257427A (en) Electronic device and camera
JP2005025268A (en) Electronic device and method for controlling display
US10904428B2 (en) Electronic device, control method, and non-transitory computer readable medium for executing function in accordance with touch operation
JP5991401B2 (en) Nail printing apparatus and printing control method
JP4709782B2 (en) Digital camera and digital camera control method
JP2001265309A (en) Portable information reader
JP2006201466A (en) Input control unit
JP5471133B2 (en) Imaging device
JP2002010249A (en) Printing play machine
JP2013134565A (en) Individual authentication device
US20200004379A1 (en) Electronic device, control method for electronic device, and non-transitory computer readable medium
JP6930489B2 (en) Image forming device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07741223

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 07741223

Country of ref document: EP

Kind code of ref document: A1