JP4946914B2 - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP4946914B2
JP4946914B2 JP2008044314A JP2008044314A JP4946914B2 JP 4946914 B2 JP4946914 B2 JP 4946914B2 JP 2008044314 A JP2008044314 A JP 2008044314A JP 2008044314 A JP2008044314 A JP 2008044314A JP 4946914 B2 JP4946914 B2 JP 4946914B2
Authority
JP
Japan
Prior art keywords
unit
display
camera
display device
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008044314A
Other languages
Japanese (ja)
Other versions
JP2009206584A (en
Inventor
司 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008044314A priority Critical patent/JP4946914B2/en
Publication of JP2009206584A publication Critical patent/JP2009206584A/en
Application granted granted Critical
Publication of JP4946914B2 publication Critical patent/JP4946914B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラ筐体と表示筐体とが別筐体で構成されたカメラシステムに関する。   The present invention relates to a camera system in which a camera housing and a display housing are configured as separate housings.

近年、固体撮像素子を用いたカメラが広く普及している。このようなカメラで撮影を行う場合、カメラ背面に配置された表示モニタを見て、撮影構図や被写体を確認することが多い。或いは、撮影する画像を表示モニタに出力できないカメラの場合は、従来のフィルム式カメラのようにビューファインダーを覗く必要がある。また、動画像を撮影するカメラシステムとして、動画像を撮影するカメラと別筐体になった外部モニタに撮影画像を表示するカメラシステムが知られている。   In recent years, cameras using a solid-state image sensor have become widespread. When shooting with such a camera, the shooting composition and subject are often confirmed by looking at a display monitor arranged on the back of the camera. Alternatively, in the case of a camera that cannot output an image to be captured to a display monitor, it is necessary to look through the viewfinder like a conventional film camera. As a camera system that captures moving images, a camera system that displays captured images on an external monitor that is a separate housing from the camera that captures moving images is known.

一方、ビューファインダーにAF(オートフォーカス)領域を表示させて、AFの対象領域を分かり易くする方法が考えられている(例えば、特許文献1参照)。
特開2006−145872号公報
On the other hand, a method has been considered in which an AF (autofocus) area is displayed on a viewfinder so that an AF target area can be easily understood (see, for example, Patent Document 1).
JP 2006-145872 A

ところが、従来のカメラでは、カメラ背面の表示モニタやビューファインダを覗いて撮影構図や被写体を確認しながら撮影するので、カメラを撮影者の顔位置に構える必要があり、いかにも撮影が行われている雰囲気になる。このため、被写体が人間の場合、撮影される人は緊張して身構えることが多く、自然な雰囲気の画像を撮影しにくいという問題がある。   However, conventional cameras shoot while checking the shooting composition and subject by looking through the display monitor and viewfinder on the back of the camera, so it is necessary to hold the camera at the photographer's face position, and shooting is done. Become an atmosphere. For this reason, when the subject is a human, the person to be photographed often stands in tension, and there is a problem that it is difficult to photograph an image with a natural atmosphere.

本発明の目的は、撮影者に目障りにならず、自然な雰囲気の画像を撮影することができるカメラシステムを提供することである。   An object of the present invention is to provide a camera system that can capture an image of a natural atmosphere without being obtrusive to a photographer.

本発明に係るカメラシステムは、レンズ光学系を介して画像を撮影する撮像部を有するカメラ筐体と、前記カメラ筐体で撮影された画像を表示する表示部を有する表示筐体とが別筐体で構成されたカメラシステムであって、前記表示筐体は、前記表示筐体の3軸方向の位置を検出する第1の方向検出部を備え、前記カメラ筐体は、前記カメラ筐体の3軸方向の位置を検出する第2の方向検出部と、前記第2の方向検出部が出力する第2の位置情報と前記第1の方向検出部が出力する第1の位置情報とを用いて前記カメラ筐体と前記表示筐体との相対位置を算出する方向算出部と、前記方向算出部が算出する相対位置と前記レンズ光学系のレンズ情報とに応じて、前記撮像部で撮影される画像の撮影領域を示す撮影範囲枠を前記表示部に設定する表示制御部とを備えることを特徴とする。   A camera system according to the present invention includes a camera housing having an imaging unit that captures an image via a lens optical system and a display housing having a display unit that displays an image captured by the camera housing. In the camera system configured by a body, the display casing includes a first direction detection unit that detects a position of the display casing in three axial directions, and the camera casing includes the camera casing. Using a second direction detection unit that detects a position in three axial directions, second position information output by the second direction detection unit, and first position information output by the first direction detection unit A direction calculating unit that calculates a relative position between the camera case and the display case, and a photographing operation performed by the imaging unit according to the relative position calculated by the direction calculating unit and the lens information of the lens optical system. Set the shooting range frame indicating the shooting area of the image to be displayed on the display. Characterized in that it comprises a display control unit.

また、好ましくは、前記表示筐体は、撮影者の頭部動作と一体化され、且つ撮影者が視認可能な位置に装着する筐体形状であることを特徴とする。   Preferably, the display casing is formed in a casing shape that is integrated with a photographer's head movement and is mounted at a position where the photographer can visually recognize the display casing.

また、好ましくは、前記表示筐体は、眼鏡型の表示筐体であることを特徴とする。   Preferably, the display housing is a glasses-type display housing.

また、好ましくは、前記カメラ筐体の撮像部に撮影を指示するレリーズボタンを前記表示筐体に設けたことを特徴とする。   Preferably, a release button for instructing photographing to the imaging unit of the camera housing is provided on the display housing.

また、好ましくは、前記カメラ筐体は、AF(オートフォーカス)領域を設定可能なAF制御部を更に備え、前記表示制御部は、前記撮影領域を示す撮影範囲枠と、前記AF領域を示すAF範囲枠とを前記表示部に設定することを特徴とする。   Preferably, the camera housing further includes an AF control unit capable of setting an AF (autofocus) area, and the display control unit includes an imaging range frame indicating the imaging area and an AF indicating the AF area. A range frame is set in the display unit.

本発明に係るカメラシステムは、撮像部を有するカメラ筐体と表示部を有する眼鏡型の表示筐体とが離れた位置に置かれた場合でも、撮像部の撮影範囲を示す撮影範囲枠やAF領域を示すAF対象枠などの情報のみを眼鏡型の表示筐体の表示部に表示するので、撮影者に目障りにならず、自然な雰囲気の画像を撮影することができる。   The camera system according to the present invention includes a shooting range frame indicating the shooting range of the image pickup unit and AF even when the camera case having the image pickup unit and the eyeglass-type display case having the display unit are placed at positions separated from each other. Since only the information such as the AF target frame indicating the area is displayed on the display unit of the glasses-type display housing, it is possible to capture an image of a natural atmosphere without being obtrusive to the photographer.

以下、本発明に係るカメラシステムに関する実施形態について図面を用いて詳しく説明する。   Hereinafter, embodiments of the camera system according to the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係るカメラシステム100のブロック図である。カメラシステム100は、カメラ本体101と、表示装置102とで構成される。
(First embodiment)
FIG. 1 is a block diagram of a camera system 100 according to the first embodiment. The camera system 100 includes a camera body 101 and a display device 102.

カメラ本体101は、レンズ光学系103と、撮像部104と、画像処理部105と、メモリ106と、制御部107と、メモリIF(インターフェース)108と、操作パネル109と、AFセンサ110と、AEセンサ111と、レンズ制御部112と、発光部113と、表示IF(インターフェース)114と、3軸センサ115と、測距部116とで構成される。尚、カメラ本体101は、メモリIF108にメモリカード118を装着して撮影画像の保存を行う。また、カメラ本体101は、表示IF114から表示装置102にケーブル117を介して接続される。尚、本実施形態では、ケーブル117でカメラ本体101と表示装置102との間を接続するようにしたが、無線や赤外線を用いてワイヤレス接続するようにしても構わない。   The camera body 101 includes a lens optical system 103, an imaging unit 104, an image processing unit 105, a memory 106, a control unit 107, a memory IF (interface) 108, an operation panel 109, an AF sensor 110, and an AE. The sensor 111, the lens control unit 112, the light emitting unit 113, the display IF (interface) 114, the triaxial sensor 115, and the distance measuring unit 116 are configured. It should be noted that the camera body 101 attaches the memory card 118 to the memory IF 108 and saves the captured image. The camera body 101 is connected from the display IF 114 to the display device 102 via the cable 117. In this embodiment, the camera body 101 and the display device 102 are connected by the cable 117, but may be wirelessly connected using radio or infrared.

表示装置102は、ウェラブルディスプレイと呼ばれる眼鏡型の表示装置で、液晶表示部119と、測距部120と、3軸センサ121と、レリーズボタン122aとで構成される。尚、ケーブル117は、表示装置102のフレームの内部で、液晶表示部119と測距部120と3軸センサ121とレリーズボタン122aとに配線されている。   The display device 102 is a glasses-type display device called a wearable display, and includes a liquid crystal display unit 119, a distance measuring unit 120, a triaxial sensor 121, and a release button 122a. The cable 117 is wired to the liquid crystal display unit 119, the distance measuring unit 120, the triaxial sensor 121, and the release button 122a inside the frame of the display device 102.

カメラシステム100は、撮影者が操作パネル109の様々な操作ボタンを操作して使用する。操作パネル109の操作情報は制御部107に入力され、制御部107は操作パネル109の操作情報に応じてカメラシステム100の各部の動作を制御する。例えば、フォーカス制御を行う場合、制御部107のAF部151は、AFセンサ110が出力するフォーカス情報を処理して焦点位置を求め、レンズ光学系103のフォーカスレンズを焦点位置に移動するようレンズ制御部112に指令する。或いは、露出制御を行う場合、制御部107のAE部152は、AEセンサ111が出力する測光情報を処理して適正露出を求め、レンズ光学系103の絞り値を制御するようレンズ制御部112に指令したり、撮像部104のシャッター速度や発光部113の発光量などを制御する。尚、レンズ光学系103から入射する被写体光は、撮像部104の受光面に結像されると共に、AFセンサ110やAEセンサ111にも入射される。   The camera system 100 is used by a photographer operating various operation buttons on the operation panel 109. The operation information on the operation panel 109 is input to the control unit 107, and the control unit 107 controls the operation of each unit of the camera system 100 according to the operation information on the operation panel 109. For example, when performing focus control, the AF unit 151 of the control unit 107 processes the focus information output from the AF sensor 110 to obtain a focal position, and performs lens control so as to move the focus lens of the lens optical system 103 to the focal position. Command to the unit 112. Alternatively, when performing exposure control, the AE unit 152 of the control unit 107 processes the photometric information output from the AE sensor 111 to obtain an appropriate exposure, and instructs the lens control unit 112 to control the aperture value of the lens optical system 103. Commands, and controls the shutter speed of the imaging unit 104, the light emission amount of the light emitting unit 113, and the like. Note that the subject light incident from the lens optical system 103 forms an image on the light receiving surface of the imaging unit 104 and also enters the AF sensor 110 and the AE sensor 111.

図1において、撮像部104は、制御部107からの指令に応じて受光面に結像された被写体光を画像データに変換し、画像処理部105に出力する。画像処理部105は、ホワイトバランス処理や色補間処理或いは画像圧縮処理などを行って、処理後の画像データを制御部107に出力する。制御部107は、画像処理部105が処理した画像データを入力して撮影画像としてメモリ106やメモリIF108に装着されているメモリカード118に記憶する。   In FIG. 1, the imaging unit 104 converts subject light imaged on the light receiving surface into image data in accordance with a command from the control unit 107 and outputs the image data to the image processing unit 105. The image processing unit 105 performs white balance processing, color interpolation processing, or image compression processing, and outputs the processed image data to the control unit 107. The control unit 107 inputs the image data processed by the image processing unit 105 and stores it as a captured image in the memory card 118 attached to the memory 106 or the memory IF 108.

また、制御部107の表示制御部154は、表示IF114からケーブル117を介して接続されている表示装置102の液晶表示部119に必要な情報を表示する。尚、本実施形態において、液晶表示部119に表示される情報は、撮影される画像そのものではなく、幾何学的なグラフィック情報や文字・記号などである。   Further, the display control unit 154 of the control unit 107 displays necessary information on the liquid crystal display unit 119 of the display device 102 connected from the display IF 114 via the cable 117. In the present embodiment, information displayed on the liquid crystal display unit 119 is not graphic images themselves but geometric graphic information, characters / symbols, and the like.

3軸センサ115は、カメラ本体101の筐体の3軸方向の移動量を検知する。3軸センサ115で検知した移動量は、制御部107の方向算出部153に入力される。例えば、3軸センサ115は、X軸方向,Y軸方向,Z軸方向の3つの加速度センサで構成され、X軸方向の移動量,Y軸方向の移動量,Z軸方向の移動量を検知し、制御部107の方向算出部153に出力する。方向算出部153は、基準位置に対する3軸方向のそれぞれの移動量から、カメラ本体101の筐体のX軸方向の位置,Y軸方向の位置,Z軸方向の位置を把握することができる。   The triaxial sensor 115 detects the amount of movement of the housing of the camera body 101 in the triaxial direction. The movement amount detected by the three-axis sensor 115 is input to the direction calculation unit 153 of the control unit 107. For example, the triaxial sensor 115 includes three acceleration sensors in the X axis direction, the Y axis direction, and the Z axis direction, and detects the movement amount in the X axis direction, the movement amount in the Y axis direction, and the movement amount in the Z axis direction. And output to the direction calculation unit 153 of the control unit 107. The direction calculation unit 153 can grasp the position in the X-axis direction, the position in the Y-axis direction, and the position in the Z-axis direction of the housing of the camera body 101 from the respective movement amounts in the three-axis directions with respect to the reference position.

測距部116は、表示装置102の測距部120との通信によって、カメラ本体101と表示装置102との距離と相対的な位置関係を測定する。尚、カメラ本体101と表示装置102との距離と相対的な位置関係の測定方法については後で詳しく説明する。   The distance measuring unit 116 measures the relative positional relationship and the distance between the camera body 101 and the display device 102 through communication with the distance measuring unit 120 of the display device 102. A method for measuring the relative relationship between the distance between the camera body 101 and the display device 102 will be described in detail later.

次に、表示装置102について説明する。眼鏡型の表示装置102は、左右の目の部分に透明ガラスが装着されており、撮影者は一般的な眼鏡のように透明ガラスを通して実際の風景を見ることができる。さらに、本実施形態では左目の透明ガラス部分に情報を表示する液晶表示部119が装着されている。液晶表示部119は、表示する情報以外の部分を透明な状態に保つので、撮影者の視界が妨げられることは殆どなく、撮影者は実際の風景を見ることができる。尚、本実施形態では、液晶表示部119を左目部分に装着するようにしたが、右目部分或いは左右両側に装着しても構わない。   Next, the display device 102 will be described. The glasses-type display device 102 has transparent glasses attached to the left and right eyes, and the photographer can see the actual scenery through the transparent glasses like ordinary glasses. Furthermore, in this embodiment, a liquid crystal display unit 119 for displaying information is mounted on the transparent glass portion of the left eye. The liquid crystal display unit 119 keeps a portion other than the information to be displayed in a transparent state, so that the photographer's view is hardly obstructed and the photographer can see the actual landscape. In the present embodiment, the liquid crystal display unit 119 is attached to the left eye portion, but may be attached to the right eye portion or both the left and right sides.

ここで、第1の実施形態に係るカメラシステム100の使用形態について説明する。カメラシステム100は、図2に示すように、撮影者201が眼鏡型の表示装置102をメガネのように顔面に装着して使用する。尚、図2において、図1と同符号のものは同じものを示す。また、カメラ本体101の筐体に配置されたレリーズボタン122b,電源ボタン123,ズームボタン124は、図1の操作パネル109に含まれる。カメラ本体101のレリーズボタン122bは、表示装置102のレリーズボタン122aと並列に機能し、レリーズボタン122aまたはレリーズボタン122bのいずれかを操作することにより、カメラ本体101に撮影指示を与える。尚、本実施形態では、レリーズボタンのみカメラ本体101側と表示装置102側との両方に設けたが、ズームボタン124と並列に機能するもう一つのズームボタンを表示装置102側に設けても構わない。   Here, a usage pattern of the camera system 100 according to the first embodiment will be described. As shown in FIG. 2, the camera system 100 is used by a photographer 201 wearing a glasses-type display device 102 on a face like glasses. In FIG. 2, the same reference numerals as those in FIG. Further, the release button 122b, the power button 123, and the zoom button 124 arranged on the housing of the camera body 101 are included in the operation panel 109 of FIG. The release button 122b of the camera body 101 functions in parallel with the release button 122a of the display device 102, and gives a shooting instruction to the camera body 101 by operating either the release button 122a or the release button 122b. In this embodiment, only the release button is provided on both the camera body 101 side and the display device 102 side. However, another zoom button that functions in parallel with the zoom button 124 may be provided on the display device 102 side. Absent.

図1および図2において、表示装置102の3軸センサ121は、表示装置102の筐体の3軸方向の移動量を検知する。3軸センサ121で検知した移動量は、ケーブル117を介してカメラ本体101の表示IF114に入力され、さらに制御部107の方向算出部153に入力される。3軸センサ121は、カメラ本体101の3軸センサ115と同様に、例えば、X軸方向,Y軸方向,Z軸方向の3つの加速度センサで構成され、X軸方向の移動量,Y軸方向の移動量,Z軸方向の移動量をそれぞれ検知する。制御部107の方向算出部153は、基準位置に対する3軸方向の移動量から、表示装置102の筐体のX軸方向の位置,Y軸方向の位置,Z軸方向の位置を把握することができる。   1 and 2, the triaxial sensor 121 of the display device 102 detects the amount of movement of the housing of the display device 102 in the triaxial direction. The movement amount detected by the triaxial sensor 121 is input to the display IF 114 of the camera body 101 via the cable 117 and further input to the direction calculation unit 153 of the control unit 107. Similar to the triaxial sensor 115 of the camera body 101, the triaxial sensor 121 includes, for example, three acceleration sensors in the X axis direction, the Y axis direction, and the Z axis direction, and the amount of movement in the X axis direction and the Y axis direction. And the amount of movement in the Z-axis direction are detected. The direction calculation unit 153 of the control unit 107 can grasp the position in the X-axis direction, the position in the Y-axis direction, and the position in the Z-axis direction of the housing of the display device 102 from the amount of movement in the three-axis direction with respect to the reference position. it can.

尚、図2に示したように、X軸方向,Y軸方向,Z軸方向の座標は、カメラ本体101の筐体がある位置或いは表示装置102の筐体がある位置を基準位置として、同じ座標系を使用する。例えば、カメラ本体101の筐体がある位置を基準位置として、X軸方向を被写体方向(レンズ光学系103の光軸方向)、Y軸方向を水平方向、Z軸方向を垂直方向とする。もちろん、表示装置102の筐体がある位置を基準位置としても構わず、カメラ本体101と表示装置102との位置関係を相対的に把握できる座標系であればよい。尚、相対的な位置関係とは、カメラ本体101と表示装置102との距離だけでなく、三次元座標上での相対的な筐体の傾きなども含むものとする。   As shown in FIG. 2, the coordinates in the X-axis direction, the Y-axis direction, and the Z-axis direction are the same with the position where the camera body 101 is located or the position where the display device 102 is located as the reference position. Use a coordinate system. For example, with the position where the housing of the camera body 101 is located as the reference position, the X-axis direction is the subject direction (the optical axis direction of the lens optical system 103), the Y-axis direction is the horizontal direction, and the Z-axis direction is the vertical direction. Of course, the position where the housing of the display device 102 is located may be used as the reference position, and any coordinate system that can relatively grasp the positional relationship between the camera body 101 and the display device 102 may be used. Note that the relative positional relationship includes not only the distance between the camera body 101 and the display device 102 but also the relative inclination of the housing on the three-dimensional coordinates.

ここで、撮影開始時に、カメラ本体101と表示装置102との相対的な位置関係の初期位置を求める方法の一例について説明する。例えば、複数の赤外線測距装置をカメラ本体101と表示装置102とに搭載し、複数点の距離を測定することにより、カメラ本体101の位置と表示装置102の位置との相対的な位置関係を求めることができる。例えば、図3に示すように、表示装置102の筐体面には3つの赤外線発光部601a,601b,601cが既知の所定距離で配置し、カメラ本体101の筐体面には3つの赤外線受光部602a,602b,602cが既知の所定距離で配置する。赤外線発光部601aと赤外線受光部602aとはペアを成して、例えば信号の到達時間などから2点間の距離を測定する。同様に、赤外線発光部601bと赤外線受光部602bのペアと、赤外線発光部601cと赤外線受光部602cのペアは、それぞれの2点間の距離を測定する。或いは、表示装置102側の3つの赤外線発光部601a,601b,601cの信号を、カメラ本体101側の3つの赤外線受光部602a,602b,602cのそれぞれが受光するようにして、一般的なGPS測位方法と同様に、カメラ本体101側の3つの赤外線受光部602a,602b,602cのそれぞれの位置や方向を求めるようにしても構わない。   Here, an example of a method for obtaining the initial position of the relative positional relationship between the camera body 101 and the display device 102 at the start of shooting will be described. For example, by mounting a plurality of infrared distance measuring devices on the camera body 101 and the display device 102 and measuring the distance of a plurality of points, the relative positional relationship between the position of the camera body 101 and the position of the display device 102 can be determined. Can be sought. For example, as shown in FIG. 3, three infrared light emitting units 601a, 601b, and 601c are arranged at a known predetermined distance on the casing surface of the display device 102, and three infrared light receiving units 602a are arranged on the casing surface of the camera body 101. , 602b and 602c are arranged at a known predetermined distance. The infrared light emitting unit 601a and the infrared light receiving unit 602a form a pair, and measure the distance between two points from the arrival time of the signal, for example. Similarly, the pair of the infrared light emitting unit 601b and the infrared light receiving unit 602b, and the pair of the infrared light emitting unit 601c and the infrared light receiving unit 602c measure the distance between the two points. Alternatively, general GPS positioning is performed such that the signals from the three infrared light emitting units 601a, 601b, and 601c on the display device 102 side are received by the three infrared light receiving units 602a, 602b, and 602c on the camera body 101 side. Similarly to the method, the positions and directions of the three infrared light receiving units 602a, 602b, and 602c on the camera body 101 side may be obtained.

このようにして、カメラ本体101の制御部107の方向算出部153は、カメラ本体101と表示装置102との相対的な位置関係の初期値を求めることができる。カメラ本体101と表示装置102との相対的な初期位置が求まれば、以降、3軸センサ115および3軸センサ121から得られる移動量に応じて、初期位置を基準としたカメラ本体101および表示装置102の座標を更新していけばよい。   In this way, the direction calculation unit 153 of the control unit 107 of the camera body 101 can obtain the initial value of the relative positional relationship between the camera body 101 and the display device 102. Once the relative initial position between the camera main body 101 and the display device 102 is obtained, the camera main body 101 and the display based on the initial position are determined in accordance with the amount of movement obtained from the three-axis sensor 115 and the three-axis sensor 121. The coordinates of the device 102 may be updated.

尚、上記のような赤外線測距装置を搭載せずに、初期設定ボタンをカメラ本体101または表示装置102に設けて、撮影者が撮影を開始する時に、表示装置102の液晶表示部119を通して実際に見ている風景と、カメラ本体101で撮影使用としている領域を示す撮影範囲枠とが一致するようにカメラ本体101を配置し、この状態で初期設定ボタンを押下して、カメラ本体101の初期座標と、表示装置102の初期座標とをリセットしておけば、カメラ本体101と表示装置102との相対的な初期位置を設定することができる。以降、先に説明したように、3軸センサ115および3軸センサ121から得られる移動量に応じて、初期位置を基準としたカメラ本体101および表示装置102の座標を更新していけばよい。   It should be noted that an initial setting button is provided on the camera body 101 or the display device 102 without mounting the infrared distance measuring device as described above, and when the photographer starts shooting, the image is actually transmitted through the liquid crystal display unit 119 of the display device 102. The camera main body 101 is arranged so that the scenery seen in FIG. 3 matches the shooting range frame indicating the area used for shooting in the camera main body 101, and the initial setting button is pressed in this state to If the coordinates and the initial coordinates of the display device 102 are reset, a relative initial position between the camera body 101 and the display device 102 can be set. Thereafter, as described above, the coordinates of the camera body 101 and the display device 102 based on the initial position may be updated in accordance with the movement amount obtained from the triaxial sensor 115 and the triaxial sensor 121.

このように、本実施形態に係るカメラシステム100は、カメラ本体101と表示装置102との相対的な位置関係を常に把握するので、表示装置102の液晶表示部119を通して実際に見ている風景に重ねて表示する撮影範囲枠とカメラ本体101で撮影しようとしている撮影範囲とのずれを補正することができる。この結果、カメラ本体101と表示装置102とが離れていても、撮影者は、表示装置102を通して実際に見ている場面のどの部分を撮影範囲としてカメラ本体101のレンズ光学系103が捉えているのかを、液晶表示部119に表示される撮影範囲枠401によって容易に知ることができる。   As described above, since the camera system 100 according to the present embodiment always grasps the relative positional relationship between the camera body 101 and the display device 102, the scene actually viewed through the liquid crystal display unit 119 of the display device 102 can be obtained. It is possible to correct a deviation between the shooting range frame displayed in an overlapping manner and the shooting range to be shot by the camera body 101. As a result, even if the camera body 101 and the display device 102 are separated from each other, the photographer captures the portion of the scene actually viewed through the display device 102 by the lens optical system 103 of the camera body 101 as a shooting range. Can be easily known from the photographing range frame 401 displayed on the liquid crystal display unit 119.

次に、液晶表示部119に表示される撮影範囲枠401の表示方法について詳しく説明する。図4は、表示装置102を装着した撮影者201が、表示装置102とケーブル117で接続されたカメラ本体101を用いて、ある景色を撮影しようとしている様子を描いた説明図である。尚、図1および図2と同じ符号のものは同じものを示す。   Next, a method for displaying the photographing range frame 401 displayed on the liquid crystal display unit 119 will be described in detail. FIG. 4 is an explanatory diagram depicting a situation where a photographer 201 wearing the display device 102 is shooting a certain scene using the camera body 101 connected to the display device 102 via a cable 117. 1 and 2 denote the same components.

図4において、撮影者201が表示装置102を通して実際に見ている風景は、点線301aで示された範囲である。一方、カメラ本体101で撮影しようとしている撮影範囲は、点線302aで示された範囲である。この状態において、表示装置102の液晶表示部119に表示されている画面を図5(a)に示す。図5(a)において、撮影者201が表示装置102を通して実際に見ている風景は点線301aで示した範囲で、カメラ本体101の撮影範囲は点線302aで示した範囲である。制御部107の表示制御部154は、点線302aで示された撮影範囲に撮影範囲枠401aを表示する。尚、図5(a)では、分かり易いように、点線302aと撮影範囲枠401aとは少しずらして描いてあるが、実際には両者は同じ位置にある。   In FIG. 4, the scenery that the photographer 201 actually sees through the display device 102 is the range indicated by the dotted line 301a. On the other hand, the shooting range to be shot by the camera body 101 is a range indicated by a dotted line 302a. FIG. 5A shows a screen displayed on the liquid crystal display unit 119 of the display device 102 in this state. In FIG. 5A, the scenery that the photographer 201 actually sees through the display device 102 is the range indicated by the dotted line 301a, and the shooting range of the camera body 101 is the range indicated by the dotted line 302a. The display control unit 154 of the control unit 107 displays the shooting range frame 401a in the shooting range indicated by the dotted line 302a. In FIG. 5A, for the sake of easy understanding, the dotted line 302a and the shooting range frame 401a are drawn slightly shifted from each other, but they are actually at the same position.

このようにして、撮影者201は、表示装置102を通して実際に見ている風景に撮影範囲枠401aが重ねて表示されるので、見ている風景のどの部分をカメラ本体101で撮影しようとしているのかを容易に把握することができる。   In this way, the photographer 201 displays the photographing range frame 401a superimposed on the scenery actually viewed through the display device 102, so which part of the scenery being viewed is to be photographed by the camera body 101. Can be easily grasped.

次に、カメラ本体101の位置はそのままで撮影者201の頭を左に振った場合について説明する。図6は、先に説明した図4に対応する図で、表示装置102を装着した撮影者201が頭を左に振った時の様子を描いた説明図である。尚、図4と同じ符号のものは同じものを示す。   Next, a case will be described in which the position of the camera body 101 is kept as it is and the photographer 201 is shaken to the left. FIG. 6 is a diagram corresponding to FIG. 4 described above, and is an explanatory diagram depicting a situation when the photographer 201 wearing the display device 102 shakes his head to the left. The same reference numerals as those in FIG. 4 denote the same elements.

撮影者201が頭を左に振ったことにより、撮影者201が表示装置102を通して実際に見ている景色は、図4の点線301aで示された範囲から図6の点線301bで示された範囲に移動する。一方、カメラ本体101で撮影しようとしている撮影範囲は図4の場合と変わらず、点線302aで示された範囲である。   When the photographer 201 swings his head to the left, the scenery that the photographer 201 actually sees through the display device 102 is within the range indicated by the dotted line 301b in FIG. 6 from the range indicated by the dotted line 301a in FIG. Move to. On the other hand, the shooting range to be shot by the camera body 101 is the same as that shown in FIG. 4 and is the range indicated by the dotted line 302a.

この状態で、もし表示装置102の液晶表示部119に表示されていた撮影範囲枠401aが図5(a)の状態のままであったとすると、撮影者201が頭を左に振ることにより表示装置102も左に移動するので、液晶表示部119に表示される画面は図5(b)のようになる。図5(b)において、撮影者201が表示装置102を通して実際に見ている風景は点線301bで示した範囲で、カメラ本体101の撮影範囲は点線302aで示した部分であるが、液晶表示部119に表示される撮影範囲枠401aは、撮影者201が頭を左に振った分だけ左側に移動するので、カメラ本体101の撮影範囲の点線302aとはずれた位置に表示されてしまう。   In this state, if the shooting range frame 401a displayed on the liquid crystal display unit 119 of the display device 102 remains in the state shown in FIG. 5A, the photographer 201 shakes his head to the left to display the display device. Since 102 also moves to the left, the screen displayed on the liquid crystal display unit 119 is as shown in FIG. In FIG. 5B, the scenery that the photographer 201 actually sees through the display device 102 is the range indicated by the dotted line 301b, and the shooting range of the camera body 101 is the part indicated by the dotted line 302a. Since the photographing range frame 401a displayed on 119 moves to the left by the amount that the photographer 201 swings his head to the left, the photographing range frame 401a is displayed at a position shifted from the dotted line 302a of the photographing range of the camera body 101.

そこで、本実施形態に係るカメラシステム100は、撮影者201が頭を左に振った分だけ、液晶表示部119に表示する撮影範囲枠の位置を移動するよう制御する。具体的には、撮影者201が頭を左に振ったことを表示装置102の3軸センサ121が検知し、ケーブル117および表示IF114を介して制御部107の方向算出部153に知らせる。方向算出部153は、先に説明したように、カメラ本体101と表示装置102との相対的な位置関係を求め、さらに相対的な位置の移動量を液晶表示部119の画面上での撮影範囲枠401aの移動量に変換して、表示制御部154に撮影範囲枠401aの表示位置の移動を指令する。尚、移動量の算出において、カメラ本体101の位置と、表示装置102の位置とのずれによるパララックス補正を行う必要がある。   Therefore, the camera system 100 according to the present embodiment controls to move the position of the shooting range frame displayed on the liquid crystal display unit 119 by the amount that the photographer 201 swings his head to the left. Specifically, the triaxial sensor 121 of the display device 102 detects that the photographer 201 has swung his head to the left, and notifies the direction calculation unit 153 of the control unit 107 via the cable 117 and the display IF 114. As described above, the direction calculation unit 153 obtains the relative positional relationship between the camera body 101 and the display device 102, and further calculates the relative position movement amount on the screen of the liquid crystal display unit 119. The amount is converted into the amount of movement of the frame 401a, and the display control unit 154 is instructed to move the display position of the shooting range frame 401a. In calculating the movement amount, it is necessary to perform parallax correction based on a shift between the position of the camera body 101 and the position of the display device 102.

ここで、パララックス補正について図7を用いて説明する。図7は、分かり易いように、表示装置102を装着した撮影者201とカメラ本体101とが平行に距離dだけずれた位置にある場合の様子を描いた説明図である。図7において、実線501aは距離L1だけ離れた遠くの被写体、実線501bは距離L2だけ離れた近くの被写体をそれぞれ示している。撮影者201の顔の正面方向とカメラ本体101のレンズ光学系103の光軸方向とが平行な場合は、距離dだけずれた位置の被写体を見ていることになるので、表示装置102の液晶表示部119の画面上で見ている被写体の中心位置を一致させるためには、実線501aの遠くの被写体の場合は角度θ1だけ、実線501bの近くの被写体の場合は角度θ2だけ、それぞれパララックス補正する必要がある。尚、パララックス補正方法は一般に知られている方法で、撮影者201とカメラ本体101との距離dと、被写体までの距離L1またはL2とが分かれば、角度θ1またはθ2を求めることができる。   Here, the parallax correction will be described with reference to FIG. FIG. 7 is an explanatory diagram illustrating a situation where the photographer 201 wearing the display device 102 and the camera body 101 are in a position shifted in parallel by a distance d for easy understanding. In FIG. 7, a solid line 501a indicates a distant subject separated by a distance L1, and a solid line 501b indicates a nearby subject distant by a distance L2. If the front direction of the face of the photographer 201 and the optical axis direction of the lens optical system 103 of the camera body 101 are parallel, the subject at a position shifted by the distance d is seen, so the liquid crystal of the display device 102 In order to match the center position of the object viewed on the screen of the display unit 119, a parallax is set by an angle θ1 for a subject far from the solid line 501a and by an angle θ2 for a subject near the solid line 501b. It is necessary to correct. The parallax correction method is a generally known method. If the distance d between the photographer 201 and the camera body 101 and the distance L1 or L2 to the subject are known, the angle θ1 or θ2 can be obtained.

本実施形態に係るカメラシステム100は、カメラ本体101側の測距部116と、表示装置102側の測距部120とが赤外線などで通信することによってカメラ本体101と表示装置102との距離や相対位置を知ることができるので、距離dを求めることができる。また、被写体までの距離L1やL2は、レンズ制御部112がレンズ光学系103から入力するレンズ情報によって被写体までの距離L1やL2を知ることができる。このようにして、パララックス補正を行うことができる。   In the camera system 100 according to the present embodiment, the distance measurement unit 116 on the camera body 101 side and the distance measurement unit 120 on the display device 102 side communicate with each other by infrared rays or the like, and the distance between the camera body 101 and the display device 102 is determined. Since the relative position can be known, the distance d can be obtained. Further, the distances L1 and L2 to the subject can be known from the lens information input from the lens optical system 103 by the lens control unit 112. In this way, parallax correction can be performed.

尚、カメラ本体101の撮影範囲は、被写体までの距離とレンズ光学系103の焦点距離と撮像部104の受光面の大きさとから算出することができる。また、レンズ光学系103にズームレンズを用いた場合、表示制御部154は、装着されているズームレンズのズーム位置情報をレンズ光学系103からレンズ制御部112を介して入力し、ズームレンズの焦点距離に応じて撮影範囲枠を拡大縮小して表示装置102の液晶表示部119に表示する。   The shooting range of the camera body 101 can be calculated from the distance to the subject, the focal length of the lens optical system 103, and the size of the light receiving surface of the imaging unit 104. When a zoom lens is used as the lens optical system 103, the display control unit 154 inputs zoom position information of the attached zoom lens from the lens optical system 103 via the lens control unit 112, and the focus of the zoom lens. The shooting range frame is enlarged / reduced according to the distance and displayed on the liquid crystal display unit 119 of the display device 102.

このようにして、カメラ本体101と表示装置102との位置が離れていても、図5(c)に示したように、表示装置102の液晶表示部119に表示される撮影範囲枠401bは、撮影者201が表示装置102を通して実際に見ている風景の中で、点線302aで示したカメラ本体101の撮影範囲と一致した位置に表示される。尚、図5(c)においても、図5(a)と同様に、分かり易いように、点線302aと撮影範囲枠401bとは少しずらして描いてあるが、実際には両者は同じ位置にある。   In this way, even when the camera body 101 and the display device 102 are separated from each other, as shown in FIG. 5C, the shooting range frame 401b displayed on the liquid crystal display unit 119 of the display device 102 is In the scenery that the photographer 201 actually sees through the display device 102, the photographer 201 is displayed at a position that matches the shooting range of the camera body 101 indicated by the dotted line 302a. In FIG. 5 (c), as in FIG. 5 (a), the dotted line 302a and the shooting range frame 401b are drawn slightly shifted for easy understanding, but both are actually at the same position. .

このように、撮影者201が頭を動かして実際に見ている風景の位置が変化しても、常にカメラ本体101で撮影しようとしている撮影範囲枠401bが表示装置102の液晶表示部119で実際に見ている風景に重ねて表示されるので、見ている風景のどの部分を撮影しようとしているのかを容易に把握することができる。   In this way, even if the position of the scenery that the photographer 201 actually moves by moving his / her head changes, the shooting range frame 401b that is always being shot by the camera body 101 is actually displayed on the liquid crystal display unit 119 of the display device 102. Therefore, it is possible to easily grasp which part of the scenery being viewed is being photographed.

尚、本実施形態では、撮影者201が頭を左に振った場合についてのみ説明したが、頭を右に振った場合や上下に振った場合、或いは撮影者201自身が立っている位置を移動したり、座ったりした場合でも、表示装置102の3軸センサ121はX軸方向,Y軸方向,Z軸方向の位置の変化(移動量)を検出するので、制御部107の方向算出部153と表示制御部154は頭を左に振った場合と同様に動作し、撮影範囲枠を適正な位置に表示することができる。   In this embodiment, only the case where the photographer 201 shakes his / her head to the left has been described. However, the case where the photographer 201 shakes his / her head to the right or up / down, or the position where the photographer 201 himself stands is moved. Even when sitting or sitting, the three-axis sensor 121 of the display device 102 detects a change (movement amount) in the X-axis direction, the Y-axis direction, and the Z-axis direction, so the direction calculation unit 153 of the control unit 107 The display control unit 154 operates in the same manner as when the head is swung to the left, and can display the photographing range frame at an appropriate position.

次に、図1のカメラシステム100で撮影する際に、表示装置102に液晶表示部119に撮影範囲枠を表示する表示処理について、図8のフローチャートを用いて詳しく説明する。尚、図8のフローチャートは、制御部107に予め記憶されているプログラムによって動作する。   Next, display processing for displaying a shooting range frame on the liquid crystal display unit 119 on the display device 102 when shooting with the camera system 100 of FIG. 1 will be described in detail with reference to the flowchart of FIG. Note that the flowchart of FIG. 8 operates according to a program stored in the control unit 107 in advance.

(ステップS101)制御部107は、表示処理を開始する。   (Step S101) The control unit 107 starts display processing.

(ステップS102)制御部107は、初期位置設定処理を行う。つまり、図3で説明したように、測距部116と測距部120とを用いて、カメラ本体101と表示装置102との相対的な位置関係を求める。例えば、同じXYZ座標系において、カメラ本体101は座標(x1,y1,z1)の位置にあり、表示装置102は座標(x2,y2,z2)の位置にあることを求め、求めたそれぞれの座標を初期位置とする。この状態で、例えば図5(a)に示すように、撮影範囲枠401aを表示装置102の液晶表示部119に表示する。   (Step S102) The control unit 107 performs an initial position setting process. That is, as described with reference to FIG. 3, the relative positional relationship between the camera body 101 and the display device 102 is obtained using the distance measuring unit 116 and the distance measuring unit 120. For example, in the same XYZ coordinate system, the camera body 101 is at the position of coordinates (x1, y1, z1), and the display device 102 is at the position of coordinates (x2, y2, z2). Is the initial position. In this state, for example, as shown in FIG. 5A, the shooting range frame 401 a is displayed on the liquid crystal display unit 119 of the display device 102.

(ステップS103)制御部107の方向算出部153は、3軸センサ115によってカメラ本体101の位置の変化を検出する。   (Step S <b> 103) The direction calculation unit 153 of the control unit 107 detects a change in the position of the camera body 101 by the triaxial sensor 115.

(ステップS104)制御部107の方向算出部153は、3軸センサ121によって表示装置102の位置の変化を検出する。   (Step S <b> 104) The direction calculation unit 153 of the control unit 107 detects a change in the position of the display device 102 using the triaxial sensor 121.

(ステップS105)制御部107の方向算出部153は、ステップS103およびステップS104で検出した位置の変化から、カメラ本体101と表示装置102との相対的な位置関係が変化したか否かを判別する。カメラ本体101と表示装置102との相対的な位置関係が変化した場合はステップS106に進み、変化しなかった場合はステップS103に戻る。   (Step S105) The direction calculation unit 153 of the control unit 107 determines whether or not the relative positional relationship between the camera body 101 and the display device 102 has changed from the change in position detected in steps S103 and S104. . If the relative positional relationship between the camera body 101 and the display device 102 has changed, the process proceeds to step S106, and if not changed, the process returns to step S103.

(ステップS106)カメラ本体101と表示装置102との相対的な位置関係が変化した場合は、制御部107の方向算出部153は、カメラ本体101と表示装置102との相対的な位置関係を更新する。例えば、ステップS102で求めたカメラ本体101の初期位置の座標(x1,y1,z1)を新しい座標(x3,y3,z3)に更新し、表示装置102の初期位置の座標(x2,y2,z2)を新しい座標(x4,y4,z4)に更新する。制御部107の表示制御部154は、更新されたカメラ本体101と表示装置102との相対的な位置関係に応じて、先に説明したように、撮影範囲枠の液晶表示部119の画面上での移動量を求め、表示装置102の液晶表示部119に表示する。処理後、ステップS103に戻り、同様の処理を繰り返す。   (Step S106) When the relative positional relationship between the camera body 101 and the display device 102 changes, the direction calculation unit 153 of the control unit 107 updates the relative positional relationship between the camera body 101 and the display device 102. To do. For example, the coordinates (x1, y1, z1) of the initial position of the camera body 101 obtained in step S102 are updated to new coordinates (x3, y3, z3), and the coordinates (x2, y2, z2) of the initial position of the display device 102 are updated. ) Is updated to the new coordinates (x4, y4, z4). As described above, the display control unit 154 of the control unit 107 is displayed on the screen of the liquid crystal display unit 119 in the shooting range frame according to the updated relative positional relationship between the camera body 101 and the display device 102. Is obtained and displayed on the liquid crystal display unit 119 of the display device 102. After the process, the process returns to step S103 and the same process is repeated.

尚、撮影処理は、図8のフローチャートとは別に行われ、カメラ本体101のレリーズボタン122bが押された場合や、表示装置102のレリーズボタン122aが押された場合は、その時点の被写体画像がカメラ本体101の撮像部104で撮影され、画像処理部105で必要な画像処理が行われた後、メモリ106やメモリIF108を介してメモリカード118に保存される。   Note that the shooting process is performed separately from the flowchart of FIG. 8. When the release button 122 b of the camera body 101 is pressed or when the release button 122 a of the display device 102 is pressed, the subject image at that time is displayed. The image is captured by the image capturing unit 104 of the camera main body 101, subjected to necessary image processing by the image processing unit 105, and then stored in the memory card 118 via the memory 106 and the memory IF 108.

このようにして、本実施形態に係るカメラシステム100は、撮像部104を有するカメラ本体101と眼鏡型の表示装置102とが別筐体で構成され、レンズ光学系103を通して撮影される撮像部104の撮影範囲を示す撮影範囲枠を眼鏡型の表示装置102の液晶表示部119に表示するので、撮影画像そのものを液晶表示部119に表示する場合に比べて複雑な装置が不要となり、且つ液晶表示部119に表示するのは撮影範囲枠のみなので、撮影者の目障りにならずに自然な雰囲気の画像を撮影することができる。   As described above, in the camera system 100 according to the present embodiment, the camera body 101 having the imaging unit 104 and the glasses-type display device 102 are configured as separate housings, and the imaging unit 104 is photographed through the lens optical system 103. Since the photographing range frame indicating the photographing range is displayed on the liquid crystal display unit 119 of the glasses-type display device 102, a complicated device is not required as compared with the case where the photographed image itself is displayed on the liquid crystal display unit 119, and the liquid crystal display Since only the shooting range frame is displayed on the part 119, an image of a natural atmosphere can be taken without causing any trouble for the photographer.

さらに、表示装置102側にもレリーズボタン122aを設けているので、カメラ本体101が撮影者の手が届かない場所にあっても、シャッターチャンスを逃すことなく画像を撮影することができる。   Furthermore, since the release button 122a is also provided on the display device 102 side, an image can be taken without missing a photo opportunity even when the camera body 101 is out of the reach of the photographer.

(第2の実施形態)
次に、本発明に係るカメラシステムの第2の実施形態について説明する。第2の実施形態に係るカメラシステム100の構成は、図1に示した第1の実施形態に係るカメラシステム100と同じである。第1の実施形態と異なるのは、制御部107のAF部151のAF対象領域を表示装置102の液晶表示部119に表示することである。尚、カメラ本体101は、撮影画面内でAF制御を行いたい領域を自由に設定できるようになっており、設定したAF対象は、カメラ本体101の撮像部104の撮影画面内で自動的に追尾する機能が備えられている。図9は、第1の実施形態の図5(c)に対応する図で、撮影者が表示装置102の液晶表示部119を通して実際に見ている風景の範囲601と、第1の実施形態で説明した撮影範囲枠602が表示装置102の液晶表示部119に表示されている様子を示している。さらに、本実施形態では、図9に示したように、フォーカスを合わせたいAF対象領域として設定されているAF対象領域を示すAF対象枠603が液晶表示部119に表示される。
(Second Embodiment)
Next, a second embodiment of the camera system according to the present invention will be described. The configuration of the camera system 100 according to the second embodiment is the same as that of the camera system 100 according to the first embodiment shown in FIG. The difference from the first embodiment is that the AF target area of the AF unit 151 of the control unit 107 is displayed on the liquid crystal display unit 119 of the display device 102. The camera body 101 can freely set an area where AF control is desired in the shooting screen, and the set AF target is automatically tracked in the shooting screen of the imaging unit 104 of the camera body 101. The function to do is provided. FIG. 9 is a diagram corresponding to FIG. 5C of the first embodiment, and a landscape range 601 that the photographer actually sees through the liquid crystal display unit 119 of the display device 102 and the first embodiment. A state in which the described photographing range frame 602 is displayed on the liquid crystal display unit 119 of the display device 102 is illustrated. Further, in the present embodiment, as shown in FIG. 9, an AF target frame 603 indicating an AF target area set as an AF target area to be focused is displayed on the liquid crystal display unit 119.

ここで、AF対象枠603の表示は、カメラ本体101と表示装置102との相対的な位置関係が変化しない場合は、制御部107のAF部151が設定されたAF対象をパターン認識などの手法によって自動的に追尾し、表示制御部154はAF対象枠603を表示装置102の液晶表示部119に表示する。尚、この時、第1の実施形態で説明したパララックス補正や、カメラ本体101と表示装置102との相対的な位置関係からAF対象枠603の表示位置への変換処理などが行われる。この結果、撮影者が表示装置102の液晶表示部119を通して実際に見ている風景の中に表示されるAF対象枠603の位置と、カメラ本体101の撮影画面内で設定されているAF対象の位置とのずれは補正され、液晶表示部119の適正な位置にAF対象枠603が表示される。この場合、カメラ本体101と表示装置102との相対的な位置関係が変化しないので、制御部107の表示制御部154は、AF部151が追尾するAF対象の位置を入力して、そのAF対象の位置に応じて液晶表示部119に表示されるAF対象枠603の位置を移動させる。   Here, when the relative positional relationship between the camera body 101 and the display device 102 does not change, the AF target frame 603 is displayed using a method such as pattern recognition for the AF target set by the AF unit 151 of the control unit 107. The display control unit 154 displays the AF target frame 603 on the liquid crystal display unit 119 of the display device 102. At this time, the parallax correction described in the first embodiment, the conversion process from the relative positional relationship between the camera body 101 and the display device 102 to the display position of the AF target frame 603, and the like are performed. As a result, the position of the AF target frame 603 displayed in the scenery that the photographer actually sees through the liquid crystal display unit 119 of the display device 102 and the AF target set in the shooting screen of the camera body 101 are displayed. The deviation from the position is corrected, and the AF target frame 603 is displayed at an appropriate position on the liquid crystal display unit 119. In this case, since the relative positional relationship between the camera body 101 and the display device 102 does not change, the display control unit 154 of the control unit 107 inputs the position of the AF target tracked by the AF unit 151, and the AF target The position of the AF target frame 603 displayed on the liquid crystal display unit 119 is moved according to the position.

一方、カメラ本体101と表示装置102との相対的な位置関係が変化する場合は、上記のカメラ本体101と表示装置102との相対的な位置関係が変化しない場合の処理に加えて第1の実施形態で説明したようなカメラ本体101と表示装置102との相対的な位置関係の変化に応じて、液晶表示部119に表示されるAF対象枠603の位置を移動させればよい。カメラ本体101と表示装置102との相対的な位置関係が変化した場合のAF対象枠603の表示位置の移動は、第1の実施形態の撮影範囲枠の移動と全く同じようにして行うことができる。例えば、図8のフローチャートにおいて、ステップS106に、AF対象枠603の表示位置の移動処理を追加するだけでよい。   On the other hand, when the relative positional relationship between the camera main body 101 and the display device 102 changes, the first processing is performed in addition to the processing when the relative positional relationship between the camera main body 101 and the display device 102 does not change. The position of the AF target frame 603 displayed on the liquid crystal display unit 119 may be moved in accordance with the change in the relative positional relationship between the camera body 101 and the display device 102 as described in the embodiment. The movement of the display position of the AF target frame 603 when the relative positional relationship between the camera body 101 and the display device 102 changes can be performed in exactly the same way as the movement of the shooting range frame of the first embodiment. it can. For example, in the flowchart of FIG. 8, it is only necessary to add a process for moving the display position of the AF target frame 603 to step S106.

このように、本実施形態に係るカメラシステム100は、撮像部104を有するカメラ本体101と眼鏡型の表示装置102とが別筐体で構成され、レンズ光学系103を通して撮影される撮像部104の撮影範囲を示す撮影範囲枠およびAF対象枠を眼鏡型の表示装置102の液晶表示部119に表示するので、撮影画像そのものを液晶表示部119に表示する場合に比べて複雑な装置が不要となり、且つ液晶表示部119に表示するのは撮影範囲枠およびAF対象枠のみなので、撮影者の目障りにならずに自然な雰囲気の画像を撮影することができる。   As described above, in the camera system 100 according to the present embodiment, the camera main body 101 having the imaging unit 104 and the glasses-type display device 102 are configured as separate housings, and the imaging unit 104 is photographed through the lens optical system 103. Since the shooting range frame indicating the shooting range and the AF target frame are displayed on the liquid crystal display unit 119 of the glasses-type display device 102, a complicated device is not necessary as compared with the case where the shot image itself is displayed on the liquid crystal display unit 119. In addition, since only the shooting range frame and the AF target frame are displayed on the liquid crystal display unit 119, an image with a natural atmosphere can be taken without causing any trouble to the photographer.

尚、各実施形態において、分かり易いように眼鏡型表示装置の片側だけに表示モニタを設けたが、眼鏡型表示装置の左右レンズの両方に表示モニタを設け、さらに眼鏡の左右レンズのいずれかの表示モニタを選択する選択部を眼鏡型表示装置またはカメラ本体のいずれかに設けて、撮影範囲枠とAF対象枠とを表示する表示モニタを使用者が自由に切り替えられるようにしても構わない。これにより、使用者の利き目側のレンズに撮影範囲枠とAF対象枠とを表示するので、違和感なく視認性が向上し、視差による位置ずれも少なくなる。   In each embodiment, the display monitor is provided only on one side of the spectacles-type display device for easy understanding. However, the display monitor is provided on both the left and right lenses of the spectacles-type display device. A selection unit for selecting a display monitor may be provided in either the eyeglass-type display device or the camera body so that the user can freely switch the display monitor that displays the shooting range frame and the AF target frame. As a result, since the shooting range frame and the AF target frame are displayed on the lens on the user's dominant eye side, visibility is improved without a sense of incongruity, and positional deviation due to parallax is reduced.

また、本実施形態では、撮影範囲枠とAF対象枠とを表示する場合について説明したが、シャッター速度,日時,ズーム位置,撮影モードなどの情報も表示装置102の液晶表示部119に表示するようにしても構わない。   In this embodiment, the case where the shooting range frame and the AF target frame are displayed has been described, but information such as the shutter speed, date / time, zoom position, and shooting mode is also displayed on the liquid crystal display unit 119 of the display device 102. It doesn't matter.

また、カメラ本体101と眼鏡型の表示装置102との相対位置が変化している場合は、撮影範囲枠やAF対象枠の色を変えたり、点滅するようにしても構わない。これにより、使用者はカメラ本体101と表示装置102との相対位置が変化中であることを知ることができる。或いは、カメラ本体101の位置だけが変化している場合だけ、撮影範囲枠やAF対象枠の色を変えたり、点滅するようにしても構わない。これにより、使用者は、表示装置102の液晶表示部119でカメラ本体101が移動中であることがわかるので、レリーズボタン122aを押すタイミングを知ることができ、手振れを防止することができる。   Further, when the relative position between the camera body 101 and the glasses-type display device 102 has changed, the color of the shooting range frame or the AF target frame may be changed or blinked. As a result, the user can know that the relative position between the camera body 101 and the display device 102 is changing. Alternatively, only when the position of the camera body 101 is changed, the color of the shooting range frame and the AF target frame may be changed or blinked. Thus, the user can know that the camera body 101 is moving on the liquid crystal display unit 119 of the display device 102, so that the user can know the timing of pressing the release button 122a, and the camera shake can be prevented.

さらに、レンズ光学系103にズームレンズを用いた場合に、装着されているズームレンズのズーム範囲を示す最大ズームアップ範囲枠や最大ズームアウト範囲枠を表示装置102の液晶表示部119に表示するようにしても構わない。これにより、撮影者は、どこまでズームアップまたはズームアウトできるのかを事前に知ることができ、撮影構図を決定する際の利便性が向上する。   Further, when a zoom lens is used as the lens optical system 103, a maximum zoom-up range frame and a maximum zoom-out range frame indicating the zoom range of the attached zoom lens are displayed on the liquid crystal display unit 119 of the display device 102. It doesn't matter. Thus, the photographer can know in advance how far the zoom-in or zoom-out is possible, and convenience in determining the shooting composition is improved.

以上説明してきたように、本発明に係るカメラシステム100は、撮像部104を有するカメラ本体101と眼鏡型の表示装置102とが別筐体で構成され、撮像部104の撮影範囲を示す撮影範囲枠やAF対象枠などの情報だけを眼鏡型の表示装置102に表示するので、動画像を表示するための複雑な装置が不要となり、且つ撮影者に目障りにならず、自然な雰囲気の画像を撮影することができる。   As described above, in the camera system 100 according to the present invention, the camera body 101 having the imaging unit 104 and the glasses-type display device 102 are configured in separate housings, and the imaging range indicating the imaging range of the imaging unit 104 is shown. Since only the information such as the frame and the AF target frame is displayed on the glasses-type display device 102, a complicated device for displaying a moving image is not necessary, and an image with a natural atmosphere is not obstructed by the photographer. You can shoot.

各実施形態に係るカメラシステム100のブロック図である。1 is a block diagram of a camera system 100 according to each embodiment. カメラシステム100の使用形態を示す説明図である。2 is an explanatory diagram showing a usage pattern of a camera system 100. FIG. 相対的な位置関係を測定する一例を示す説明図である。It is explanatory drawing which shows an example which measures a relative positional relationship. カメラ本体101の撮影範囲と撮影者201の視野範囲とを示す説明図である。It is explanatory drawing which shows the imaging | photography range of the camera main body 101, and the photographer's 201 visual field range. 撮影範囲枠の表示状態を示す説明図である。It is explanatory drawing which shows the display state of an imaging | photography range frame. カメラ本体101の撮影範囲と撮影者201の視野範囲とを示す説明図である。It is explanatory drawing which shows the imaging | photography range of the camera main body 101, and the photographer's 201 visual field range. パララックス補正を示す説明図である。It is explanatory drawing which shows parallax correction | amendment. 撮影範囲枠を表示する処理を示すフローチャートである。It is a flowchart which shows the process which displays an imaging | photography range frame. 第2の実施形態でのAF対象枠の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of AF target frame in 2nd Embodiment.

符号の説明Explanation of symbols

100・・・カメラシステム 101・・・カメラ本体
102・・・表示装置 103・・・レンズ光学系
104・・・撮像部 105・・・画像処理部
106・・・メモリ 107・・・制御部
108・・・メモリIF 109・・・操作パネル
110・・・AFセンサ 111・・・AEセンサ
112・・・レンズ制御部 113・・・発光部
114・・・表示IF 116・・・測距部
115・・・3軸センサ 117・・・ケーブル
118・・・メモリカード 119・・・液晶表示部
120・・・測距部 121・・・3軸センサ
122a・・・レリーズボタン 151・・・AF部
152・・・AE部 153・・・方向算出部
154・・・表示制御部
DESCRIPTION OF SYMBOLS 100 ... Camera system 101 ... Camera main body 102 ... Display apparatus 103 ... Lens optical system 104 ... Imaging part 105 ... Image processing part 106 ... Memory 107 ... Control part 108 ... Memory IF 109 ... Operation panel 110 ... AF sensor 111 ... AE sensor 112 ... Lens control unit 113 ... Light emitting unit 114 ... Display IF 116 ... Ranging unit 115 ... 3-axis sensor 117 ... Cable 118 ... Memory card 119 ... Liquid crystal display unit 120 ... Distance measuring unit 121 ... 3-axis sensor 122a ... Release button 151 ... AF unit 152 ... AE unit 153 ... Direction calculation unit 154 ... Display control unit

Claims (5)

レンズ光学系を介して画像を撮影する撮像部を有するカメラ筐体と、前記カメラ筐体で撮影された画像を表示する表示部を有する表示筐体とが別筐体で構成されたカメラシステムであって、
前記表示筐体は、前記表示筐体の3軸方向の位置を検出する第1の方向検出部を備え、
前記カメラ筐体は、
前記カメラ筐体の3軸方向の位置を検出する第2の方向検出部と、
前記第2の方向検出部が出力する第2の位置情報と前記表示筐体の前記第1の方向検出部が出力する第1の位置情報とを用いて前記カメラ筐体と前記表示筐体との相対位置を算出する方向算出部と、
前記レンズ光学系のレンズ情報を取得するレンズ情報取得部と、
前記方向算出部が算出する相対位置と前記レンズ情報取得部が取得するレンズ情報とに応じて、前記撮像部で撮影される画像の撮影領域を示す撮影範囲枠を前記表示部に設定する表示制御部と
を備える
ことを特徴とするカメラシステム。
A camera system in which a camera housing having an imaging unit that captures an image via a lens optical system and a display housing having a display unit that displays an image captured by the camera housing are configured as separate housings. There,
The display housing includes a first direction detection unit that detects a position of the display housing in three axial directions,
The camera housing is
A second direction detector for detecting a position of the camera casing in the three-axis direction;
Using the second position information output from the second direction detection unit and the first position information output from the first direction detection unit of the display casing, the camera casing and the display casing A direction calculation unit for calculating the relative position of
A lens information acquisition unit for acquiring lens information of the lens optical system;
Display control for setting a shooting range frame indicating a shooting area of an image shot by the imaging unit in the display unit according to the relative position calculated by the direction calculation unit and the lens information acquired by the lens information acquisition unit And a camera system.
請求項1に記載のカメラシステムにおいて、
前記表示筐体は、撮影者の頭部動作と一体化され、且つ撮影者が視認可能な位置に装着する筐体形状である
ことを特徴とするカメラシステム。
The camera system according to claim 1,
The camera system characterized in that the display casing is integrated with a photographer's head movement and is mounted at a position where the photographer can visually recognize the display casing.
請求項2に記載のカメラシステムにおいて、
前記表示筐体は、眼鏡型の筐体形状であることを特徴とするカメラシステム。
The camera system according to claim 2,
The camera system according to claim 1, wherein the display housing has a glasses-type housing shape.
請求項1から3のいずれか一項に記載のカメラシステムにおいて、
前記表示筐体は、前記カメラ筐体の前記撮像部に撮影を指示するレリーズボタンを備えることを特徴とするカメラシステム。
The camera system according to any one of claims 1 to 3,
The display housing includes a release button that instructs the imaging unit of the camera housing to perform photographing.
請求項1から4のいずれか一項に記載のカメラシステムにおいて、
前記カメラ筐体は、AF(オートフォーカス)領域を設定可能なAF制御部を更に備え、
前記表示制御部は、撮影領域を示す前記撮影範囲枠と、前記AF領域を示すAF範囲枠とを前記表示部に設定する
ことを特徴とするカメラシステム。
In the camera system according to any one of claims 1 to 4,
The camera housing further includes an AF control unit capable of setting an AF (autofocus) area,
The display control unit sets the shooting range frame indicating a shooting region and the AF range frame indicating the AF region in the display unit.
JP2008044314A 2008-02-26 2008-02-26 Camera system Active JP4946914B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008044314A JP4946914B2 (en) 2008-02-26 2008-02-26 Camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008044314A JP4946914B2 (en) 2008-02-26 2008-02-26 Camera system

Publications (2)

Publication Number Publication Date
JP2009206584A JP2009206584A (en) 2009-09-10
JP4946914B2 true JP4946914B2 (en) 2012-06-06

Family

ID=41148467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008044314A Active JP4946914B2 (en) 2008-02-26 2008-02-26 Camera system

Country Status (1)

Country Link
JP (1) JP4946914B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101920319B1 (en) * 2012-11-14 2018-11-20 삼성전자주식회사 Portable apparatus for photographing image
KR102088020B1 (en) * 2013-09-26 2020-03-11 엘지전자 주식회사 A head mounted display ant the method of controlling thereof
KR20150034558A (en) * 2013-09-26 2015-04-03 엘지전자 주식회사 A head mounted display and the method of controlling the same
CN104702848B (en) * 2015-03-31 2019-02-12 小米科技有限责任公司 Show the method and device of framing information

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3384591B2 (en) * 1993-09-28 2003-03-10 三洋電機株式会社 Fixed head video camera
JPH07199278A (en) * 1993-12-28 1995-08-04 Canon Inc Photographing device

Also Published As

Publication number Publication date
JP2009206584A (en) 2009-09-10

Similar Documents

Publication Publication Date Title
JP5999336B2 (en) Imaging apparatus, imaging processing method, and program
JP5659305B2 (en) Image generating apparatus and image generating method
JP5907738B2 (en) Imaging apparatus, display method, and program
JP5865388B2 (en) Image generating apparatus and image generating method
WO2013069047A1 (en) Image generation device, and image generation method
JP6071436B2 (en) Imaging apparatus, imaging method, and program
WO2013069049A1 (en) Image generation device, and image generation method
US9609224B2 (en) Imaging device and image display method
JP2005328497A (en) Image pickup apparatus and image pickup method
JP2017060078A (en) Image recording system, user attachment device, imaging apparatus, image processing system, image recording method, and program
JP5695809B1 (en) Display device, display method, and program
JP2001223932A (en) Image pickup device and digital camera
WO2015194084A1 (en) Information processing device, information processing system, and information processing method and program
CN110291777B (en) Image acquisition method, device and machine-readable storage medium
JP4946914B2 (en) Camera system
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
KR101814714B1 (en) Method and system for remote control of camera in smart phone
JP6257260B2 (en) Imaging apparatus and control method thereof
CN113302908A (en) Control method, handheld cloud deck, system and computer readable storage medium
JP2014095624A (en) Measuring apparatus, measuring method, and program
JP6657929B2 (en) Portable device, system, control method, and program
JP2016134886A (en) Imaging apparatus and control method thereof
JP6218615B2 (en) Display device, display method, photographing apparatus, and photographing system
JP2015019215A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4946914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250