JPH09163212A - Image pickup unit - Google Patents

Image pickup unit

Info

Publication number
JPH09163212A
JPH09163212A JP7345107A JP34510795A JPH09163212A JP H09163212 A JPH09163212 A JP H09163212A JP 7345107 A JP7345107 A JP 7345107A JP 34510795 A JP34510795 A JP 34510795A JP H09163212 A JPH09163212 A JP H09163212A
Authority
JP
Japan
Prior art keywords
cameraman
image pickup
face
result
menu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7345107A
Other languages
Japanese (ja)
Inventor
Yoshihiko Kuroki
義彦 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP7345107A priority Critical patent/JPH09163212A/en
Publication of JPH09163212A publication Critical patent/JPH09163212A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily and surely adjust the balance of an image even concering adjustment matters with a low adjustment frequency without preventing the smooth movement of a camera and without disturbing the balance of the image by executing adjustment work concerning an adjustment item corresponding to the facing direction of a cameraman. SOLUTION: CPU 13 display a stipulated menu on the display screen of a view finder 6 with a TV camera part 14. The face of the cameraman is image-picked-up by the camera 7 for the cameraman, which is arranged in the upper part of the view finder 6. CPU 13 refers to personal information of the cameraman, which is registered in a memory 15 and detects the facing direction of the cameraman. CPU 13 detects the menu selected by the cameraman by the detected facing direction and outputs control data D. Thus, a TV camera part 14 and the view finder 6 are adjusted concerning the adjustment item selected by the cameraman from the adjustment items with the low adjustment frequency.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、撮像装置に関し、
例えばスタジオ用のテレビジョンカメラに適用して、顔
の向きに応じてメニューを選択して動作を切り換えるこ
とができるように形成することにより、カメラの滑らか
な動き、バランスを乱すことなく、調整頻度の低い調整
事項についても、簡易かつ確実に調整できるようにす
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an imaging device,
For example, by applying it to a television camera for a studio and forming a menu so that the operation can be switched according to the orientation of the face, the smooth movement of the camera and the adjustment frequency can be maintained without disturbing the balance. Make adjustments easy and sure even for low adjustment items.

【0002】[0002]

【従来の技術】従来、スタジオ用のテレビジョンカメラ
においては、三脚に固定した状態で、この三脚の上部よ
り延長する操作棒を操作して被写体の動きを追跡し、ま
たこの操作棒に取り付けられた操作子を操作してフォー
カス等を調整するようになされている。
2. Description of the Related Art Conventionally, in a television camera for a studio, while being fixed to a tripod, an operation rod extending from the upper part of the tripod is operated to track the movement of an object and is attached to the operation rod. The focus is adjusted by operating the operator.

【0003】すなわちスタジオ用のテレビジョンカメラ
は、操作頻度の高いズーム、フォーカス、アイリスの操
作子、リターン画像の切り換えスイッチがこの操作棒に
配置され、これにより被写体の動きを追跡しながらこれ
ら操作子を操作できるように形成されている。
That is, in a television camera for a studio, a zoom, focus, iris operator and a return image changeover switch, which are frequently operated, are arranged on this operation rod, whereby these operators are tracked while tracking the movement of a subject. Is formed so that it can be operated.

【0004】これに対して操作頻度の低いビューファイ
ンダの画質調整(すなわち輝度調整、輪郭調整等でな
る)の操作子、ゲンイ切り換えの操作子等は、テレビジ
ョンカメラの背面に形成された操作パネル上に、ビュー
ファインダより大きく視線をそらす必要がないように、
ビューファインダの表示画面に近接して配置され、必要
に応じて操作棒より手を離して、これら操作子を操作で
きるようになされていた。
On the other hand, the operator for image quality adjustment (that is, brightness adjustment, contour adjustment, etc.) of the viewfinder, which is infrequently operated, and the operator for switching Genie, etc., are operation panels formed on the rear surface of the television camera. Above, so that you do not need to divert your eyes more than the viewfinder,
It was arranged close to the display screen of the viewfinder, and it was possible to operate these controls by releasing the hand from the operating rod as needed.

【0005】[0005]

【発明が解決しようとする課題】ところで実際の撮影現
場においては、撮像中に被写体の光量が変化する場合が
ある。この場合、カメラマンにおいては、ビューファイ
ンダの輝度、輪郭補正を調整してフォーカス調整を容易
化することができる。ところが実際上、この調整作業
は、撮影中に、又は他のテレビジョンカメラとの間でオ
ンエア画像が切り換わった僅かな時間を利用して、ビュ
ーファインダより視線を移動して実行する必要がある。
これにより従来のテレビジョンカメラにおいては、この
種の調整作業を実行すると、カメラの滑らかな動きが妨
げられたり、撮像結果でなる画像のバランスが乱される
問題があった。
By the way, in the actual shooting scene, the light quantity of the subject may change during the shooting. In this case, the cameraman can adjust the brightness and contour correction of the viewfinder to facilitate focus adjustment. However, in practice, this adjustment work needs to be performed by moving the line of sight from the viewfinder while taking a picture or using a short time during which an on-air image is switched between other television cameras. .
Therefore, in the conventional television camera, when this kind of adjustment work is executed, there are problems that the smooth movement of the camera is disturbed and the balance of the image as the image pickup result is disturbed.

【0006】これらの問題を解決する1つの方法とし
て、これら調整頻度の低い操作子についても、操作棒に
配置することにより、ビューファインダより視線を移動
させなくてもこれら操作子を操作できるようにする方法
が考えられる。ところがこのようにすると、結局、カメ
ラマンにおいては、手探りによりこれらの操作子を操作
して種々の調整作業を実行することになり、誤操作を避
け得ない問題がある。
As one method of solving these problems, by arranging these operators with low adjustment frequency on the operating rod, the operators can be operated without moving the line of sight from the viewfinder. There are possible ways to do this. However, in this case, in the end, the cameraman has to perform various adjustment works by manipulating these operating elements by groping, which causes a problem that erroneous operation cannot be avoided.

【0007】本発明は以上の点を考慮してなされたもの
で、カメラの滑らかな動きを妨げることなく、さらには
バランスを乱すことなく、調整頻度の低い調整事項につ
いても、簡易かつ確実に調整することができる撮像装置
を提案しようとするものである。
The present invention has been made in consideration of the above points, and can easily and surely adjust even adjustment items that are infrequently adjusted without hindering the smooth movement of the camera and without disturbing the balance. The present invention intends to propose an image pickup apparatus that can be used.

【0008】[0008]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、所望の被写体を撮像して被写体の
撮像結果を出力する撮像装置に適用する。この撮像装置
において、被写体の撮像結果と共に、調整項目を順次配
列したメニュー画面を表示する表示手段と、この表示手
段の表示画面を観察するカメラマンの顔を撮像するカメ
ラマン用撮像手段と、このカメラマン用撮像手段の撮像
結果に基づいて、先のカメラマンの顔の向きを検出し、
この顔の向きに対応するメニュー画面に配列された調整
項目を検出するメニュー検出手段とを備えるようにし、
この画像処理手段により検出された調整項目に関して、
調整作業を実行するようにする。
In order to solve such a problem, the present invention is applied to an image pickup apparatus for picking up an image of a desired subject and outputting an image pickup result of the subject. In this image pickup device, a display means for displaying a menu screen in which adjustment items are sequentially arranged together with an image pickup result of a subject, a cameraman image pickup means for picking up a cameraman's face observing the display screen of the display means, and a cameraman's Based on the image pickup result of the image pickup means, the direction of the face of the previous photographer is detected,
A menu detection unit for detecting adjustment items arranged on the menu screen corresponding to the face direction is provided,
Regarding the adjustment items detected by this image processing means,
Make sure to perform the adjustment work.

【0009】このとき、先のメニュー検出手段が、先の
カメラマン用撮像手段より出力されるカメラマンの撮像
結果を画像処理して、カメラマンの顔の向きを検出す
る。
At this time, the above menu detecting means performs image processing on the image pickup result of the cameraman output from the above cameraman image pickup means to detect the orientation of the cameraman's face.

【0010】またこれに代えて、先のメニュー検出手段
が、カメラマン用撮像手段のフォーカスを可変して得ら
れる撮像結果を基準にして、カメラマンの顔の向きを検
出する。
Alternatively, the menu detecting means detects the orientation of the cameraman's face with reference to the image pickup result obtained by changing the focus of the cameraman's image pickup means.

【0011】さらにこれに代えて、カメラマン用撮像手
段が、離間して配置され、先のカメラマンの顔を立体視
してなる撮像結果を出力する複数の撮像装置により形成
され、先のメニュー検出手段が、これら複数の撮像装置
より得られる撮像結果間で、顔の特徴的な部分を照合し
て顔の向きを検出する。
Further alternatively, the cameraman image pickup means is formed by a plurality of image pickup devices which are arranged apart from each other and output an image pickup result obtained by stereoscopically viewing the face of the previous cameraman. However, among the image pickup results obtained by the plurality of image pickup devices, the characteristic part of the face is collated to detect the face direction.

【0012】このとき、先の撮像装置が、カメラマン用
撮像手段の動作に同期して間欠的に赤外線を射出してカ
メラマンを赤外線により照明する照明手段を有し、先の
メニュー検出手段が、この赤外線により照明されたカメ
ラマンの撮像結果と、この赤外線により照明されていな
いカメラマンの撮像結果との比較結果を画像処理して、
カメラマンの顔の向きを検出するようにする。
At this time, the above-mentioned image pickup device has a lighting means for emitting infrared rays intermittently in synchronism with the operation of the cameraman's image pickup means to illuminate the cameraman with the infrared rays, and the preceding menu detection means has this. Image processing the result of comparison between the image pickup result of the cameraman illuminated by infrared rays and the image pickup result of the cameraman not illuminated by this infrared ray,
Try to detect the orientation of the photographer's face.

【0013】これらの手段により、ビューファインダに
おいて、被写体の撮像結果と共に、調整項目に関するメ
ニュー画面を表示し、カメラマン用撮像手段により、こ
のビューファインダの表示画面を観察するカメラマンの
顔を撮像し、カメラマン用撮像手段の撮像結果からカメ
ラマンの顔の向きに対応する調整項目を検出すれば、カ
メラマンにおいては、顔の向きを可変してメニューを目
視するだけで調整項目を選択することができる。これに
よりメニュー検出手段により検出された調整項目に関し
て、調整作業を実行して、ハンドフリーにより所望の調
整項目を調整することができる。
With these means, in the viewfinder, a menu screen relating to the adjustment items is displayed together with the imaging result of the subject, and the cameraman's imaging means images the face of the cameraman who observes the display screen of the viewfinder, and the cameraman If the adjustment item corresponding to the orientation of the cameraman's face is detected from the imaging result of the image capturing means, the cameraman can select the adjustment item only by changing the orientation of the face and visually observing the menu. As a result, the adjustment work can be executed for the adjustment item detected by the menu detection means, and the desired adjustment item can be adjusted hands-free.

【0014】具体的に、先のメニュー検出手段が、先の
カメラマン用撮像手段より出力されるカメラマンの撮像
結果を画像処理することにより、例えば鼻から顔両側の
輪郭までの距離を検出して、カメラマンの顔の向きを検
出することができる。
More specifically, the menu detecting means detects the distance from the nose to the contours on both sides of the face by image-processing the image pickup result of the cameraman outputted from the image pickup means for the cameraman, The orientation of the cameraman's face can be detected.

【0015】またこれに代えて、先のメニュー検出手段
が、カメラマン用撮像手段のフォーカスを可変して得ら
れる撮像結果を基準にして、例えば鼻から両側の頬まで
の距離の相違を検出して、カメラマンの顔の向きを検出
することができる。
Alternatively, the menu detecting means may detect the difference in the distance from the nose to the cheeks on both sides based on the image pickup result obtained by changing the focus of the image pickup means for the cameraman. , The direction of the photographer's face can be detected.

【0016】さらにこれに代えて、カメラマン用撮像手
段が、離間して配置され、先のカメラマンの顔を立体視
してなる撮像結果を出力する複数の撮像装置により形成
され、先のメニュー検出手段が、これら複数の撮像装置
より得られる撮像結果間で、顔の特徴的な部分を照合し
て、例えば複数の撮像結果間で鼻、目等の位置の相違を
検出して顔の向きを検出することができる。
Further, instead of this, the cameraman's image pickup means is formed by a plurality of image pickup devices which are arranged apart from each other and which outputs an image pickup result obtained by stereoscopically viewing the face of the previous cameraman, and the previous menu detection means. However, the characteristic parts of the face are collated among the image pickup results obtained by the plurality of image pickup devices, and for example, the face orientation is detected by detecting the difference in the positions of the nose, eyes, etc. between the plurality of image pickup results. can do.

【0017】またこのとき、先の撮像装置が、カメラマ
ン用撮像手段の動作に同期して間欠的に赤外線を射出し
てカメラマンを照明し、先のメニュー検出手段が、この
赤外線により照明されたカメラマンの撮像結果と、この
赤外線により照明されていないカメラマンの撮像結果と
の比較結果を画像処理して、カメラマンの顔の向きを検
出すれば、例えば可視光によるノイズの混入を有効に回
避して画像処理することができ、正しくカメラマンの顔
の向きを検出することができる。
At this time, the previous image pickup device irradiates the cameraman by emitting infrared rays intermittently in synchronization with the operation of the image pickup means for the cameraman, and the previous menu detecting means is illuminated by the infrared ray. Image processing of the comparison result between the image pickup result of No. 1 and the image pickup result of the cameraman who is not illuminated by infrared rays, and the orientation of the cameraman's face is detected, for example, effectively avoiding the mixing of noise due to visible light It can be processed and the orientation of the cameraman's face can be detected correctly.

【0018】[0018]

【発明の実施の形態】以下、適宜図面を参照しながら本
発明の実施の形態を詳述する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0019】図2は、本発明の実施の形態に係るスタジ
オ用のテレビジョンカメラを示す側面図である。このテ
レビジョンカメラ1は、三脚2に保持され、この三脚2
の上部より延長する操作棒3を操作して向きを可変でき
るように形成され、これによりテレビジョンカメラ1で
は、操作棒3を把持して被写体の動きを追跡できるよう
に形成されている。
FIG. 2 is a side view showing a television camera for a studio according to the embodiment of the present invention. The television camera 1 is held by a tripod 2, and the tripod 2
It is formed so that the direction can be changed by operating the operating rod 3 extending from the upper part of the above, so that the television camera 1 is formed so that the operating rod 3 can be grasped and the movement of the subject can be tracked.

【0020】この操作棒3は、カメラマン4の手元側
に、操作頻度の高いズーム、フォーカス、アイリスの操
作子、リターン画像の切り換えスイッチが、メニュー確
定のトリガスイッチ5と共に配置されるようになされて
いる。これによりテレビジョンカメラ1では、これらの
ズーム、フォーカス、アイリスの操作子を操作して被写
体の変化に追従できるように形成され、リターン画像の
切り換えスイッチを操作してオンエア画像を確認できる
ようになされている。またメニュー確定のトリガスイッ
チ5を操作して、調整頻度の低い調整事項についても、
簡易に調整できるようになされている。
The operation stick 3 is arranged such that a zoom, focus, iris operator and return image changeover switch, which are frequently operated, are arranged on the hand side of the cameraman 4 together with the trigger switch 5 for confirming the menu. There is. As a result, the television camera 1 is formed so as to follow the change of the subject by operating the zoom, focus and iris operators, and the on-air image can be confirmed by operating the return image changeover switch. ing. Also, by operating the trigger switch 5 for confirming the menu, adjustment items with low adjustment frequency
It can be adjusted easily.

【0021】さらにこのテレビジョンカメラ1は、カメ
ラマン4側にビューファインダ6を配置し、このビュー
ファインダ6の上部に配置したカメラマン用カメラ7に
よりカメラマン4の顔を撮像する。このカメラマン用カ
メラ7は、白黒用で形成され、ビューファインダ6の表
示画面に近接して、表示画面の中央上部に配置される。
さらにこのカメラマン用カメラ7は、このカメラマンの
顔にフォーカスが合うように焦点位置、被写界深度が手
動により設定され、さらにカメラマン4の顔を充分に撮
像できるように画角が設定されるようになされている。
Further, the television camera 1 has a viewfinder 6 arranged on the cameraman 4 side, and a cameraman camera 7 arranged above the viewfinder 6 captures an image of the face of the cameraman 4. The cameraman's camera 7 is formed for black and white, and is arranged near the display screen of the viewfinder 6 and in the upper center of the display screen.
Further, in this cameraman camera 7, the focus position and the depth of field are manually set so that the face of the cameraman is in focus, and the angle of view is set so that the face of the cameraman 4 can be sufficiently captured. Has been done.

【0022】かくするにつきカメラマン4においては、
ビューファインダ6の表示画面を覗きながら、あまり顔
の位置を変化させないでテレビジョンカメラ1を操作す
ることにより、この実施の形態では、このように表示画
面に近接して、表示画面の中央上部にカメラマン用カメ
ラ7を配置して、またフォーカス等を固定して、簡易な
構成で、カメラマン4の顔を正面から安定して撮像する
ことができるようになされている。なおカメラマン用カ
メラ7は、絞りについてはオートアイリスにより制御す
る。
To do this, the cameraman 4
By observing the display screen of the viewfinder 6 and operating the television camera 1 without changing the position of the face so much, in this embodiment, in the vicinity of the display screen and in the upper center of the display screen in this way. By disposing the cameraman's camera 7 and fixing the focus and the like, the face of the cameraman 4 can be stably imaged from the front with a simple configuration. The cameraman's camera 7 controls the diaphragm with an auto iris.

【0023】さらにテレビジョンカメラ1は、このカメ
ラマン用カメラ7の撮像結果を内蔵の画像処理部8によ
り処理し、この画像処理部8の処理結果をトリガスイッ
チ5の操作に応動して取り込むことにより、調整頻度の
低い調整事項についても、簡易に調整できるようになさ
れている。
Further, in the television camera 1, the image pickup result of the cameraman camera 7 is processed by the built-in image processing section 8, and the processing result of the image processing section 8 is fetched in response to the operation of the trigger switch 5. Also, adjustment items that are adjusted less frequently can be adjusted easily.

【0024】図3は、カメラマン側より、このテレビジ
ョンカメラ1のビューファインダ6を示す背面図であ
り、テレビジョンカメラ1では、カメラマン用カメラ7
に近接して、カメラマン用カメラ7の側方に赤外線照明
装置9を配置し、図4に示すように、カメラマン用カメ
ラ7のフィールド周期に同期したタイミングで、この赤
外線照明装置9により間欠的に赤外線を射出してカメラ
マン4を照明する。これによりテレビジョンカメラ1で
は、カメラマン用カメラ7を介して、ビューファインダ
6の表示画面等により照明されたカメラマンの顔と、こ
れらの照明に加えて赤外線により照明されたカメラマン
の顔とを、1フィールド周期で交互に撮像できるように
なされている。
FIG. 3 is a rear view showing the viewfinder 6 of the television camera 1 from the cameraman side. In the television camera 1, the cameraman camera 7 is used.
The infrared illuminating device 9 is arranged on the side of the cameraman camera 7 in close proximity to, and as shown in FIG. 4, the infrared illuminating device 9 intermittently operates at a timing synchronized with the field cycle of the cameraman camera 7. Infrared rays are emitted to illuminate the cameraman 4. As a result, in the television camera 1, the face of the cameraman illuminated by the display screen of the viewfinder 6 and the face of the cameraman illuminated by infrared rays in addition to these lights are displayed through the camera 7 for the cameraman. Images can be taken alternately in the field cycle.

【0025】図5は、このテレビジョンカメラ1の全体
構成を示すブロック図である。このテレビジョンカメラ
1では、カメラマン用カメラ7のフィールドパルスFD
を基準にして赤外線照明装置9を駆動し、これにより赤
外線照明装置9より間欠的に赤外線を照射する。カメラ
マン用カメラ7は、この実施の形態では512画素×5
12画素の解像度によりカメラマン4の顔を撮像し、イ
ンタレース方式の撮像結果でなるビデオ信号SV1を画
像処理部8及びビューファインダ(VF)6に出力す
る。
FIG. 5 is a block diagram showing the overall structure of the television camera 1. In this television camera 1, the field pulse FD of the cameraman camera 7 is used.
The infrared illuminating device 9 is driven on the basis of, and thereby the infrared illuminating device 9 intermittently emits infrared rays. The cameraman camera 7 is 512 pixels × 5 in this embodiment.
An image of the face of the cameraman 4 is picked up with a resolution of 12 pixels, and a video signal SV1 obtained as an interlaced image pickup result is output to the image processing unit 8 and the viewfinder (VF) 6.

【0026】画像処理部8は、アナログディジタル変換
回路(A/D)11において、ビデオ信号SV1から輝
度信号を抽出し、この輝度信号をアナログディジタル変
換処理して8ビットのディジタル輝度信号に変換する。
画像処理部8は、このディジタル輝度信号をフレームメ
モリ12に出力する。フレームメモリ12は、中央処理
ユニット(CPU)13により制御されてこのディジタ
ル輝度信号を規定のタイミングで取り込むことにより、
ビューファインダ6の表示画面により照明されてなるカ
メラマン用カメラ7の撮像結果と、この照明に加えて赤
外線により照明されてなるカメラマン用カメラ7の撮像
結果とを記録する。さらにフレームメモリ12は、この
記録した撮像結果を中央処理ユニット13により制御さ
れて規定のタイミングで出力する。
The image processing unit 8 extracts a luminance signal from the video signal SV1 in an analog-digital conversion circuit (A / D) 11, and performs an analog-digital conversion process on the luminance signal to convert it into an 8-bit digital luminance signal. .
The image processing unit 8 outputs this digital luminance signal to the frame memory 12. The frame memory 12 is controlled by the central processing unit (CPU) 13 and fetches this digital luminance signal at a prescribed timing,
The imaging result of the cameraman camera 7 illuminated by the display screen of the viewfinder 6 and the imaging result of the cameraman camera 7 illuminated by infrared light in addition to this illumination are recorded. Further, the frame memory 12 is controlled by the central processing unit 13 to output the recorded imaging result at a specified timing.

【0027】中央処理ユニット13は、テレビジョンカ
メラ部14を介してビューファインダ6の表示画面に規
定のメニューをスーパーインポーズして表示する。さら
に中央処理ユニット13は、トリガスイッチ5の操作に
応動して後述する処理手順を実行することにより、この
フレームメモリ12の出力データを順次画像処理した
後、メモリ15に登録したカメラマン4の個人情報を参
照して、カメラマン4の顔の向きを検出する。さらに中
央処理ユニット13は、この検出した顔の向きよりカメ
ラマン4が選択したメニューを検出し、この検出結果に
従ってテレビジョンカメラ部14又はビューファインダ
6に制御データDCを出力し、これにより調整頻度の低
い調整項目の中から、カメラマン4の選択した調整項目
についてテレビジョンカメラ部14及びビューファイン
ダ6を調整する。これによりテレビジョンカメラ1で
は、操作棒3を把持したままの状態で、調整頻度の低い
調整項目についても、簡易かつ確実に調整できるように
形成されている。
The central processing unit 13 superimposes and displays a prescribed menu on the display screen of the viewfinder 6 via the television camera section 14. Further, the central processing unit 13 executes the processing procedure described later in response to the operation of the trigger switch 5 to sequentially image-process the output data of the frame memory 12, and then the personal information of the cameraman 4 registered in the memory 15. The orientation of the face of the cameraman 4 is detected with reference to. Further, the central processing unit 13 detects the menu selected by the cameraman 4 based on the detected face orientation, and outputs the control data DC to the television camera unit 14 or the viewfinder 6 according to the detection result, thereby adjusting the adjustment frequency. The television camera unit 14 and the viewfinder 6 are adjusted for the adjustment item selected by the cameraman 4 from the low adjustment items. Thus, the television camera 1 is formed so that adjustment items that are adjusted less frequently can be adjusted easily and reliably with the operating rod 3 still held.

【0028】また中央処理ユニット13は、同様に、ト
リガスイッチ5の操作に応動して後述する処理手順を実
行することにより、フレームメモリ12の出力データを
順次画像処理し、カメラマン各人で異なる画像処理結果
と顔の向きとの相関データを検出し、この相関データを
メモリ15に格納する。これによりテレビジョンカメラ
1では、カメラマンが交替した場合でも、カメラマンの
意図する調整事項を確実に調整できるように形成されて
いる。
Similarly, the central processing unit 13 sequentially processes the output data of the frame memory 12 by executing the processing procedure described later in response to the operation of the trigger switch 5, and the different images are taken by each cameraman. Correlation data between the processing result and the face orientation is detected, and this correlation data is stored in the memory 15. As a result, the television camera 1 is formed so that the adjustment items intended by the cameraman can be reliably adjusted even when the cameraman is replaced.

【0029】さらに中央処理ユニット13は、このよう
にしてカメラマンの顔の向きを基準にして種々の項目を
調整する初期設定として、カメラマン4が規定の操作子
を操作すると、ビューファインダ6の表示画面を切り換
え、カメラマン用カメラ7より出力されるビデオ信号S
V1をビューファインダ6に表示する。これによりテレ
ビジョンカメラ1では、カメラマン用カメラ7で顔全体
が撮像されているか否かをビューファインダ6により確
認できるように形成され、必要に応じて三脚2の高さ、
カメラマン用カメラ7の傾き、倍率、フォーカス等を操
作してカメラマン用カメラ7で顔全体が撮像できるよう
に調整して、カメラマンの意図する調整事項を確実に調
整できるように形成されている。
Further, the central processing unit 13 makes a display screen of the viewfinder 6 when the cameraman 4 operates a prescribed operator as an initial setting for adjusting various items based on the orientation of the cameraman's face in this way. The video signal S output from the camera 7 for the cameraman.
V1 is displayed on the viewfinder 6. As a result, the television camera 1 is formed so that the viewfinder 6 can confirm whether or not the entire face is imaged by the cameraman camera 7, and if necessary, the height of the tripod 2,
The tilt, magnification, focus, etc. of the cameraman's camera 7 are operated to adjust the cameraman's camera 7 so that the entire face can be imaged, and the adjustment items intended by the cameraman can be surely adjusted.

【0030】メモリ15は、中央処理ユニット13によ
り制御されて内容を更新し、画像処理結果と顔の向きと
の相関データを、各カメラマン毎に格納する。テレビジ
ョンカメラ部14は、操作棒3に配置された操作子の操
作に応動してアイリス等を切り換え、カメラマン4の意
図する被写体の撮像結果を出力する。このときテレビジ
ョンカメラ部14は、中央処理ユニット13から出力さ
れる制御データDCに応じてビューファインダ6に表示
する撮像結果に調整項目のメニューをスーパーインポー
ズして表示し、またこの表示を切り換える。
The memory 15 is controlled by the central processing unit 13 to update the contents, and stores the correlation data between the image processing result and the face direction for each cameraman. The television camera unit 14 switches the iris and the like in response to the operation of the operation element arranged on the operation rod 3, and outputs the imaging result of the object intended by the cameraman 4. At this time, the television camera unit 14 superimposes and displays a menu of adjustment items on the image pickup result displayed on the viewfinder 6 according to the control data DC output from the central processing unit 13, and switches the display. .

【0031】さらにテレビジョンカメラ部14は、同様
に中央処理ユニット13から出力される制御データDC
に応動して動作を切り換え、これによりカメラマンの選
択した調整項目について、対応する信号処理回路等を調
整する。さらにテレビジョンカメラ部14は、外部のカ
メラコントロールユニットからリターン画像のビデオ信
号SV3を受け、カメラマンが操作棒3に配置されたリ
ターン画像の切り換えスイッチを操作すると、撮像結果
に代えてこのビデオ信号SV3をビューファインダ6に
出力する。
Further, the television camera section 14 similarly controls the control data DC output from the central processing unit 13.
The operation is switched in response to the adjustment, and thereby the corresponding signal processing circuit or the like is adjusted for the adjustment item selected by the cameraman. Further, the television camera unit 14 receives the video signal SV3 of the return image from the external camera control unit, and when the cameraman operates the return image changeover switch arranged on the operation stick 3, the video signal SV3 is replaced with the image pickup result. Is output to the viewfinder 6.

【0032】ビューファインダ6は、テレビジョンカメ
ラ部14より出力されるビデオ信号SV2を表示する。
このビデオ信号SV2の表示において、ビューファイン
ダ6は、制御データDCに応じて表示画面の輝度レベ
ル、輪郭補正レベルを可変する。これによりビューファ
インダ6は、画像処理部8から制御データDCを出力し
て、撮影中に、調整頻度の低い調整項目について調整で
きるようになされている。
The viewfinder 6 displays the video signal SV2 output from the television camera section 14.
In the display of the video signal SV2, the viewfinder 6 changes the brightness level and the contour correction level of the display screen according to the control data DC. As a result, the viewfinder 6 outputs the control data DC from the image processing unit 8 so that adjustment can be performed for adjustment items having low adjustment frequency during shooting.

【0033】図6は、このテレビジョンカメラ部14を
詳細に示すブロック図である。このテレビジョンカメラ
部14において、レンズ20は、被写体からの入射光を
集光した後、図示しないダイクロイックプリズムにより
赤色、緑色、青色の入射光に分解し、これらの入射光を
続くCCD固体撮像素子(CCD)21の撮像面に集光
する。このときレンズ20は、操作棒3に配置したフォ
ーカス、ズーム、アイリスの操作子の操作に応動して、
フォーカス、倍率、絞りを可変する。さらにレンズ20
は、カメラマン4の操作によりこのテレビジョンカメラ
1がオートフォーカスの動作モードに設定されると、こ
のフォーカスの操作子の操作に代えて、オートフォーカ
ス回路(AF)22から出力される制御信号に応動して
フォーカスを可変する。
FIG. 6 is a block diagram showing the television camera section 14 in detail. In the television camera unit 14, the lens 20 collects incident light from a subject, and then decomposes the incident light into red, green, and blue incident light by a dichroic prism (not shown), and the incident light is continued by a CCD solid-state image sensor. The light is focused on the image pickup surface of the (CCD) 21. At this time, the lens 20 responds to the operation of the focus, zoom, and iris operators arranged on the operation rod 3,
Change the focus, magnification and aperture. Lens 20
When the television camera 1 is set to the autofocus operation mode by operating the cameraman 4, in response to a control signal output from the autofocus circuit (AF) 22, instead of operating the focus operator. And change the focus.

【0034】CCD固体撮像素子21は、それぞれ赤色
用、緑色用、青色用の撮像素子により赤色、緑色、青色
の入射光を受光し、タイミングジェネレータ(TG)2
3から出力される駆動パルスに従って動作することによ
り、各入射光を光電変換して出力する。このときCCD
固体撮像素子21は、この駆動パルスに応動して電荷蓄
積時間を切り換え、これによりシャッター速度を切り換
える。
The CCD solid-state image pickup device 21 receives incident light of red, green and blue by the image pickup devices for red, green and blue, respectively, and the timing generator (TG) 2
By operating in accordance with the drive pulse output from 3, the incident light is photoelectrically converted and output. CCD at this time
The solid-state imaging device 21 switches the charge accumulation time in response to this drive pulse, and thereby switches the shutter speed.

【0035】すなわちテレビジョンカメラ部14におい
て同期信号生成回路24は、カメラコントロールユニッ
トより入力されるリターン画像に同期して水平同期信
号、システムクロック等の基準信号を生成し、これら基
準信号を各信号処理回路に出力する。タイミングジェネ
レータ23は、これらの基準信号からCCD固体撮像素
子21の駆動信号を生成して出力する。このときタイミ
ングジェネレータ23は、システム制御回路25から出
力される制御データに従って駆動信号のタイミングを可
変し、これによりCCD固体撮像素子21の電荷蓄積時
間を制御する。
That is, in the television camera section 14, the sync signal generation circuit 24 generates reference signals such as a horizontal sync signal and a system clock in synchronization with the return image input from the camera control unit, and these reference signals are used as respective signals. Output to the processing circuit. The timing generator 23 generates a drive signal for the CCD solid-state image sensor 21 from these reference signals and outputs it. At this time, the timing generator 23 changes the timing of the drive signal in accordance with the control data output from the system control circuit 25, thereby controlling the charge accumulation time of the CCD solid-state image sensor 21.

【0036】続く相関二重サンプリング回路(CDS)
26は、相関二重サンプリングの手法を適用して各CC
D固体撮像素子21の出力信号をそれぞれ赤色、緑色、
青色の色信号に変換して出力する。
Subsequent correlated double sampling circuit (CDS)
26 applies the method of correlated double sampling to each CC
The output signals of the D solid-state image sensor 21 are respectively red, green, and
It is converted into a blue color signal and output.

【0037】続くAGC回路27は、相関二重サンプリ
ング回路26より出力される各色信号を規定利得で増幅
して出力する。このときAGC回路27は、システム制
御回路25から出力される制御データに従って利得を切
り換え、これによりテレビジョンカメラ1では、必要に
応じてゲンイ切り換えできるようになされている。
The subsequent AGC circuit 27 amplifies each color signal output from the correlated double sampling circuit 26 with a specified gain and outputs it. At this time, the AGC circuit 27 switches the gain according to the control data output from the system control circuit 25, so that the television camera 1 can switch the gain as necessary.

【0038】色分離回路28は、AGC回路27より出
力される色信号を受け、赤色、青色の色信号の高域成分
を抽出して緑色色信号に加算し、これにより輝度信号の
解像度を向上する。
The color separation circuit 28 receives the color signals output from the AGC circuit 27, extracts the high frequency components of the red and blue color signals and adds them to the green color signal, thereby improving the resolution of the luminance signal. To do.

【0039】ホワイトバランス回路(WB)29は、色
分離回路28より出力される赤色、青色の色信号につい
て、信号レベルを補正して出力し、これによりこれら色
信号のホワイトバランスを調整する。この処理におい
て、ホワイトバランス回路29は、システム制御回路2
5より出力される制御データに応じて、ホワイトバラン
ス調整モードに動作を切り換え、各色信号の信号レベル
が規定の比率に収束するように利得を可変し、これによ
りオートホワイトバランス調整の処理を実行する。
The white balance circuit (WB) 29 corrects the signal levels of the red and blue color signals output from the color separation circuit 28 and outputs them, thereby adjusting the white balance of these color signals. In this process, the white balance circuit 29 causes the system control circuit 2
The operation is switched to the white balance adjustment mode in accordance with the control data output from No. 5, and the gain is changed so that the signal level of each color signal converges to a specified ratio, whereby the automatic white balance adjustment processing is executed. .

【0040】ガンマ補正回路(ガンマ)30は、各色信
号の信号レベルを非線型に補正して出力することによ
り、これら色信号のガンマを補正する。この処理におい
て、ガンマ補正回路30は、システム制御回路25より
出力される制御データに応じて、この非線型の特性を切
り換え、これによりガンマ特性を切り換える。またガン
マ補正回路30は、このガンマ補正処理に加えて、各色
信号の信号レベルが規定の信号レベルでなるニーポイン
ト以上に立ち上がると、信号レベルを抑圧して出力し、
これによりニー処理を実行する。このニー処理におい
て、ガンマ補正回路30は、同様にシステム制御回路2
5より出力される制御データに応じて、ニーポイントの
信号レベル、ニーポイントを境にした入出力特性を切り
換え、これによりこのニー処理の特性を切り換える。
The gamma correction circuit (gamma) 30 corrects the gamma of each color signal by correcting the signal level of each color signal non-linearly and outputting it. In this process, the gamma correction circuit 30 switches the non-linear characteristic according to the control data output from the system control circuit 25, and thereby switches the gamma characteristic. In addition to this gamma correction processing, the gamma correction circuit 30 suppresses the signal level and outputs it when the signal level of each color signal rises above the knee point of the prescribed signal level,
Thereby, the knee process is executed. In this knee process, the gamma correction circuit 30 similarly operates the system control circuit 2
The knee point signal level and the input / output characteristic with the knee point as a boundary are switched according to the control data output from the switch 5, and the characteristics of this knee processing are switched.

【0041】マトリックス回路31は、ガンマ補正回路
30より出力される各色信号をマトリックス演算処理す
ることにより、輝度信号及び色差信号生成して出力す
る。エンコーダ32は、マトリックス回路31より出力
される輝度信号及び色差信号を合成してビデオ信号SV
4を生成し、このビデオ信号SV4をカメラコントロー
ルユニットに出力する。これによりテレビジョンカメラ
部14では、被写体の撮像結果を出力できるように形成
されている。
The matrix circuit 31 performs a matrix calculation process on each color signal output from the gamma correction circuit 30 to generate and output a luminance signal and a color difference signal. The encoder 32 synthesizes the luminance signal and the color difference signal output from the matrix circuit 31 to synthesize the video signal SV.
4 is generated and this video signal SV4 is output to the camera control unit. Thereby, the television camera unit 14 is formed so as to be able to output the imaging result of the subject.

【0042】オートフォーカス回路22は、マトリック
ス回路31より出力される輝度信号を規定期間の間、取
り込むことにより、この規定期間で決まるフォーカスエ
リアについて、輝度信号を入力する。さらにオートフォ
ーカス回路22は、この取り込んだ輝度信号について、
高域の信号レベルがピーク値に維持されるように、いわ
ゆる山登り法を適用してレンズ20のフォーカスを可変
し、これによりオートフォーカスの処理を実行する。こ
のときオートフォーカス回路22は、システム制御回路
25より出力される制御データに応じて、この輝度信号
取り込みの期間を可変し、これによりカメラマン4の意
図に従ってフォーカスエリアを可変する。
The autofocus circuit 22 takes in the luminance signal output from the matrix circuit 31 for a prescribed period, and inputs the luminance signal for the focus area determined by the prescribed period. Furthermore, the autofocus circuit 22 detects the captured luminance signal
The so-called hill-climbing method is applied to vary the focus of the lens 20 so that the signal level in the high frequency range is maintained at the peak value, whereby the auto-focus process is executed. At this time, the autofocus circuit 22 changes the period for taking in the luminance signal in accordance with the control data output from the system control circuit 25, thereby changing the focus area according to the intention of the cameraman 4.

【0043】選択回路34は、操作棒3に配置された切
り換えスイッチの操作に応動して、エンコーダ32から
出力されるビデオ信号SV4、カメラコントロールユニ
ットより入力されるリターン画像のビデオ信号SV3を
選択的にビューファインダ6に出力する。これによりテ
レビジョンカメラ1では、操作棒3を把持した状態で切
り換えスイッチを操作してビューファインダ6の表示画
面を切り換えることができるようになされている。
The selection circuit 34 responds to the operation of the changeover switch arranged on the operation rod 3 to selectively select the video signal SV4 output from the encoder 32 and the video signal SV3 of the return image input from the camera control unit. To the viewfinder 6. Thus, in the television camera 1, the display screen of the viewfinder 6 can be switched by operating the changeover switch while holding the operation rod 3.

【0044】さらに選択回路34は、初期設定状態にお
いて、規定の操作子が操作されると、カメラマン用カメ
ラ7より出力されるビデオ信号SV1を選択出力し、カ
メラマン用カメラ7により撮像したカメラマン4の顔の
画像を表示する。これによりテレビジョンカメラ1で
は、カメラマン用カメラ7による撮像結果をビューファ
インダ7により確認できるようになされている。
Further, in the initial setting state, when the prescribed operator is operated, the selection circuit 34 selectively outputs the video signal SV1 output from the cameraman camera 7, and the cameraman 4 imaged by the cameraman camera 7 is selected. Display a face image. As a result, in the television camera 1, the result of the image picked up by the cameraman camera 7 can be confirmed by the viewfinder 7.

【0045】画像合成回路35は、システム制御回路2
5より出力される制御データに応動して規定のメニュー
画面又は調整画面を形成し、選択回路34より出力され
るビデオ信号にこのメニュー画面をスーパーインポーズ
して出力する。これによりテレビジョンカメラ1では、
必要に応じてビューファインダ6の表示画面に、撮像結
果又はリターン画像と共に、メニュー画面又は調整画面
を表示できるようになされている。
The image synthesizing circuit 35 is the system control circuit 2.
A prescribed menu screen or adjustment screen is formed in response to the control data output from the control circuit 5, and this menu screen is superimposed on the video signal output from the selection circuit 34 and output. As a result, in the television camera 1,
A menu screen or an adjustment screen can be displayed on the display screen of the viewfinder 6 together with the imaging result or the return image as required.

【0046】システム制御回路25は、このテレビジョ
ンカメラ部14全体の動作を制御するマイクロコンピュ
ータで形成され、画像処理部8から出力される制御デー
タDCに応じて、対応する各信号処理回路に制御データ
を出力し、これによりこの制御データDCに従って全体
の動作を切り換える。すなわちシステム制御回路25
は、この制御データDCに従ってタイミングジェネレー
タ23の動作を切り換えてシャッター速度を切り換え制
御し、またオートフォーカス回路22の動作を切り換え
てこのテレビジョンカメラ部14の動作モードをオート
フォーカスモードに設定する。さらにシステム制御回路
25は、このオートフォーカスモードにおいて制御デー
タDCに従ってオートフォーカス回路22に制御データ
を出力し、フォーカスエリアを可変する。
The system control circuit 25 is formed by a microcomputer that controls the operation of the entire television camera section 14, and controls each corresponding signal processing circuit according to the control data DC output from the image processing section 8. Data is output, whereby the entire operation is switched according to this control data DC. That is, the system control circuit 25
Controls the shutter speed by switching the operation of the timing generator 23 according to the control data DC, and switches the operation of the autofocus circuit 22 to set the operation mode of the television camera section 14 to the autofocus mode. Further, in this autofocus mode, the system control circuit 25 outputs control data to the autofocus circuit 22 according to the control data DC to change the focus area.

【0047】さらにシステム制御回路25は、制御デー
タDCに従ってAGC回路27の動作を切り換えてゲン
イ切り換えし、また同様にしてホワイトバランス回路2
9の動作を切り換えてホワイトバランス調整する。さら
にシステム制御回路25は、制御データDCに従ってガ
ンマ補正回路30の動作を切り換え、これによりガンマ
特性、ニー特性を切り換える。またこの制御データDC
に従って画像合成回路35の動作を制御し、これにより
メニュー画面、調整画面を形成し、さらに表示する。
Further, the system control circuit 25 switches the operation of the AGC circuit 27 in accordance with the control data DC to switch the operation, and similarly, the white balance circuit 2
Switch the operation of 9 to adjust the white balance. Further, the system control circuit 25 switches the operation of the gamma correction circuit 30 according to the control data DC, and thereby switches the gamma characteristic and the knee characteristic. This control data DC
Then, the operation of the image synthesizing circuit 35 is controlled in accordance with the above, whereby a menu screen and an adjustment screen are formed and further displayed.

【0048】これらのシステム制御回路25の制御によ
り、テレビジョンカメラ部14では、画像処理部8の中
央処理ユニット13より制御データDCを出力して、調
整頻度の低い調整項目等について調整できるようになさ
れている。
Under the control of the system control circuit 25, the television camera section 14 outputs the control data DC from the central processing unit 13 of the image processing section 8 so that adjustment items and the like that are adjusted less frequently can be adjusted. Has been done.

【0049】図7は、画像処理部8における中央処理ユ
ニット13の処理手順を示すフローチャートである。中
央処理ユニット13は、テレビジョンカメラ部14の操
作パネルに配置した規定の操作子が操作されると、この
処理手順を実行する。すなわち中央処理ユニット13
は、ステップSP1からステップSP2に移り、ここで
スーパーインポーズによりビューファインダ6にメニュ
ー画面を表示する。
FIG. 7 is a flowchart showing the processing procedure of the central processing unit 13 in the image processing section 8. The central processing unit 13 executes this processing procedure when a prescribed operator arranged on the operation panel of the television camera unit 14 is operated. That is, the central processing unit 13
Moves from step SP1 to step SP2, where the menu screen is displayed on the viewfinder 6 by superimposing.

【0050】ここでこのメニュー画面は、調整モードの
メニューとキャリブレーションのメニューとを表示して
形成される。中央処理ユニット13は、このメニュー画
面を表示すると、ステップSP3に移り、トリガスイッ
チ5の操作を待ち受け、このトリガスイッチ5がシング
ルクリックされると、ステップSP4に移って調整モー
ドのメニューにより指定される制御データ出力処理を実
行する。ここでこの制御データ出力処理は、カメラマン
用カメラ7の撮像結果を画像処理して顔の向きを検出
し、この向きに対応する調整項目、調整内容を選択して
対応する制御データDCを必要に応じて出力する処理で
ある。この処理によりテレビジョンカメラ1では、調整
頻度の低い調整項目についても、操作棒3を把持したま
まで、簡易かつ確実に調整できるようになされている。
Here, this menu screen is formed by displaying an adjustment mode menu and a calibration menu. When the central processing unit 13 displays this menu screen, it moves to step SP3 and waits for the operation of the trigger switch 5. When this trigger switch 5 is single-clicked, it moves to step SP4 and is designated by the adjustment mode menu. The control data output process is executed. Here, in this control data output processing, the image pickup result of the cameraman camera 7 is subjected to image processing to detect the orientation of the face, and adjustment items and adjustment contents corresponding to this orientation are selected, and corresponding control data DC is required. This is a process for outputting the corresponding data. By this processing, the television camera 1 can easily and surely adjust the adjustment item having a low adjustment frequency while holding the operation rod 3.

【0051】中央処理ユニット13は、この制御データ
出力処理を実行すると、ステップSP5に移ってトリガ
スイッチ5の操作を待ち受け、トリガスイッチ5がシン
グルクリックされるとステップSP4に戻り、再び制御
データ出力処理を実行する。これにより中央処理ユニッ
ト13は、必要に応じて制御データ出力処理を繰り返し
て順次メニューを選択して、最終的な調整事項、調整内
容を選択し、この選択した調整事項、調整内容に従って
制御データDCを出力する。
When the central processing unit 13 executes this control data output processing, it moves to step SP5 and waits for the operation of the trigger switch 5, and when the trigger switch 5 is single-clicked, it returns to step SP4 and again the control data output processing. To execute. As a result, the central processing unit 13 repeats the control data output process as necessary to sequentially select the menu, select final adjustment items and adjustment contents, and control data DC according to the selected adjustment items and adjustment contents. Is output.

【0052】これに対してこのようにして制御データD
Cを出力して調整が完了すると、中央処理ユニット13
は、ステップSP5においてトリガスイッチ5がダブル
クリックされることにより、ステップSP3に戻る。
On the other hand, in this way, the control data D
When C is output and the adjustment is completed, the central processing unit 13
Returns to step SP3 by double-clicking the trigger switch 5 in step SP5.

【0053】これに対してステップSP3においてトリ
ガスイッチ5がダブルクリックされると、中央処理ユニ
ット13は、ステップSP6に移り、キャリブレーショ
ンのメニューに対応するキャリブレーション処理を実行
した後、ステップSP4に移る。ここでこのキャリブレ
ーション処理は、カメラマンにより異なる画像処理結果
と顔の向きとの相関関係を検出してメモリ15に格納す
る処理でなり、テレビジョンカメラ1では、この処理に
よりカメラマンが交替した場合でも顔の向きを基準にし
て種々の調整項目を簡易かつ確実に調整できるようにな
されている。
On the other hand, when the trigger switch 5 is double-clicked in step SP3, the central processing unit 13 moves to step SP6, executes the calibration process corresponding to the calibration menu, and then moves to step SP4. . Here, this calibration process is a process of detecting the correlation between the image processing result and the face direction that differ depending on the cameraman and storing it in the memory 15. In the television camera 1, even when the cameraman is replaced by this process. Various adjustment items can be adjusted easily and surely based on the face orientation.

【0054】図1は、制御データ出力処理を示すフロー
チャートである。中央処理ユニット13は、上述したよ
うにメニュー画面を表示した状態でトリガスイッチ5が
シングルクリックされると、またこの制御データ出力処
理を実行した後、トリガスイッチ5がシングルクリック
されると、この制御データ出力処理を実行し、ステップ
SP10からステップSP11に移る。
FIG. 1 is a flow chart showing the control data output process. When the trigger switch 5 is single-clicked in the state where the menu screen is displayed as described above, or when the trigger switch 5 is single-clicked after executing this control data output processing, the central processing unit 13 performs this control. The data output process is executed, and the process moves from step SP10 to step SP11.

【0055】このステップSP11において、中央処理
ユニット13は、ビューファインダ6に調整項目、調整
内容を表示する。ここでこれら調整項目等は、図3に数
字1〜5で示すように、表示画面の水平方向に、それぞ
れ選択可能な各調整項目、調整内容を5個、順次表示す
ることにより実行される。またこの表示は、階層構造に
より形成され、カメラマンの選択操作に応動してこの制
御データ出力処理を繰り返して順次画面を切り換えるこ
とにより、制御データDCにより選択可能な調整項目、
各調整項目に対応する調整内容を全て表示できるように
形成されている。
In step SP11, the central processing unit 13 displays the adjustment items and the adjustment contents on the viewfinder 6. Here, these adjustment items and the like are executed by sequentially displaying five selectable adjustment items and five adjustment contents in the horizontal direction of the display screen, as indicated by numerals 1 to 5 in FIG. Further, this display is formed in a hierarchical structure, and in response to the selection operation of the cameraman, this control data output process is repeated to sequentially switch the screens, and the adjustment items selectable by the control data DC,
It is formed so that all the adjustment contents corresponding to each adjustment item can be displayed.

【0056】中央処理ユニット13は、続いてステップ
SP12に移り、ここでトリガスイッチ5の操作を待ち
受け、トリガスイッチ5がクリックされると、ステップ
SP13に移って、アナログディジタル変換回路11よ
り出力されるデイジタル輝度信号をフレームメモリ12
に2フィールド分取り込む。続いて中央処理ユニット1
3は、ステップSP14に移り、この取り込んだデイジ
タル輝度信号を画像処理し、撮像結果の画素を基準にし
てカメラマン4の鼻の位置を検出する。
The central processing unit 13 then proceeds to step SP12, where it waits for the operation of the trigger switch 5, and when the trigger switch 5 is clicked, it proceeds to step SP13 to output from the analog-digital conversion circuit 11. Digital luminance signal is stored in frame memory 12
2 fields are taken into. Then the central processing unit 1
In step 3, the process proceeds to step SP14, where the captured digital luminance signal is subjected to image processing, and the position of the nose of the cameraman 4 is detected based on the pixel of the image pickup result.

【0057】この処理において、中央処理ユニット13
は、図8において矢印a及びbで示すように、上下両方
向より、フレームメモリ12に格納した撮像結果を荒い
ピッチでスキャンし、この上下両方向より高輝度レベル
の領域を検出する。続いて中央処理ユニット13は、図
9において矢印c及びdで示すように、左右両方向よ
り、フレームメモリ12に格納した撮像結果を荒いピッ
チでスキャンし、この左右両方向より高輝度レベルの領
域を検出する。
In this processing, the central processing unit 13
8 scans the imaged result stored in the frame memory 12 at a rough pitch in both upper and lower directions as indicated by arrows a and b in FIG. 8, and detects a region having a higher brightness level in both upper and lower directions. Subsequently, as shown by arrows c and d in FIG. 9, the central processing unit 13 scans the imaging result stored in the frame memory 12 from both left and right directions at a rough pitch, and detects a region having a higher brightness level than both left and right directions. To do.

【0058】すなわちカメラマン4がビューファインダ
を覗いた状態では、鼻の部分は、顔の他の部分より突出
していることにより先端が高輝度に保持され、また口、
目等に比してカメラマンで形状の個人差が少ない特徴が
ある。これによりこの実施の形態では、この鼻の位置を
基準にして顔の向きを検出することにより、確実に顔の
向きを検出できるようになされている。さらにこのとき
この実施の形態では、上下両方向、左右両方向より、荒
いピッチで高輝度レベルの領域を検出することにより、
短時間で確実に大まかに鼻の位置を検出できるようにな
されている。
That is, when the cameraman 4 is looking through the viewfinder, the tip of the nose is projected higher than the rest of the face so that the tip is kept at high brightness and the mouth,
Compared to the eyes, there is a feature that there are few individual differences in shape among photographers. As a result, in this embodiment, the face direction is detected with reference to the position of the nose, so that the face direction can be reliably detected. Further, at this time, in this embodiment, by detecting a high-brightness level region at a rough pitch from both the up and down directions and the left and right directions,
It is designed so that the position of the nose can be roughly detected in a short time.

【0059】中央処理ユニット13は、このようにして
高輝度レベルの領域が検出されると、この領域につい
て、同様に上下両方向、左右両方向より、フレームメモ
リ12に格納した撮像結果を細かいピッチでスキャン
し、これにより高輝度レベルの部分を詳細に検出する。
かくしてこの実施の形態では、荒くスキャンして高輝度
レベルの領域を大まかに検出した後、この検出した領域
を細かくスキャンして高輝度レベルの領域を詳細に検出
することにより、短時間で確実に鼻の位置を検出できる
ようになされている。
When the high-luminance level area is detected in this way, the central processing unit 13 similarly scans the imaging result stored in the frame memory 12 at a fine pitch in both the up and down directions and the left and right directions. Then, the high brightness level portion is detected in detail.
Thus, in this embodiment, after roughly scanning to detect a high-brightness level region and then finely scanning the detected region to detect a high-brightness level region in detail, it is possible to reliably and quickly. The position of the nose can be detected.

【0060】この荒いスキャン及び細かなスキャンにお
いて、中央処理ユニット13は、図10に示すように、
メモリ15に格納した規定の輝度レベルでなるしきい値
KLを基準にして、順次入力されるディジタル輝度信号
の信号レベルを判断することにより、高輝度レベルの領
域を検出する。中央処理ユニット13は、メモリ15に
格納した基準形状を参考にして、この高輝度レベルの領
域の形状と大きさより鼻か否か判断し、また高輝度レベ
ルの領域から輝度レベルのピークを検出して鼻の位置に
設定する。
In the rough scan and the fine scan, the central processing unit 13, as shown in FIG.
A region of high brightness level is detected by determining the signal level of the sequentially input digital brightness signals with reference to the threshold value KL having the specified brightness level stored in the memory 15. The central processing unit 13 refers to the reference shape stored in the memory 15 to determine whether or not it is a nose based on the shape and size of this high-brightness level area, and also detects the peak of the brightness level from the high-brightness level area. The nose position.

【0061】このようにして鼻の位置を検出する際に、
中央処理ユニット13は、フレームメモリ12に取り込
んだ2フィールドのディジタル輝度信号において、対応
する画像データ間で減算処理を実行し、この減算結果で
なる撮像結果について上述の鼻検出の処理を実行する。
これにより中央処理ユニット13は、ビューファインダ
6の表示画面により照明されてなるカメラマン用カメラ
7の撮像結果と、この照明に加えて赤外線により照明さ
れてなるカメラマン用カメラ7の撮像結果とから、赤外
線のみにより照明されてなるカメラマン用カメラ7の撮
像結果を得、この撮像結果から鼻位置を検出する。
Thus, when detecting the position of the nose,
The central processing unit 13 executes subtraction processing between corresponding image data in the digital luminance signal of two fields loaded in the frame memory 12, and executes the above-mentioned nose detection processing on the imaging result which is the subtraction result.
As a result, the central processing unit 13 uses the infrared light from the imaging result of the cameraman camera 7 illuminated by the display screen of the viewfinder 6 and the imaging result of the cameraman camera 7 illuminated by infrared light in addition to this illumination. An image pickup result of the cameraman camera 7 illuminated by only the image pickup result is obtained, and the nose position is detected from the image pickup result.

【0062】すなわちこの種のテレビジョンカメラ1が
使用される撮影現場においては、スタジオ内の暗い場所
で使用される場合もあり、この場合赤外線のみにより照
明されてなるカメラマンの撮像結果を画像処理して鼻の
位置を検出すれば、カメラ操作を妨げないで、簡易かつ
確実に鼻の位置を検出することができる。また撮影現場
においては、他の照明機器によりカメラマンの顔が照明
される場合もあり、この場合も赤外線のみにより照明さ
れてなるカメラマンの撮像結果を画像処理して鼻の位置
を検出することにより、この種の照明によるノイズの影
響を有効に回避して確実に鼻の位置を検出することがで
きる。
That is, at a shooting site where this type of television camera 1 is used, it may be used in a dark place in a studio. In this case, the image pickup result of a cameraman illuminated only by infrared rays is subjected to image processing. If the position of the nose is detected by the camera, the position of the nose can be detected easily and reliably without hindering the camera operation. Also, at the shooting site, the face of the cameraman may be illuminated by other lighting equipment, and in this case as well, by detecting the position of the nose by image processing the imaged result of the cameraman illuminated only by infrared rays, The position of the nose can be reliably detected by effectively avoiding the influence of noise due to this type of illumination.

【0063】このようにして鼻の位置を検出すると、中
央処理ユニット13は、ステップSP15に移り、顔の
向きを検出する。ここで中央処理ユニット13は、始め
に、ステップSP14において検出した鼻の位置から左
右両側に(図10)、撮像結果の輝度レベルの変化を検
出し、この輝度レベルが大きく変化する位置を検出して
顔の輪郭を検出する。続いて中央処理ユニット13は、
鼻の位置から左右両側の輪郭までの距離を検出して左右
両側の2つの距離データを得、この2つの距離データの
1つにより他方の距離データを割り算する。これにより
中央処理ユニット13は、鼻の位置から左右両側の輪郭
までの距離を正規化し、顔の大きさによる誤検出を有効
に回避する。続いて中央処理ユニット13は、メモリ1
5に格納した相関データにこの検出結果を割り当て、こ
れにより鼻の位置を基準にして顔の輪郭より顔の向きを
検出する。
When the position of the nose is detected in this way, the central processing unit 13 proceeds to step SP15 and detects the orientation of the face. Here, the central processing unit 13 first detects a change in the brightness level of the imaging result from the position of the nose detected in step SP14 to the left and right sides (FIG. 10), and detects a position at which the brightness level greatly changes. Detects the contour of the face. Subsequently, the central processing unit 13
The distance from the position of the nose to the contours on the left and right sides is detected to obtain two distance data on the left and right sides, and the other distance data is divided by one of the two distance data. As a result, the central processing unit 13 normalizes the distance from the position of the nose to the contours on the left and right sides, and effectively avoids erroneous detection due to the size of the face. Subsequently, the central processing unit 13 operates the memory 1
This detection result is assigned to the correlation data stored in 5, and the orientation of the face is detected from the contour of the face based on the position of the nose.

【0064】すなわち図11に示すように、種々の検討
した結果によれば、正面から見た顔の左右方向の向きを
角度で表し、この向きと、鼻の位置を基準にした顔の輪
郭までの距離(この場合正規化して表す距離でなる)と
の間には、直線により表される相関関係が存在すること
がわかった。これにより鼻の位置を基準にして顔の輪郭
より顔の向きを検出することができ、さらにはこの検出
結果よりカメラマン4がビューファインダ6の表示画面
において、何れの箇所を目視しているかを検出できるこ
とがわかった。
That is, as shown in FIG. 11, according to various examination results, the left-right direction of the face viewed from the front is represented by an angle, and even this direction and the contour of the face based on the position of the nose are used as a reference. It was found that there is a correlation represented by a straight line between the distance and the distance (in this case, the normalized distance). As a result, the orientation of the face can be detected from the contour of the face based on the position of the nose, and further, from the detection result, it is possible to detect which part of the display screen of the viewfinder 6 the cameraman 4 is viewing. I knew I could do it.

【0065】かくするにつきメモリ15は、鼻から顔の
輪郭までの距離と顔の向きとの関係を示す相関直線のデ
ータとして、表示画面左端を見た際の鼻から顔の輪郭ま
での距離データD1、表示画面右端を見た際の鼻から顔
の輪郭までの距離データD2を、画像処理結果と顔の向
きとの相関データとしてカメラマン各人について保持
し、中央処理ユニット13は、補間処理の手法を適用し
て、検出した距離をこの相関直線のデータに割り当て、
これにより顔の向きを検出する。
In this way, the memory 15 stores the distance data from the nose to the contour of the face when the left end of the display screen is viewed as the data of the correlation line showing the relationship between the distance from the nose to the contour of the face and the direction of the face. D1, distance data D2 from the nose to the contour of the face when looking at the right end of the display screen is held for each cameraman as correlation data between the image processing result and the face direction, and the central processing unit 13 performs interpolation processing. Apply the method to assign the detected distance to the data of this correlation line,
Thereby, the orientation of the face is detected.

【0066】中央処理ユニット13は、このようにして
顔の向きを検出すると、ステップSP16に移り、ビュ
ーファインダ6の表示画面に表示された調整項目、調整
内容について、この顔の向きに対応するメニューを選択
し、このメニューの表示を点滅表示に切り換える。続い
て中央処理ユニット13は、ステップSP17に移り、
この点滅表示のメニューが直接調整の内容を示すメニュ
ーの場合、すなわちオートフォーカスモードのオンオフ
メニュー、シャッター速度を選択するメニュー、ホワイ
トバランス調整のオンオフメニュー、ゲンイ切り換え、
ガンマ特性、ニー特性を選択するメニュー、さらにはフ
ォーカスエリアを選択するメニュー、ビューファインダ
6の輝度レベルを選定するメニュー等の場合、カメラマ
ン4がトリガスイッチ5をクリックすると、対応する制
御データDCをテレビジョンカメラ部14に出力した
後、ステップSP18に移り、この処理手順を終了す
る。
When the face processing is detected in this way, the central processing unit 13 moves to step SP16 and, for the adjustment item and the adjustment content displayed on the display screen of the viewfinder 6, a menu corresponding to the face direction. Select to switch the display of this menu to blinking. Subsequently, the central processing unit 13 moves to step SP17,
If this blinking menu is a menu that indicates the contents of direct adjustment, that is, the auto focus mode on / off menu, shutter speed selection menu, white balance adjustment on / off menu, switching
In the case of a menu for selecting gamma characteristics, knee characteristics, a menu for selecting a focus area, a menu for selecting the brightness level of the viewfinder 6, etc., when the cameraman 4 clicks the trigger switch 5, the corresponding control data DC is displayed on the TV. After the output to the John camera unit 14, the process proceeds to step SP18, and this processing procedure ends.

【0067】これにより中央処理ユニット13は、カメ
ラマン4が顔の向きを変えて選択した調整事項、調整内
容に対応して制御データDCを出力する。なお中央処理
ユニット13は、例えば電子シャッターをオンオフする
メニュー、階層構造に規定された下層の調整項目、調整
内容を選択するメニューの場合、この制御データ出力処
理を終了した後、図7について上述したステップSP5
において、トリガスイッチ5がシングルクリックされる
ことにより、続いて制御データ出力処理を繰り返し、こ
こで続く下層のメニューを表示する。これにより中央処
理ユニット13は、この制御データ出力処理を繰り返し
て順次メニューを選択し、最終的な調整内容について、
ステップSP17において制御データDCを出力するよ
うになされている。
As a result, the central processing unit 13 outputs the control data DC corresponding to the adjustment item and the adjustment content selected by the cameraman 4 by changing the face direction. Note that, for example, in the case of a menu for turning on / off the electronic shutter, a lower layer adjustment item defined in a hierarchical structure, and a menu for selecting the adjustment content, the central processing unit 13 terminates the control data output processing, and then the above-described FIG. Step SP5
When the trigger switch 5 is single-clicked in, the control data output process is repeated, and the menu of the lower layer that follows is displayed. As a result, the central processing unit 13 repeats this control data output processing to sequentially select the menu, and regarding the final adjustment content,
The control data DC is output in step SP17.

【0068】これに対して図12は、キャリブレーショ
ン処理を示すフローチャートである。中央処理ユニット
13は、上述したようにメニュー画面を表示した状態で
トリガスイッチ5がダブルクリックされると、このキャ
リブレーション処理を実行し、ステップSP20からス
テップSP21に移る。このステップSP21におい
て、中央処理ユニット13は、ビューファインダ6の表
示画面左端(図3において数字1で示す位置でなる)
に、規定のマーカーを表示する。
On the other hand, FIG. 12 is a flowchart showing the calibration process. When the trigger switch 5 is double-clicked in the state where the menu screen is displayed as described above, the central processing unit 13 executes this calibration processing, and moves from step SP20 to step SP21. In this step SP21, the central processing unit 13 has the left end of the display screen of the viewfinder 6 (at the position indicated by numeral 1 in FIG. 3).
The prescribed marker is displayed on.

【0069】中央処理ユニット13は、続いてステップ
SP22に移り、ここでトリガスイッチ5の操作を待ち
受け、トリガスイッチ5がクリックされると、ステップ
SP23に移って、アナログディジタル変換回路11よ
り出力されるデイジタル輝度信号をフレームメモリ12
に2フィールド分取り込む。
The central processing unit 13 then proceeds to step SP22, where it waits for the operation of the trigger switch 5, and when the trigger switch 5 is clicked, it proceeds to step SP23 to output from the analog-digital conversion circuit 11. Digital luminance signal is stored in frame memory 12
2 fields are taken into.

【0070】続いて中央処理ユニット13は、ステップ
SP24に移り、この取り込んだデイジタル輝度信号を
画像処理し、顔の向きを検出する。ここでこの顔の向き
検出処理は、上述のステップSP14からステップSP
15までの処理と同一の処理で形成され、中央処理ユニ
ット13は、この処理によりカメラマン4が表示画面左
端のメニューを選択した際の、鼻から顔の輪郭までの距
離を検出する。
Subsequently, the central processing unit 13 proceeds to step SP24 to image-process the digital luminance signal thus taken in to detect the face orientation. Here, this face orientation detection processing is performed from the above-mentioned steps SP14 to SP.
The central processing unit 13 detects the distance from the nose to the contour of the face when the cameraman 4 selects the menu at the left end of the display screen by this processing.

【0071】続いて中央処理ユニット13は、ビューフ
ァインダ6の表示画面を切り換え、この表示画面右端
(図3において数字5で示す位置でなる)に、規定のマ
ーカーを表示する。
Subsequently, the central processing unit 13 switches the display screen of the viewfinder 6 and displays a prescribed marker at the right end of this display screen (at the position indicated by numeral 5 in FIG. 3).

【0072】中央処理ユニット13は、続いてステップ
SP26に移り、ここでトリガスイッチ5の操作を待ち
受け、トリガスイッチ5がクリックされると、アナログ
ディジタル変換回路11より出力されるデイジタル輝度
信号をフレームメモリ12に2フィールド分取り込む。
The central processing unit 13 then proceeds to step SP26, where it waits for the operation of the trigger switch 5, and when the trigger switch 5 is clicked, the digital luminance signal output from the analog-digital conversion circuit 11 is sent to the frame memory. 2 fields are taken into 12.

【0073】続いて中央処理ユニット13は、ステップ
SP27に移り、この取り込んだデイジタル輝度信号を
画像処理し、顔の向きを検出する。ここでこの顔の向き
検出処理は、上述のステップSP14からステップSP
15までの処理と同一の処理で形成され、中央処理ユニ
ット13は、この処理によりカメラマン4が表示画面右
端のメニューを選択した際の、鼻から顔の輪郭までの距
離を検出する。
Subsequently, the central processing unit 13 proceeds to step SP27 to image-process the digital luminance signal thus taken in to detect the face orientation. Here, this face orientation detection processing is performed from the above-mentioned steps SP14 to SP.
It is formed by the same processing as the processing up to 15, and the central processing unit 13 detects the distance from the nose to the contour of the face when the cameraman 4 selects the menu at the right end of the display screen by this processing.

【0074】これらの処理により中央処理ユニット13
は、カメラマン4がそれぞれ表示画面左端、右端のメニ
ューを選択した際の、鼻から顔の輪郭までの距離を検出
し、この検出結果によりメモリ15の相関データを更新
する。ここでこの相関データの更新処理は、それまでメ
モリ15に格納されている相関データを、上述の処理に
より検出した鼻から顔の輪郭までの距離を基準にして補
正することにより、繰り返しキャリブレーション処理を
実行した場合に、各キャリブレーション結果を重ね合わ
せるようにして実行され、これによりいわゆる学習の手
法を適用して精度の高い個人情報を生成するようになさ
れている。
By these processes, the central processing unit 13
Detects the distance from the nose to the contour of the face when the cameraman 4 selects the menu at the left end and the right end of the display screen, and updates the correlation data in the memory 15 with the detection result. Here, this correlation data update processing is repeated calibration processing by correcting the correlation data stored in the memory 15 up to that point on the basis of the distance from the nose to the contour of the face detected by the above-described processing. Is executed by superimposing the calibration results on each other, and a so-called learning method is applied to generate highly accurate personal information.

【0075】具体的に、図11について上述した直線に
より規定される相関関係は、一般式により、次式
Specifically, the correlation defined by the straight line described above with reference to FIG.

【数1】 の関係で表される。ここでθは、顔の向きを、xは正規
化して表される鼻から顔の輪郭までの距離、a及びbは
定数を表す。
[Equation 1] It is represented by the relationship. Here, θ represents the orientation of the face, x represents the distance from the nose to the contour of the face which is normalized, and a and b represent constants.

【0076】中央処理ユニット13は、メモリ15に格
納した距離データD1及びD2と、検出した鼻から顔の
輪郭までの距離とを加算平均してメモリ15の内容を更
新することにより、次式で示すように、この(1)式で
表される直線相関を補正する。
The central processing unit 13 averages the distance data D1 and D2 stored in the memory 15 and the detected distance from the nose to the contour of the face to update the contents of the memory 15 by the following equation. As shown, the linear correlation represented by this equation (1) is corrected.

【数2】 ここでθOLD及びxOLDは、メモリ15に格納され
た距離データD1、D2に対応するに顔の向き及び鼻か
ら顔の輪郭までの距離を、θNEW及びxNEWは、こ
のキャリブレーション処理において検出した距離データ
D1、D2に対応する顔の向き及び鼻から顔の輪郭まで
の距離を示す。これによりテレビジョンカメラ1では、
確実に所望の調整処理を実行できるようになされてい
る。
(Equation 2) Here, θOLD and xOLD are the direction data of the face and the distance from the nose to the contour of the face corresponding to the distance data D1 and D2 stored in the memory 15, and θNEW and xNEW are the distance data detected in this calibration process. The direction of the face corresponding to D1 and D2 and the distance from the nose to the contour of the face are shown. As a result, in the television camera 1,
The desired adjustment processing can be surely executed.

【0077】続いて中央処理ユニット13は、ステップ
SP28に移り、フレームメモリ12に格納したディジ
タル輝度信号について、しきい値KLを順次変化させて
上述のステップSP14の処理を実行し、これにより予
めメモリ15に格納した基準の鼻形状に対して、最も形
状の似通った鼻形状を検出することができるしきい値K
Lを検出する。中央処理ユニット13は、この検出した
しきい値KLによりメモリ15に格納したしきい値KL
を更新する。
Subsequently, the central processing unit 13 shifts to step SP28 to sequentially change the threshold value KL with respect to the digital luminance signal stored in the frame memory 12 and execute the processing of step SP14 described above. A threshold value K capable of detecting a nose shape most similar to the reference nose shape stored in 15.
L is detected. The central processing unit 13 uses the detected threshold value KL to store the threshold value KL stored in the memory 15.
To update.

【0078】中央処理ユニット13は、これらの処理を
実行すると、ステップSP29において、ビューファイ
ンダ6の表示画面にキャリブレーション処理を完了した
旨のメッセージを規定時間表示した後、ステップSP3
0に移り、この処理手順を完了する。これによりテレビ
ジョンカメラ1では、カメラマンが交替した場合等にあ
っても、確実にカメラマンの意図する調整処理を実行で
きるようになされている。
After executing these processes, the central processing unit 13 displays a message to the effect that the calibration process has been completed on the display screen of the viewfinder 6 for a specified time in step SP29, and then executes step SP3.
Moving to 0, this processing procedure is completed. As a result, the television camera 1 can surely execute the adjustment process intended by the cameraman even when the cameraman is replaced.

【0079】以上の構成において、テレビジョンカメラ
1(図2)は、ビューファインダ6に表示された撮像結
果をモニタしながら、操作棒3を把持して向きを可変す
ることにより、被写体の動きを追跡してこの被写体の撮
像結果を出力する。さらにテレビジョンカメラ1は、こ
の操作棒3に配置された、操作頻度の高いズーム、フォ
ーカス、アイリスの操作子が操作されると、それぞれレ
ンズ20の倍率、フォーカス、絞り(図6)を可変し、
これにより被写体の変化に追従して撮像結果を出力す
る。また同様に操作棒3に配置された、操作頻度の高い
リターン画像の切り換えスイッチが操作されると、撮像
結果でなるビデオ信号SV4に変えて、カメラコントロ
ールユニットから出力されるリターン画像のビデオ信号
SV3をビューファインダ6に表示し、これによりオン
エア画像を表示する。
In the above-described structure, the television camera 1 (FIG. 2) monitors the image pickup result displayed on the viewfinder 6 and grasps the operating rod 3 to change the direction, thereby changing the movement of the subject. It traces and outputs the imaging result of this subject. Further, the television camera 1 changes the magnification, focus, and diaphragm (FIG. 6) of the lens 20 when the zoom, focus, and iris operators arranged on the operation rod 3 that are frequently operated are operated. ,
As a result, the imaging result is output following the change of the subject. Similarly, when the return image changeover switch frequently arranged on the operation rod 3 is operated, the video signal SV4 which is the image pickup result is changed to the video signal SV3 of the return image output from the camera control unit. Is displayed on the viewfinder 6 to display an on-air image.

【0080】これに対してカメラマン4が規定の操作子
を操作すると、このビューファインダ6にメニュー画面
を表示し、この状態でカメラマン4が操作棒3に配置さ
れたトリガスイッチ5をシングルクリックすると、中央
処理ユニット13において制御データ出力処理を実行す
る。
On the other hand, when the cameraman 4 operates the prescribed operator, a menu screen is displayed on the viewfinder 6, and in this state, when the cameraman 4 single-clicks the trigger switch 5 arranged on the operation rod 3, The central processing unit 13 executes control data output processing.

【0081】この処理において、テレビジョンカメラ1
は、ビューファインダ6の表示画面に規定のメニューを
表示した状態で、ビューファインダ6の表示画面等によ
り照明されたカメラマンの顔と、これらの照明に加えて
赤外線照明装置9からの赤外線により照明されたカメラ
マンの顔とを、1フィールド周期で交互にカメラマン用
カメラ7で撮像し、この撮像結果を減算することにより
赤外線のみにより照明されたカメラマン4の顔につい
て、撮像結果を検出する。これによりテレビジョンカメ
ラ1では、ノイズの影響を有効に回避し、またカメラ操
作の妨害を有効に回避して制御データ出力処理を実行す
る。
In this process, the television camera 1
Is a face of the cameraman illuminated by the display screen of the viewfinder 6 and the like, and in addition to these illuminations, infrared light from the infrared illumination device 9 is illuminated while the prescribed menu is displayed on the display screen of the viewfinder 6. The cameraman's face is alternately imaged in one field cycle by the cameraman camera 7, and the imaging result is subtracted to detect the imaging result of the face of the cameraman 4 illuminated by only infrared rays. As a result, the television camera 1 effectively avoids the influence of noise and effectively avoids the disturbance of the camera operation, and executes the control data output process.

【0082】さらにテレビジョンカメラ1は、メモリ1
5に格納したしきい値KLを基準にして(図10)、こ
の赤外線のみにより照明された撮像結果を上下両側、左
右両側より大まかにスキャンして高輝度レベルの部分を
検出した後、この検出した部分を同様に細かくスキャン
して、高輝度レベルの領域を検出し、この領域の形状よ
り鼻の位置を検出する。これによりテレビジョンカメラ
1は、簡易かつ短時間で鼻の位置を検出する。
Further, the television camera 1 has a memory 1
After referring to the threshold value KL stored in FIG. 5 (FIG. 10), the imaging result illuminated by only the infrared rays is roughly scanned from the upper and lower sides and the left and right sides to detect a high brightness level portion, and then this detection is performed. Similarly, the above portion is finely scanned to detect a high brightness level region, and the position of the nose is detected from the shape of this region. As a result, the television camera 1 detects the position of the nose easily and in a short time.

【0083】さらにテレビジョンカメラ1は、この検出
した鼻の位置から、左右両側に輝度レベルが急激に変化
する位置を検出し、これにより顔両側の輪郭を検出す
る。さらにテレビジョンカメラ1は、この鼻から輪郭ま
での距離を正規化してメモリ15に登録された相関デー
タ(図11)を参照する。これによりテレビジョンカメ
ラ1は、カメラマン4の顔の向きを検出し、この顔の向
きに対応するメニューを検出する。
Further, the television camera 1 detects the position where the brightness level changes abruptly on the left and right sides from the detected position of the nose, thereby detecting the contours on both sides of the face. Further, the television camera 1 normalizes the distance from the nose to the contour and refers to the correlation data (FIG. 11) registered in the memory 15. Thereby, the television camera 1 detects the orientation of the face of the cameraman 4, and detects the menu corresponding to this orientation of the face.

【0084】さらにテレビジョンカメラ1は、このメニ
ューに対応する制御データDCをテレビジョンカメラ部
14に出力し、これによりこのメニューに対応する各調
整内容を調整する。すなわちテレビジョンカメラ1は、
タイミングジェネレータ23の動作を切り換えてシャッ
ター速度を可変し、オートフォーカス回路22の動作を
切り換えてテレビジョンカメラ部14の動作モードをオ
ートフォーカスモードに設定する。さらにこのオートフ
ォーカスモードにおいて、フォーカスエリアをカメラマ
ンの顔の向きに応じて可変する。
Further, the television camera 1 outputs the control data DC corresponding to this menu to the television camera section 14, thereby adjusting each adjustment content corresponding to this menu. That is, the television camera 1
The operation of the timing generator 23 is switched to change the shutter speed, and the operation of the autofocus circuit 22 is switched to set the operation mode of the television camera unit 14 to the autofocus mode. Further, in this autofocus mode, the focus area is changed according to the orientation of the cameraman's face.

【0085】また同様に、AGC回路27、ガンマ補正
回路30の動作を切り換えてゲンイ、ガンマ特性、ニー
特性を切り換え、ホワイトバランス回路29の動作を切
り換えてオートホワイトバランス調整する。さらにビュ
ーファインダ6に関して、表示画面の輝度レベル、輪郭
補正を調整する。
Similarly, the operations of the AGC circuit 27 and the gamma correction circuit 30 are switched to switch between the genie, gamma characteristic, and knee characteristics, and the operation of the white balance circuit 29 is switched to perform automatic white balance adjustment. Further, regarding the viewfinder 6, the brightness level of the display screen and the contour correction are adjusted.

【0086】これによりテレビジョンカメラ1では、操
作棒3を把持したままの状態で、顔の向きを変えてトリ
ガスイッチ5をクリックするだけの簡易な操作で、調整
頻度の低い調整項目についてもいわゆるハンドフリーの
状態で簡易かつ確実に調整することができる。
As a result, in the television camera 1, with a simple operation of changing the face direction and clicking the trigger switch 5 while the operation rod 3 is being held, so-called adjustment items with low adjustment frequency are called. It can be adjusted easily and reliably in a hands-free state.

【0087】これに対してテレビジョンカメラ1は、カ
メラマン4が規定の操作子を操作した後、操作棒3に配
置されたトリガスイッチ5をダブルクリックすると、中
央処理ユニット13においてキャリブレーション処理を
実行する。
On the other hand, in the television camera 1, when the cameraman 4 operates the prescribed operator and then double-clicks the trigger switch 5 arranged on the operation rod 3, the central processing unit 13 executes the calibration processing. To do.

【0088】このキャリブレーション処理において、テ
レビジョンカメラ1は、ビューファインダ6の表示画
面、左右両端に、順次マーカーを表示し、このマーカー
を目視するカメラマン4の顔をカメラマン用カメラ7に
より撮像する。さらにこの撮像結果から、赤外線のみに
より照明された撮像結果を生成し、この撮像結果より鼻
の位置を検出した後、この鼻の位置から顔両側の輪郭ま
での距離を検出する。これによりテレビジョンカメラ1
は、ビューファインダ6の表示画面、左右両端に表示し
たマーカーを目視した際の、鼻から顔両側の輪郭までの
距離を検出し、この検出結果によりメモリ15に格納し
たカメラマン4各人の相関データを更新する。これによ
りテレビジョンカメラ1では、カメラマンの選択したメ
ニューを確実に検出できるようになされている。
In the calibration process, the television camera 1 sequentially displays markers on the left and right ends of the display screen of the viewfinder 6, and the cameraman camera 7 images the face of the cameraman 4 who sees the markers. Furthermore, an imaging result illuminated by only infrared rays is generated from the imaging result, and after detecting the position of the nose from the imaging result, the distances from the position of the nose to the contours on both sides of the face are detected. This allows the television camera 1
Is the distance from the nose to the contours on both sides of the face when the markers displayed at the left and right ends of the view screen of the viewfinder 6 are visually detected, and the correlation data of each cameraman 4 stored in the memory 15 based on the detection result. To update. This allows the television camera 1 to reliably detect the menu selected by the cameraman.

【0089】さらにこのときテレビジョンカメラ1は、
いわゆる学習の手法を適用して相関データを更新し、こ
れによりカメラマンの選択したメニューを確実に検出で
きるようになされている。
Further, at this time, the television camera 1
A so-called learning method is applied to update the correlation data so that the menu selected by the cameraman can be reliably detected.

【0090】以上の構成によれば、ビューファインダ6
に種々のメニューを表示した状態で、カメラマン用カメ
ラ7によりカメラマンの顔をほぼ正面から撮像し、その
撮像結果を画像処理して顔の向きを検出し、この顔の向
きに対応するメニューに関してテレビジョンカメラ部1
4、ビューファインダ6の動作を切り換え、また調整し
たことにより、いわゆるハンドフリーの状態で簡易かつ
確実に調整することができる。これによりカメラの滑ら
かな動き、バランスを乱すことなく、調整頻度の低い調
整事項についても、簡易かつ確実に調整することができ
る。
According to the above configuration, the viewfinder 6
With various menus displayed on the screen, the cameraman's camera 7 images the face of the cameraman from almost the front, and the image processing result is subjected to image processing to detect the direction of the face. John camera section 1
4. By switching and adjusting the operation of the viewfinder 6, it is possible to easily and surely adjust in a so-called hands-free state. As a result, it is possible to easily and surely adjust even adjustment items that are adjusted less frequently without disturbing the smooth movement and balance of the camera.

【0091】さらにこのとき鼻の位置を検出し、この鼻
から顔の左右輪郭までの距離を検出した後、メモリ15
に格納したカメラマン各人の相関データに従って顔の向
きを検出したことにより、カメラマンが交替したような
場合でも、簡易かつ確実に、種々の調整項目を調整する
ことができる。
Further, at this time, the position of the nose is detected, and the distance from this nose to the left and right contours of the face is detected.
By detecting the orientation of the face according to the correlation data of each cameraman stored in, various adjustment items can be adjusted easily and reliably even when the cameraman is replaced.

【0092】さらにこの相関データについては、キャリ
ブレーション処理により、ビューファインダ6に表示し
たマーカーに対応する、鼻から顔の左右輪郭までの距離
を検出して更新することにより、またいわゆる学習の手
法を適用して相関データを更新することにより、カメラ
マンの選択したメニューを確実に検出することがきる。
Further, this correlation data is detected by a calibration process by detecting and updating the distance from the nose to the left and right contours of the face, which corresponds to the marker displayed on the viewfinder 6, and a so-called learning method is used. By applying and updating the correlation data, it is possible to reliably detect the menu selected by the cameraman.

【0093】さらにこれらの処理の前提となるカメラマ
ンの顔の撮像結果においては、赤外線照明装置9を間欠
的に駆動して、ビューファインダ6の表示画面等により
照明された撮像結果と、これらの照明に加えて赤外線照
明装置9からの赤外線により照明された撮像結果とを減
算することにより、赤外線のみにより照明された撮像結
果を得、この撮像結果を処理し、これにより外来光によ
るノイズの影響を有効に回避して、またカメラ操作の妨
害を有効に回避して、所望の調整項目を確実に調整する
ことができる。
Further, in the image pickup result of the face of the cameraman, which is the premise of these processes, the infrared illuminator 9 is intermittently driven and the image pickup result illuminated by the display screen of the viewfinder 6 and these illuminations. In addition to the above, the image pickup result illuminated by infrared rays from the infrared illuminating device 9 is subtracted to obtain an image pickup result illuminated by only infrared rays, and the image pickup result is processed to thereby reduce the influence of noise due to external light. The desired adjustment item can be adjusted surely by avoiding effectively and obstructing the camera operation effectively.

【0094】なお上述の実施の形態においては、撮像結
果を画像処理して顔の向きを検出する場合について述べ
たが、本発明はこれに限らず、フォーカスの位置を検出
して顔の向きを検出してもよい。この場合、オートフォ
ーカス機能を有するカメラマン用カメラを適用して、こ
のオートフォーカス機能によりほぼ顔の中央にフォーカ
スを合わせる。この状態で例えば上述した実施の形態と
同様にして鼻の位置を検出し、輝度信号の高周波成分を
基準にしてこの鼻の位置にフォーカスを合わせる。さら
にこのフォーカスの位置を記録した後、続いてこの鼻の
位置から徐々にフォーカスをずらし、同様に輝度信号の
高周波成分を基準にして、鼻の位置の両側、両頬に順次
フォーカスを合わせる。これにより先に記録した鼻のフ
ォーカス位置から両頬のフォーカス位置までの距離をそ
れぞれ得、この距離の減算結果より顔の向きを検出す
る。このようにして顔の向きを検出しても、上述の実施
の形態と同様の効果を得ることができる。
In the above embodiment, the case where the image pickup result is subjected to image processing to detect the face direction is described. However, the present invention is not limited to this, and the focus position is detected to detect the face direction. It may be detected. In this case, a cameraman camera having an autofocus function is applied, and the autofocus function focuses on the center of the face. In this state, for example, the nose position is detected in the same manner as in the above-described embodiment, and the nose position is focused on the basis of the high frequency component of the luminance signal. Further, after recording the focus position, the focus is gradually shifted from the nose position, and similarly, the high frequency component of the luminance signal is used as a reference to sequentially focus on both sides of the nose and both cheeks. As a result, the distances from the focus position of the nose recorded to the focus positions of both cheeks obtained previously are obtained, and the orientation of the face is detected from the subtraction result of this distance. Even if the orientation of the face is detected in this way, the same effect as that of the above-described embodiment can be obtained.

【0095】またこれに代えて、いわゆる立体視の手法
を適用して顔の向きを検出してもよい。この場合、検出
しようとする顔の向きの方向に、例えば2台のテレビジ
ョンカメラを配置し、これら2台のテレビジョンカメラ
によりカメラマンの顔を立体視する。さらにこれら2台
のテレビジョンカメラより得られる撮像結果より、2つ
の撮像結果に共通する顔の特徴的な部分、例えば目、
鼻、口等を照合し、2つの撮像結果間のずれ量より視差
を検出して顔の向きを検出する。この手法によっても上
述の実施の形態と同様の効果を得ることができる。
Alternatively, the orientation of the face may be detected by applying a so-called stereoscopic technique. In this case, for example, two television cameras are arranged in the direction of the face to be detected, and these two television cameras stereoscopically view the cameraman's face. Furthermore, from the image pickup results obtained by these two television cameras, characteristic parts of the face common to the two image pickup results, such as eyes,
The nose, mouth, etc. are collated, and the direction of the face is detected by detecting the parallax from the amount of shift between the two image pickup results. Even with this method, the same effect as that of the above-described embodiment can be obtained.

【0096】さらに上述の実施の形態では、カメラマン
がトリガスイッチを操作した場合に、これに対応して顔
の向きを検出して制御データを出力する場合について述
べたが、本発明はこれに限らず、例えばフォーカスエリ
アを可変する場合等については、常時顔の向きを検出し
て制御データを出力してもよい。
Further, in the above-mentioned embodiment, when the cameraman operates the trigger switch, the case where the face direction is detected and the control data is output correspondingly is described, but the present invention is not limited to this. Instead, for example, when the focus area is changed, the face direction may be always detected and the control data may be output.

【0097】また上述の実施の形態では、カメラマンが
トリガスイッチを操作した場合に、制御データを出力す
る場合について述べたが、本発明はこれに限らず、画像
処理結果により例えばカメラマンが口を開いた場合等を
検出して制御データを出力してもよい。
In the above embodiment, the case where the control data is output when the camera operator operates the trigger switch has been described. However, the present invention is not limited to this, and for example, the camera operator opens his mouth depending on the image processing result. The control data may be output by detecting a case such as a case.

【0098】さらに上述の実施の形態では、1/60秒
周期で撮像結果を取り込むことにより、偶数フィールド
及び奇数フィールド間で減算して、赤外線のみの照明に
よる撮像結果を検出する場合について述べたが、本発明
はこれに限らず、例えば赤外線照明装置を1/30秒周
期で間欠的に駆動し、フレーム間で減算して赤外線のみ
の照明による撮像結果を検出してもよい。
Further, in the above-described embodiment, the case where the image pickup result by the illumination of only infrared rays is detected by taking in the image pickup result at the 1/60 second cycle to subtract between the even field and the odd field has been described. However, the present invention is not limited to this, and for example, the infrared illuminating device may be intermittently driven at a cycle of 1/30 second, and subtraction between frames may be performed to detect an imaging result by illumination of only infrared rays.

【0099】また上述の実施の形態では、顔の横方向に
ついて向きを検出する場合について述べたが、本発明は
これに限らず、上下方向について向きを検出して調整す
る場合、さらには横方向と上下方向との双方に顔の向き
を検出して調整する場合にも広く適用することができ
る。
In the above embodiment, the case where the orientation of the face is detected in the lateral direction has been described. However, the present invention is not limited to this, and when the orientation is detected and adjusted in the vertical direction, the lateral direction is further detected. It can be widely applied to the case of detecting and adjusting the direction of the face both in the vertical direction and in the vertical direction.

【0100】[0100]

【発明の効果】上述のように本発明によれば、カメラマ
ン用撮像手段の撮像結果に基づいてカメラマンの顔の向
きを検出し、この検出した顔の向きに対応する調整項目
を調整することにより、いわゆるハンドフリーの状態で
種々の調整項目を簡易かつ確実に調整することができ
る。これによりカメラの滑らかな動きを妨げることな
く、またバランスを乱すことなく、調整頻度の低い調整
事項についても、簡易かつ確実に調整することができ
る。
As described above, according to the present invention, the orientation of the face of the cameraman is detected based on the image pickup result of the image pickup means for the cameraman, and the adjustment item corresponding to the detected face orientation is adjusted. In the so-called hands-free state, various adjustment items can be adjusted easily and reliably. As a result, it is possible to easily and surely adjust even adjustment items that are infrequently adjusted without disturbing the smooth movement of the camera and without disturbing the balance.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る画像処理部の動作の
説明に供するフローチャートである。
FIG. 1 is a flowchart for explaining the operation of an image processing unit according to an embodiment of the present invention.

【図2】図1の画像処理部を適用したテレビジョンカメ
ラを示す側面図である。
FIG. 2 is a side view showing a television camera to which the image processing section of FIG. 1 is applied.

【図3】図2のテレビジョンカメラのビューファインダ
の周辺を示す背面図である。
FIG. 3 is a rear view showing the periphery of a viewfinder of the television camera shown in FIG.

【図4】図2の赤外線照明装置の動作の説明に供する信
号波形図である。
FIG. 4 is a signal waveform diagram for explaining the operation of the infrared lighting device of FIG.

【図5】図2のテレビジョンカメラの全体構成を示すブ
ロック図である。
5 is a block diagram showing an overall configuration of the television camera of FIG.

【図6】図5のテレビジョンカメラ部を示すブロック図
である。
6 is a block diagram showing the television camera unit of FIG.

【図7】図1の処理手順の全体を示すフローチャートで
ある。
FIG. 7 is a flowchart showing the entire processing procedure of FIG.

【図8】鼻検索の説明に供する略線図である。FIG. 8 is a schematic diagram for explaining a nose search.

【図9】図8の処理続いてスキャン方向を切り換えた場
合を示す略線図である。
FIG. 9 is a schematic diagram showing a case where the scan direction is switched following the processing of FIG.

【図10】鼻と顔の輪郭検出との説明に供する特性曲線
図である。
FIG. 10 is a characteristic curve diagram used for explaining nose and face contour detection.

【図11】鼻から顔の輪郭までの距離と顔の向きとの関
係を示す特性曲線図である。
FIG. 11 is a characteristic curve diagram showing the relationship between the distance from the nose to the contour of the face and the direction of the face.

【図12】図7のキャリブレーション処理の説明に供す
るフローチャートである。
FIG. 12 is a flowchart for explaining the calibration process of FIG. 7.

【符号の説明】[Explanation of symbols]

1 テレビジョンカメラ 2 三脚 3 操作棒 5 トリガスイッチ 6 ビューファインダ 7 カメラマン用カメラ 8 画像処理部 9 赤外線照明装置 12 フレームメモリ 13 中央処理ユニット 14 テレビジョンカメラ部 15 メモリ 1 television camera 2 tripod 3 operating rod 5 trigger switch 6 viewfinder 7 cameraman's camera 8 image processing unit 9 infrared illumination device 12 frame memory 13 central processing unit 14 television camera unit 15 memory

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 所望の被写体を撮像して前記被写体の撮
像結果を出力する撮像装置において、 前記被写体の撮像結果と共に、調整項目を順次配列した
メニュー画面を表示する表示手段と、 前記表示手段の表示画面を観察するカメラマンの顔を撮
像するカメラマン用撮像手段と、 前記カメラマン用撮像手段の撮像結果に基づいて、前記
カメラマンの顔の向きを検出し、前記顔の向きに対応す
る前記メニュー画面に配列された調整項目を検出するメ
ニュー検出手段とを備え、 前記メニュー検出手段により検出された調整項目に関し
て、調整作業を実行することを特徴とする撮像装置。
1. An image pickup apparatus for picking up an image of a desired subject and outputting the image pickup result of the subject, and a display unit for displaying a menu screen in which adjustment items are sequentially arranged together with the image pickup result of the subject; A cameraman image pickup means for picking up an image of a cameraman's face observing the display screen, and based on an image pickup result of the cameraman image pickup means, detects the orientation of the cameraman's face, and displays the menu screen corresponding to the face direction. An image pickup apparatus, comprising: a menu detection unit that detects arranged adjustment items; and performing an adjustment operation on the adjustment items detected by the menu detection unit.
【請求項2】 前記メニュー検出手段は、 前記カメラマン用撮像手段より出力される前記カメラマ
ンの撮像結果を画像処理して、前記カメラマンの顔の向
きを検出することを特徴とする請求項1に記載の撮像装
置。
2. The menu detecting means detects the orientation of the cameraman's face by image-processing the imaged result of the cameraman output from the cameraman's imaging means. Imaging device.
【請求項3】 前記メニュー検出手段は、 前記カメラマン用撮像手段のフォーカスを可変して得ら
れる撮像結果を基準にして、前記カメラマンの顔の向き
を検出することを特徴とする請求項1に記載の撮像装
置。
3. The menu detecting means detects the orientation of the cameraman's face on the basis of an imaging result obtained by changing the focus of the cameraman's imaging means. Imaging device.
【請求項4】 カメラマン用撮像手段は、 離間して配置され、前記カメラマンの顔を立体視してな
る撮像結果を出力する複数の撮像装置により形成され、 前記メニュー検出手段は、 前記複数の撮像装置より得られる撮像結果間で、顔の特
徴的な部分を照合して前記顔の向きを検出することを特
徴とする請求項1に記載の撮像装置。
4. The cameraman image pickup means is formed by a plurality of image pickup devices which are arranged apart from each other and output an image pickup result obtained by stereoscopically viewing the face of the cameraman, and the menu detection means is a plurality of image pickup means. The image pickup apparatus according to claim 1, wherein a characteristic portion of a face is collated between image pickup results obtained from the apparatus to detect the direction of the face.
【請求項5】 前記撮像装置は、前記カメラマン用撮像
手段の動作に同期して間欠的に赤外線を射出して前記カ
メラマンを前記赤外線により照明する照明手段を有し、 前記メニュー検出手段は、 前記赤外線により照明された前記カメラマンの撮像結果
と、 前記赤外線により照明されていない前記カメラマンの撮
像結果との比較結果を画像処理して、前記カメラマンの
顔の向きを検出することを特徴とする請求項1に記載の
撮像装置。
5. The image pickup device includes an illumination unit that emits infrared rays intermittently in synchronization with the operation of the image pickup unit for the cameraman to illuminate the cameraman with the infrared rays, and the menu detection unit includes: An image processing is performed on a comparison result between an image pickup result of the cameraman illuminated by infrared rays and an image pickup result of the cameraman not illuminated by the infrared rays, and the orientation of the face of the cameraman is detected. The imaging device according to 1.
JP7345107A 1995-12-08 1995-12-08 Image pickup unit Pending JPH09163212A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7345107A JPH09163212A (en) 1995-12-08 1995-12-08 Image pickup unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7345107A JPH09163212A (en) 1995-12-08 1995-12-08 Image pickup unit

Publications (1)

Publication Number Publication Date
JPH09163212A true JPH09163212A (en) 1997-06-20

Family

ID=18374334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7345107A Pending JPH09163212A (en) 1995-12-08 1995-12-08 Image pickup unit

Country Status (1)

Country Link
JP (1) JPH09163212A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141551A (en) * 2001-10-31 2003-05-16 Toshiba Corp Method and system for calculating face direction
JP2007015663A (en) * 2005-07-11 2007-01-25 Toyota Motor Corp Vehicle monitoring system
JP2007072013A (en) * 2005-09-05 2007-03-22 Sony Corp Imaging apparatus and imaging method
US7502494B2 (en) 2003-01-30 2009-03-10 Fujtisu Limited Face orientation detection apparatus, face orientation detection method, and computer memory product
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141551A (en) * 2001-10-31 2003-05-16 Toshiba Corp Method and system for calculating face direction
US7502494B2 (en) 2003-01-30 2009-03-10 Fujtisu Limited Face orientation detection apparatus, face orientation detection method, and computer memory product
JP2007015663A (en) * 2005-07-11 2007-01-25 Toyota Motor Corp Vehicle monitoring system
JP2007072013A (en) * 2005-09-05 2007-03-22 Sony Corp Imaging apparatus and imaging method
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device

Similar Documents

Publication Publication Date Title
US8073207B2 (en) Method for displaying face detection frame, method for displaying character information, and image-taking device
US7705908B2 (en) Imaging method and system for determining camera operating parameter
US8106995B2 (en) Image-taking method and apparatus
JP4153146B2 (en) Image control method for camera array and camera array
US7505679B2 (en) Image-taking apparatus
US7606476B2 (en) Imaging device and imaging method
US20090310885A1 (en) Image processing apparatus, imaging apparatus, image processing method and recording medium
CN106603912B (en) Video live broadcast control method and device
JP2011114662A (en) Image processing apparatus and method, program, and recording medium
JP2010124120A (en) Autofocus system
JPH09163212A (en) Image pickup unit
JPH0582786B2 (en)
JP2017175589A (en) Imaging apparatus, imaging method and program
CN1075313C (en) Exposure adjusting device of pickup camera
JPS63217880A (en) Auto focus device
JP4553570B2 (en) Auto focus camera
JP3948050B2 (en) Imaging, storage, processing, display, playback, transmission device and recording medium
JP3217163B2 (en) Video camera
JPH05119250A (en) Automatic focusing device
JPH08278442A (en) Focusing method and device
JP4148251B2 (en) Imaging device and display device
WO2016181626A1 (en) Imaging device
JPH1079881A (en) Image pickup device
JP2006165600A (en) Photographing apparatus
JP2010230871A (en) Auto focus system