JP2022140328A - Image pickup apparatus, portable device, calibrator, control method therefor, and program - Google Patents

Image pickup apparatus, portable device, calibrator, control method therefor, and program Download PDF

Info

Publication number
JP2022140328A
JP2022140328A JP2022029152A JP2022029152A JP2022140328A JP 2022140328 A JP2022140328 A JP 2022140328A JP 2022029152 A JP2022029152 A JP 2022029152A JP 2022029152 A JP2022029152 A JP 2022029152A JP 2022140328 A JP2022140328 A JP 2022140328A
Authority
JP
Japan
Prior art keywords
image
imaging
user
face
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022029152A
Other languages
Japanese (ja)
Inventor
信行 古川
Nobuyuki Furukawa
卓也 今泉
Takuya Imaizumi
公一 伊藤
Koichi Ito
朱里 林(齋藤)
Hayashi, (Saito) Shuri
亨 石橋
Toru Ishibashi
恵美 近藤
Emi Kondo
拓海 石川
Takumi Ishikawa
隆 川上
Takashi Kawakami
峰雄 内田
Mineo Uchida
卓馬 山崎
Takuma Yamazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to GB2202906.0A priority Critical patent/GB2607151A/en
Priority to US17/688,387 priority patent/US20220294937A1/en
Priority to KR1020220028654A priority patent/KR20220128585A/en
Priority to DE102022105788.7A priority patent/DE102022105788A1/en
Priority to CN202210248146.2A priority patent/CN115086547A/en
Publication of JP2022140328A publication Critical patent/JP2022140328A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image pickup apparatus, a portable device, a calibrator, a control method therefor, and a program, capable of eliminating manual change of an image pickup direction during picking up an image and capable of easily obtaining an image that records experience even while focusing attention on the experience.SOLUTION: A camera body 1 includes: a face direction detection unit 20 that is worn on a body other than a head of a user and detects an observation direction of the user; an image-capturing unit 40 that is worn on the body of the user and picks up an image; and a transmission unit 70 that outputs an image corresponding to the observation direction among the images picked up by the image-capturing unit 40.SELECTED DRAWING: Figure 4

Description

本発明は、撮像装置、携帯機器、キャリブレータ、及びこれらの制御方法並びにプログラムに関し、特にアクションカメラとして使用する撮像装置、携帯機器、キャリブレータ、及びこれらの制御方法並びにプログラムに関する。 The present invention relates to an imaging device, a mobile device, a calibrator, and control methods and programs thereof, and more particularly to an imaging device, a mobile device, a calibrator used as an action camera, and control methods and programs thereof.

従来からカメラで撮像する場合、撮影者がカメラを撮像する被写体の方向に向け続ける必要があるため、撮像操作に手が取られることで撮像行為以外に手がまわせなかったり、撮像に意識を集中させられるためにその場に居る体験には意識を集中できなかったりしていた。 Traditionally, when taking pictures with a camera, the photographer had to keep pointing the camera toward the subject being photographed. I couldn't concentrate on the experience of being there because I was forced to concentrate.

たとえば、撮像操作で言えば、撮影者である親は、被写体である子供を撮像している間は子供と一緒に遊ぶことはできなくなるし、子供と一緒に遊ぼうとすると撮像ができなくなるといった課題が生じる。 For example, in terms of imaging operations, the parent, who is the photographer, cannot play with the child while the child is being imaged, and if the child tries to play with the child, the image cannot be captured. occurs.

また、撮像への意識集中でいえば、スポーツ観戦中に撮像をしていると、撮影者は、応援できなかったり、ゲーム内容を覚えていなかったりするし、スポーツ観戦へ意識を集中すると撮像できないといった課題が生じる。同様に、グループ旅行中に撮像をしていると、撮影者は、他のメンバーと同じレベルでの感動を体験できないし、体験を優先すると撮像が疎かになるといった課題が生じる。 In addition, in terms of concentrating on shooting, when shooting while watching sports, the photographer may not be able to support or remember the game content, and when focusing on watching sports, shooting may not be possible. problems arise. Similarly, when taking pictures during a group trip, the photographer cannot experience the same level of excitement as the other members, and giving priority to the experience causes a problem that the taking of pictures is neglected.

そこで、特許文献1では、被写体を撮像する第1のカメラの他に、使用者を撮像する第2のカメラを使用する技術が開示されている。この技術では、第2のカメラで撮像された画像より使用者の移動方向や視線方向を算出し、第1のカメラの撮像方向を決め、使用者の嗜好や状態から被写体を推定して撮像する。 Therefore, Patent Document 1 discloses a technique of using a second camera that captures an image of a user in addition to a first camera that captures an image of a subject. In this technology, the user's moving direction and line-of-sight direction are calculated from the image captured by the second camera, the imaging direction of the first camera is determined, and the subject is estimated and captured from the user's preference and state. .

また、特許文献2では、撮影者(使用者)の観察方向を検出するためジャイロや加速度センサからなるセンサを頭部に装着し、体やバッグなどに別体で装着された撮像装置からセンサで検出された観察方向の撮像を行う画像録画システムが開示されている。 Further, in Patent Document 2, a sensor including a gyro and an acceleration sensor is mounted on the head to detect the observation direction of the photographer (user), and the sensor is detected from an imaging device separately mounted on the body or bag. An image recording system is disclosed that captures a detected viewing direction.

特開2007-74033号公報JP 2007-74033 A 特開2017-60078号公報JP-A-2017-60078

しかしながら、特許文献1では、第2のカメラは使用者と離れた位置から使用者を撮像するため、第2のカメラで撮像された画像より使用者の移動方向や視線方向を算出するには、第2のカメラに高い光学性能が必要となっていた。また、第2のカメラで撮像された画像の画像処理には高い演算処理能力が必要となってしまい、装置も大がかりなものとなってしまうという課題がある。さらに、それをもってしても使用者の観察方向を精密には算出できないために使用者の嗜好や状態からの被写体を精度よく推定することができず、使用者が欲している映像とは異なる映像を撮像してしまうという課題があった。 However, in Patent Document 1, the second camera captures an image of the user from a position distant from the user. High optical performance is required for the second camera. In addition, there is a problem that the image processing of the image captured by the second camera requires a high arithmetic processing ability, and the apparatus becomes large-scale. Furthermore, even with that, the user's observation direction cannot be calculated precisely, so the subject cannot be accurately estimated from the user's preference and condition, and the image is different from the image desired by the user. There was a problem that the image was captured.

また、特許文献2では、使用者の観察方向を直接的に検知するため、使用者は頭部にセンサだけとはいえ装着する必要があり、上述したような、頭部に何らかの装置を装着する際の煩わしさの解消ができない。また、センサがジャイロや加速度センサからなる場合、相対的な観察方向の検出には一定の精度が出せるが、絶対的な観察方向、特に水平回転方向の検出の精度は出せないため、実用化には課題があった。 In addition, in Patent Document 2, since the observation direction of the user is directly detected, the user must wear a sensor on the head, and the user must wear some device on the head as described above. I can't solve the hassle of the time. In addition, when the sensor consists of a gyro sensor or an accelerometer, a certain degree of accuracy can be obtained in detecting the relative observation direction, but the accuracy of detecting the absolute observation direction, especially in the horizontal rotation direction, cannot be obtained. had a problem.

そこで、本発明の目的は、撮像中の手による撮像方向の変更を不要とし、その場の体験に集中しつつも、体験を記録した映像を簡便に取得することができる撮像装置、携帯機器、キャリブレータ、及びこれらの制御方法並びにプログラムを提供することである。 Therefore, an object of the present invention is to eliminate the need to change the imaging direction by hand during imaging, and to easily acquire a video recording the experience while concentrating on the experience on the spot. It is to provide a calibrator, a control method thereof, and a program.

本発明の請求項1に係る撮像装置は、使用者の頭部以外の身体上に装着され、前記使用者の観察方向を検出する観察方向検出手段と、前記使用者の身体上に装着され、映像を撮像する撮像手段と、前記撮像手段より撮像された映像に基づいて、前記観察方向に対応する映像を出力する映像出力手段とを備えることを特徴とする。 An imaging device according to claim 1 of the present invention is mounted on a user's body other than the head, and includes observation direction detection means for detecting the user's observation direction, and is mounted on the user's body, It is characterized by comprising an imaging means for imaging an image, and an image output means for outputting an image corresponding to the viewing direction based on the image taken by the imaging means.

本発明の請求項17に係る携帯機器は、前記撮像装置と無線接続する携帯機器であって、前記撮像装置で生成される映像ファイルを受信する映像ファイル受信手段と、前記映像ファイルからメタデータを抽出する第1の抽出手段と、前記映像ファイルから前記抽出されたメタデータと共にエンコードされたフレームの映像を抽出する第2の抽出手段と、前記第1の抽出手段により抽出されたメタデータを利用して、前記第2の抽出手段により抽出されたフレームの映像を補正するフレーム映像補正手段と、前記フレーム映像補正手段によって補正された前記フレームの映像を動画映像として記録する動画記録手段とを備えることを特徴とする。 A seventeenth aspect of the present invention is a portable device wirelessly connected to the imaging device, comprising video file receiving means for receiving a video file generated by the imaging device, and extracting metadata from the video file. a first extracting means for extracting; a second extracting means for extracting a video of a frame encoded together with the extracted metadata from the video file; and using the metadata extracted by the first extracting means. frame image correcting means for correcting the image of the frame extracted by the second extracting means; and moving image recording means for recording the image of the frame corrected by the frame image correcting means as a moving image. It is characterized by

本発明の請求項19に係るキャリブレータは、前記撮像装置と無線接続するキャリブレータであって、位置決め指標を表示する第1の表示手段と、顔を検知する顔検知手段と、前記顔検知手段での検知結果により、前記使用者が前記位置決め指標を見ていると判断した場合、前記使用者による押下により前記キャリブレーションの指示を前記撮像装置に送信するボタンを表示する第2の表示手段とを備えることを特徴とする。 A calibrator according to claim 19 of the present invention is a calibrator wirelessly connected to the imaging device, comprising first display means for displaying a positioning index, face detection means for detecting a face, and a second display means for displaying a button for transmitting the calibration instruction to the imaging device when it is determined from the detection result that the user is looking at the positioning index, the button being pressed by the user. It is characterized by

本発明によれば、撮像中の手による撮像方向の変更を不要とし、その場の体験に集中しつつも、体験を記録した映像を簡便に取得することができる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes unnecessary to change the imaging direction with a hand during imaging, and the image|video which recorded the experience can be acquired simply, while concentrating on the experience on the spot.

実施例1に係る撮像装置としての撮影・検出部を含むカメラ本体の外観図である。1 is an external view of a camera body including an imaging/detection unit as an imaging device according to Example 1. FIG. カメラ本体を使用者が掛けた様子を示す図である。It is a figure which shows a mode that the user hung the camera main body. カメラ本体におけるバッテリー部を図1Aの後方から見た図である。It is the figure which looked at the battery part in the camera main body from the back of FIG. 1A. カメラ本体と別体で構成される、実施例1に係る携帯機器としての表示装置の外観図である。1 is an external view of a display device as a mobile device according to Example 1, which is configured separately from a camera body; FIG. カメラ本体における撮影・検出部を正面から見た図である。It is the figure which looked at the imaging|photography / detection part in a camera main body from the front. カメラ本体における接続部のバンド部の形状を示す図である。FIG. 4 is a diagram showing the shape of the band portion of the connecting portion in the camera body; 撮影・検出部を裏側からみた図である。It is the figure which looked at the imaging|photography / detection part from the back side. 撮影・検出部を上からみた図である。It is the figure which looked at the imaging|photography / detection part from the top. 撮影・検出部の内部であって、カメラ本体における顔方向検出窓の下部に配置される、顔方向検出部の構成を示す図である。FIG. 4 is a diagram showing the configuration of a face direction detection section arranged inside the photographing/detection section and below a face direction detection window in the camera body; カメラ本体を使用者が掛けた状態を使用者の左側面からみた図である。It is the figure which looked at the state which the user hung the camera main body from the user's left side. バッテリー部の詳細を説明する図である。It is a figure explaining the detail of a battery part. 実施例1に係るカメラ本体の機能ブロック図である。3 is a functional block diagram of a camera body according to Example 1. FIG. カメラ本体のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of the camera body; FIG. 表示装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a display apparatus. カメラ本体及び表示装置において実行される、実施例1に係る撮像記録処理の概要を示すフローチャートである。4 is a flow chart showing an outline of image recording processing according to the first embodiment, which is executed in a camera body and a display device; 実施例1に係る、図7AのステップS100の準備動作処理のサブルーチンのフローチャートである。FIG. 7B is a flowchart of a subroutine of a preparatory operation process in step S100 of FIG. 7A according to the first embodiment; FIG. 実施例1に係る、図7AのステップS200の顔方向検出処理のサブルーチンのフローチャートである。7B is a flowchart of a subroutine of face direction detection processing in step S200 of FIG. 7A according to the first embodiment; 実施例1に係る、図7AのステップS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。7B is a flowchart of a subroutine of a recording direction/range determination process in step S300 of FIG. 7A according to the first embodiment; 実施例1に係る、図7AのステップS500の記録範囲現像処理のサブルーチンのフローチャートである。7B is a flowchart of a subroutine of recording area development processing in step S500 of FIG. 7A according to the first embodiment; 動画モードにおける図7AのステップS200~S600までの処理を説明するための図である。FIG. 7B is a diagram for explaining the processing from steps S200 to S600 in FIG. 7A in moving image mode; 顔方向検出窓から見える使用者の映像を示す図である。FIG. 10 is a diagram showing an image of a user seen through a face direction detection window; 顔方向検出窓から見える使用者の映像に室内にある蛍光灯が背景として映りこんだ場合を示す図である。FIG. 10 is a diagram showing a case where an indoor fluorescent lamp is reflected as a background in an image of the user seen through the face direction detection window; 図8Bに示す使用者及びその背景としての蛍光灯を、赤外検出処理装置の赤外LEDを点灯させない状態で、顔方向検出窓を介して赤外検出処理装置のセンサに結像させた場合の映像を示す図である。When the user and the fluorescent lamp as the background shown in FIG. 8B are imaged on the sensor of the infrared detection processing device through the face direction detection window in a state where the infrared LED of the infrared detection processing device is not lit. is a diagram showing an image of . 図8Bに示す使用者及びその背景としての蛍光灯を、赤外LEDを点灯させた状態で、顔方向検出窓を介して赤外検出処理装置のセンサに結像させた場合の映像を示す図である。FIG. 8B is a diagram showing an image when the user shown in FIG. 8B and a fluorescent lamp as its background are imaged on the sensor of the infrared detection processing device through the face direction detection window with the infrared LED turned on. is. 図8Dの映像から図8Cの映像を差し引いて演算された差分映像を示す図である。FIG. 8C is a diagram showing a difference image calculated by subtracting the image of FIG. 8C from the image of FIG. 8D; 図8Eの差分映像の濃淡を、使用者の顔・首部に投光された赤外線の反射光線の光強度にスケールを合わせて調整した結果を示す図である。FIG. 8E is a diagram showing a result of adjusting the gradation of the difference image in FIG. 8E by adjusting the scale to the light intensity of the reflected infrared rays projected onto the user's face and neck. 図8Fに、使用者の身体の各部位を示す符号、及び首元位置を示す二重丸と顎先位置を示す黒丸の符号を重ねた図である。FIG. 8F is a diagram in which symbols indicating each part of the user's body, double circles indicating the neck position, and black circles indicating the chin position are superimposed on FIG. 8F. 使用者の顔が右方向を向いている時に、図8Eと同様の方法で演算された差分映像を示す図である。FIG. 8E shows a difference image calculated in the same manner as in FIG. 8E when the user's face is facing right; 図8Hの差分映像の濃淡を、使用者の顔・首部に投光された赤外線の反射光線の光強度にスケールを合わせて調整し、首元位置を示す二重丸と顎先位置を示す黒丸の符号を重ねた図である。The shading of the difference image in FIG. 8H is adjusted according to the light intensity of the reflected infrared rays projected on the user's face/neck, and the double circle indicating the neck position and the black circle indicating the chin position are obtained. is a diagram in which the symbols of are superimposed. 使用者が水平より33°上方に顔を向けている際に、顔方向検出窓から見える使用者の映像を示す図である。FIG. 10 is a diagram showing an image of a user seen through the face direction detection window when the user faces 33° above the horizontal; 使用者が水平より33°上方に顔を向けている際に、図8Eと同様の方法で演算された差分映像の濃淡を、使用者の顔・首部に投光された赤外線の反射光線の光強度にスケールを合わせて調整し、首元位置を示す二重丸と顎先位置を示す黒丸の符号を重ねた図である。When the user faces 33° above the horizontal, the intensity of the difference image calculated by the same method as in FIG. It is a diagram in which a double circle indicating the neck position and a black circle indicating the chin position are superimposed on each other by adjusting the scale according to the strength. 赤外LEDの点灯タイミングと関連する信号とを示したタイミングチャートである。4 is a timing chart showing lighting timings of infrared LEDs and related signals; 使用者の顔の上下方向の動きを説明する図である。It is a figure explaining a motion of a user's face of the up-down direction. 使用者が正面を向いている場合の、カメラ本体の撮影部により撮像された超広角映像における狙い視野を示す図である。FIG. 10 is a diagram showing a target field of view in a super-wide-angle image captured by the imaging unit of the camera body when the user faces the front; 図11Aの超広角映像から切り出された狙い視野の映像を示す図である。11B is a diagram showing an image of a target field of view cut out from the ultra-wide-angle image of FIG. 11A. FIG. 使用者が被写体Aを観察している場合の、超広角映像における狙い視野を示す図である。4 is a diagram showing a target field of view in a super-wide-angle image when a user observes subject A; FIG. 超広角映像から切り出された図11Cにおける狙い視野の映像に対して、歪みや揺れを補正した映像を示す図である。FIG. 11C is a diagram showing an image obtained by correcting distortion and shaking with respect to the image of the target field of view in FIG. 11C cut out from the ultra-wide-angle image. 使用者が被写体Aを図11Cより小さい画角設定値で観察している場合の、超広角映像における狙い視野を示す図である。FIG. 11B is a diagram showing a target field of view in a super-wide-angle image when the user observes the subject A with a field angle set value smaller than that in FIG. 11C. 超広角映像から切り出された図11Eにおける狙い視野の映像に対して、歪みや揺れを補正した映像を示す図である。FIG. 11C is a diagram showing an image obtained by correcting distortion and shaking with respect to the image of the target field of view in FIG. 11E cut out from the ultra-wide-angle image. 超広角映像における狙い視野の一例を示す図である。FIG. 4 is a diagram showing an example of a target field of view in a super-wide-angle image; 超広角映像における、図12Aの狙い視野と同じ画角設定値であるが観察方向が異なる狙い視野の一例を示す図である。12B is a diagram showing an example of a target field of view in a super-wide-angle image, which has the same field angle setting value as the target field of view in FIG. 12A but has a different observation direction. FIG. 超広角映像における、図12Aの狙い視野と同じ画角設定値であるが観察方向が異なる狙い視野の他の一例を示す図である。12B is a diagram showing another example of a target field of view in a super-wide-angle image having the same field angle setting value as the target field of view of FIG. 12A but with a different observation direction. FIG. 超広角映像における、図12Cの狙い視野と同一観察方向であるが画角設定値が小さい狙い視野の一例を示す図である。FIG. 12B is a diagram showing an example of a target field of view in a super-wide-angle image, which has the same observation direction as the target field of view of FIG. 12C but has a smaller field angle setting value. 図12Aに示す狙い視野の周囲に所定の防振レベルに対応する防振用予備領域を付与した例を示す図である。FIG. 12B is a diagram showing an example in which a preliminary region for image stabilization corresponding to a predetermined image stabilization level is provided around the target field of view shown in FIG. 12A; 図12Bに示す狙い視野の周囲に、図12Eの防振用予備領域と同一の防振レベルに対応する防振用予備領域を付与した例を示す図である。FIG. 12C is a diagram showing an example in which an anti-vibration preliminary area corresponding to the same anti-vibration level as that of the anti-vibration preliminary area of FIG. 12E is provided around the target visual field shown in FIG. 12B. 図12Dに示す狙い視野の周囲に、図12Eの防振用予備領域と同一の防振レベルに対応する防振用予備領域を付与した例を示す図である。FIG. 12C is a diagram showing an example in which an anti-vibration preliminary area corresponding to the same anti-vibration level as that of the anti-vibration preliminary area of FIG. 12E is provided around the target field of view shown in FIG. 12D. カメラ本体での撮像前に、表示装置の表示部に表示される、動画モードの各種設定用のメニュー画面を示す図である。FIG. 4 is a diagram showing a menu screen for various settings of a moving image mode displayed on the display unit of the display device before the camera main body captures an image; 図7AのステップS600の一次記録処理のサブルーチンのフローチャートである。7B is a flowchart of a subroutine of primary recording processing in step S600 of FIG. 7A; 一次記録処理により生成される映像ファイルのデータ構造を示す図である。FIG. 4 is a diagram showing the data structure of a video file generated by primary recording processing; 図7AのステップS700の表示装置への転送処理のサブルーチンのフローチャートである。FIG. 7B is a flowchart of a subroutine of transfer processing to the display device in step S700 of FIG. 7A; FIG. 図7AのステップS800の光学補正処理のサブルーチンのフローチャートである。7B is a flowchart of a subroutine for optical correction processing in step S800 of FIG. 7A; 図17のステップS803において歪曲収差補正を実施した過程を説明するための図である。FIG. 18 is a diagram for explaining the process of performing distortion aberration correction in step S803 of FIG. 17; FIG. 図7AのステップS900の防振処理のサブルーチンのフローチャートである。FIG. 7B is a flowchart of a subroutine of image stabilizing processing in step S900 of FIG. 7A; FIG. 実施例2に係るキャリブレーション処理に用いられるキャリブレータの詳細を示す図である。FIG. 10 is a diagram showing details of a calibrator used for calibration processing according to the second embodiment; カメラ本体及びキャリブレータにおいて実行される、実施例2に係るキャリブレーション処理のフローチャートである。10 is a flowchart of calibration processing according to Example 2, which is executed in a camera body and a calibrator; 使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3103において、キャリブレータの表示部に表示される画面を示す図である。FIG. 22 is a diagram showing a screen displayed on the display unit of the calibrator in step S3103 of FIG. 21 during the calibration operation in the front direction of the user; 使用者が、図22Aにおける指示表示に示された指示に従ってキャリブレータを前方にかざしている様子を示す図である。FIG. 22B is a diagram showing a user holding the calibrator forward according to the instructions shown in the instruction display in FIG. 22A. 図22Bの状態において撮像レンズが捉えた超広角画像の全体を示す模式図である。FIG. 22B is a schematic diagram showing the entire super-wide-angle image captured by the imaging lens in the state of FIG. 22B; 図22Cに示す超広角画像の収差を補正した画像を示す模式図である。FIG. 22C is a schematic diagram showing an image in which the super-wide-angle image shown in FIG. 22C is corrected for aberration; 使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3108において顔方向検出部が取得した顔方向画像を示す模式図である。FIG. 22 is a schematic diagram showing a face direction image acquired by the face direction detection unit in step S3108 of FIG. 21 during the calibration operation for the front direction of the user; 図21のステップS3107で表示されるインカメラ映像を示す模式図である。FIG. 22 is a schematic diagram showing an in-camera image displayed in step S3107 of FIG. 21; 使用者の右手上方向のキャリブレーション動作時に、図21のステップS3103において、キャリブレータの表示部に表示される画面を示す図である。FIG. 22 is a diagram showing a screen displayed on the display unit of the calibrator in step S3103 of FIG. 21 during the calibration operation in the upper right direction of the user; 使用者が、図23Aにおける指示表示に示された指示に従ってキャリブレータを右上にかざしている様子を示す図である。FIG. 23B is a diagram showing a state in which the user holds the calibrator up and right according to the instruction shown in the instruction display in FIG. 23A. 図23Bの状態において撮像レンズが捉えた超広角画像の全体を示す模式図である。23B is a schematic diagram showing the entire super-wide-angle image captured by the imaging lens in the state of FIG. 23B; FIG. 図23Cに示す超広角画像の収差を補正した画像を示す模式図である。FIG. 23D is a schematic diagram showing an image in which the ultra-wide-angle image shown in FIG. 23C is corrected for aberration; 使用者の右手上方向のキャリブレーション動作時に、図21のステップS3108において顔方向検出部が取得した顔方向画像を示す模式図である。FIG. 22 is a schematic diagram showing a face direction image acquired by the face direction detection unit in step S3108 of FIG. 21 during the calibration operation for the upper right direction of the user; 実施例3における画像の遅延切り出しについて説明するための図である。FIG. 11 is a diagram for explaining delayed image clipping in Example 3; 実施例3おいて保持される顔の動きの軌跡を示す図である。FIG. 12 is a diagram showing a trajectory of facial movement retained in Example 3; 実施例3に係る映像酔い防止処理のフローチャートである。10 is a flowchart of motion sickness prevention processing according to Example 3. FIG. 実施例4に係る切り出し範囲補正処理を説明するためのグラフである。FIG. 16 is a graph for explaining a clipping range correction process according to Example 4; FIG. (a)実施例4に係る記録方向・範囲決定処理を示すフローチャートであり、(b)は、(a)のステップS400の切り出し範囲補正処理を示すフローチャートである。(a) is a flow chart showing recording direction/range determination processing according to the fourth embodiment, and (b) is a flow chart showing extraction range correction processing in step S400 of (a). 実施例1における、近距離の被写体を観察対象とした場合の使用者の視界と狙い視野の関係を説明するための模式図である。FIG. 10 is a schematic diagram for explaining the relationship between the user's field of view and the target field of view when an object at a short distance is an observation target in Example 1; 実施例5に係る撮像装置を含むカメラ本体の外観図である。FIG. 11 is an external view of a camera body including an imaging device according to Example 5; 実施例5に係るカメラ本体のハードウェア構成を示すブロック図である。FIG. 12 is a block diagram showing the hardware configuration of a camera body according to Example 5; 実施例5における視差補正モード処理を含むキャリブレーション時の使用者、キャリブレータ、及び狙い視野の関係を説明するための模式図である。FIG. 11 is a schematic diagram for explaining the relationship between a user, a calibrator, and a target visual field at the time of calibration including parallax correction mode processing in Example 5; 実施例5に係る図7AのステップS100の準備処理の一部である視差補正モード処理のフローチャートである。10 is a flowchart of parallax correction mode processing that is part of the preparation processing in step S100 of FIG. 7A according to Example 5. FIG. 実施例5に係る図7Aで説明したS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。10 is a flowchart of a subroutine of the recording direction/range determination process of S300 described with reference to FIG. 7A according to the fifth embodiment; 図33BのステップS5302において作成されるデフォーカスマップと記録方向の関係を示す模式図である。FIG. 33B is a schematic diagram showing the relationship between the defocus map created in step S5302 of FIG. 33B and the recording direction; 実施例6に係る観察方向決定処理のフローチャートである。14 is a flowchart of observation direction determination processing according to Example 6. FIG. 実施例6に係る、フレーム毎の使用者の観察方向検出状態と、撮像映像の関係を示す図である。FIG. 11 is a diagram showing the relationship between a user's viewing direction detection state for each frame and a captured image according to Example 6; 実施例6に係る被写体ロストモードにおける、フレーム毎の使用者の観察方向検出状態と、撮像映像の関係を示す図である。FIG. 12 is a diagram showing the relationship between the observation direction detection state of the user for each frame and the captured image in the subject lost mode according to Example 6; 実施例7に係る、観察方向と顔方向の検知に使用できる顔領域の関係を説明するための図である。FIG. 16 is a diagram for explaining the relationship between the observation direction and the face area that can be used for detection of the face direction according to the seventh embodiment; 図35のステップS6004の処理の代わりに行われる、実施例7に係る顔方向取得時の観察方向決定処理のフローチャートである。FIG. 36 is a flowchart of viewing direction determination processing when obtaining a face direction according to Embodiment 7, which is performed instead of the processing in step S6004 of FIG. 35; 実施例7における顔方向と顔方向信頼性の関係を示す図である。FIG. 21 is a diagram showing the relationship between face direction and face direction reliability in Example 7; 実施例7における、顔方向取得時の観察方向決定処理の概念図である。FIG. 21 is a conceptual diagram of observation direction determination processing when obtaining a face direction in Embodiment 7; 撮影・検出部を側面から見た様子を示す拡大図である。It is an enlarged view showing a mode that the imaging / detection part was seen from the side. 使用者がカメラ本体を装着した様子を示す側面図である。FIG. 4 is a side view showing how a user wears the camera body; 接続部を非表示とした場合の、撮影・検出部を側面から見た様子を示す拡大図である。FIG. 11 is an enlarged view showing a side view of the photographing/detecting unit when the connection unit is hidden; 接続部を非表示とした際の、使用者がカメラ本体を装着した様子を示す側面図である。FIG. 11 is a side view showing a state in which a user wears the camera body when the connection portion is hidden; バンド部及びこれと一体となって構成される電気ケーブルの切断面である接続面を示す図である。FIG. 4 is a view showing a connection surface, which is a cut surface of a band portion and an electric cable integrally formed therewith; 実施例9に係る撮像装置を含むカメラ本体と接続する表示装置のハードウェア構成を示すブロック図である。FIG. 21 is a block diagram showing the hardware configuration of a display device connected to a camera body including an imaging device according to Example 9; 実施例9に係るカメラ本体の機能ブロック図である。FIG. 20 is a functional block diagram of a camera body according to Example 9; 実施例10に係るカメラ本体と表示装置の機能ブロック図である。FIG. 20 is a functional block diagram of a camera body and a display device according to Example 10; カメラ本体及び表示装置において実行される、実施例10に係る撮像記録処理の概要を示すフローチャートである。FIG. 21 is a flow chart showing an overview of image recording processing according to the tenth embodiment, which is executed in a camera body and a display device; FIG. 実施例11に係るカメラ本体と表示装置の機能ブロック図である。FIG. 20 is a functional block diagram of a camera body and a display device according to Example 11; カメラ本体及び表示装置において実行される、実施例11に係る撮像記録処理の概要を示すフローチャートである。FIG. 21 is a flow chart showing an outline of image recording processing according to an eleventh embodiment, which is executed in a camera body and a display device; FIG. 実施例12におけるカメラ本体の外観図である。FIG. 21 is an external view of a camera body in Example 12; 実施例12におけるカメラ本体の一部である撮影・検出部の詳細を示す斜視図である。FIG. 21 is a perspective view showing the details of an imaging/detecting section which is a part of a camera body in Embodiment 12; 図51Bの撮影・検出部の撮影部が左に30度回転した状態を示す斜視図である。FIG. 51C is a perspective view showing a state in which the photographing unit of the photographing/detecting unit of FIG. 51B is rotated 30 degrees to the left; 図51Cの撮像部が下30度を向いた状態を示す斜視図である。FIG. 51C is a perspective view showing a state in which the imaging unit of FIG. 51C faces downward 30 degrees; 実施例12に係るカメラ本体の機能ブロック図である。FIG. 20 is a functional block diagram of a camera body according to Example 12; 実施例12に係るカメラ本体のハードウェア構成を示すブロック図である。FIG. 22 is a block diagram showing the hardware configuration of a camera body according to Example 12; カメラ本体及び表示装置において実行される、実施例12に係る撮像記録処理の概要を示すフローチャートである。FIG. 20 is a flow chart showing an outline of image recording processing according to the twelfth embodiment, which is executed in a camera body and a display device; FIG. 実施例12に係る、図54のステップS12300の撮影部駆動処理のサブルーチンのフローチャートである。55 is a flowchart of a subroutine of imaging unit drive processing in step S12300 of FIG. 54 according to Example 12. FIG. 実施例12に係る、図54のステップS12500の現像処理のサブルーチンのフローチャートである。55 is a flowchart of a subroutine of development processing in step S12500 of FIG. 54 according to Example 12. FIG. 実施例13に係るカメラ本体のハードウェア構成を示すブロック図である。FIG. 22 is a block diagram showing the hardware configuration of a camera body according to Example 13; 実施例13で使用される学習用画像の例を表す模式図である。FIG. 21 is a schematic diagram showing an example of a learning image used in Example 13; 実施例13に係る機械学習を利用して顔方向を検出する処理を表すフローチャートである。29 is a flow chart showing processing for detecting face direction using machine learning according to the thirteenth embodiment. 実施例14に係るカメラ本体のハードウェア構成を示すブロック図である。FIG. 20 is a block diagram showing the hardware configuration of a camera body according to Example 14; (a)は、実施例14に係るカメラ本体のToF装置を鎖骨位置に設置し、ToF装置で上方向を測定撮影した場合に生成されるの距離画像を表す模式図、(b)は、(a)の距離画像に閾値処理を施して顔部分を抽出した画像を表す模式図、(c)は、(b)の画像を距離情報に応じて領域分割した画像を表す模式図、(d)は、(c)の画像から抽出される首元位置と顎先位置とを示す画像を表す模式図である。(a) is a schematic diagram showing a distance image generated when the ToF device of the camera body according to Example 14 is installed at the collarbone position and the ToF device is used to measure and photograph the upward direction; (a) is a schematic diagram showing an image obtained by subjecting the distance image to threshold processing to extract a face portion, (c) is a schematic diagram showing an image obtained by dividing the image (b) into areas according to distance information, and (d). FIG. 11 is a schematic diagram showing an image showing a neck position and a chin position extracted from the image of (c); 実施例14における顔方向の算出処理を表すフローチャートである。FIG. 22 is a flow chart showing face direction calculation processing in the fourteenth embodiment. FIG. 従来技術である頭部固定アクセサリーを用いて頭部に固定されるカメラの構成例を示す図である。1 is a diagram showing a configuration example of a camera fixed to the head using a conventional head fixing accessory; FIG. 従来技術である全天球型撮影カメラの構成例を示す図である。1 is a diagram showing a configuration example of a conventional omnidirectional imaging camera; FIG. 図48の全天球撮影カメラで撮像された映像の変換作業の例を示す図である。FIG. 49 is a diagram showing an example of conversion work of a video imaged by the omnidirectional camera of FIG. 48;

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Preferred embodiments of the present invention are described in detail below with reference to the accompanying drawings.

初めに、大事な瞬間を記録することと撮影者が体験に集中することという2つの課題を解決する方法をいくつか考える。1つに、頭部固定アクセサリーを用いてアクションカメラを頭部に固定して観察している方向を撮像することで、撮影者が撮像操作に手が取られることなく撮像する方法がある。また1つに、全天球型撮影カメラで広範囲を撮像することで、体験中は体験に集中し、体験が終わってから撮像された全天球映像から必要な映像部分を切り出し編集し、体験したことの映像を残すという方法もある。 First, we consider some ways to solve the dual problem of capturing important moments and keeping the photographer focused on the experience. One method is to fix an action camera to the head using a head fixation accessory and take an image in the observing direction, so that the photographer can take an image without taking his or her hand to perform the imaging operation. Also, by shooting a wide range with a omnidirectional camera, you can concentrate on the experience during the experience, and after the experience is over, cut out the necessary video parts from the captured omnidirectional video and edit them. There is also a way to leave a video of what you did.

前者の方法は、図63(a)に示すような、アクションカメラ901の本体が固定された頭部固定アクセサリー902を頭に装着するという煩わしい行為が必要になる。また図63(b)に示すように、撮影者が頭部固定アクセサリー902によってアクションカメラ901を頭部に装着すると、見栄えも悪い上、撮影者の髪型も乱れるなどの問題も起きる。さらには、撮影者が頭に装着されている頭部固定アクセサリー902とアクションカメラ901について、その重さなどの存在が気になったり、第3者に対して見栄えが悪くて気になったりしていた。そのため、図63(b)に示す状態では撮影者は体験に集中できなかったり、図63(b)に示す状態となること自体に撮影者が抵抗を感じたりするなどの理由で撮像そのものをし辛くなるという課題があった。 The former method requires the troublesome act of wearing a head fixing accessory 902 to which the main body of the action camera 901 is fixed, as shown in FIG. 63(a). Also, as shown in FIG. 63(b), when the photographer attaches the action camera 901 to the head with the head-fixing accessory 902, the appearance is not good, and problems such as the hairstyle of the photographer being disturbed occur. Furthermore, the photographer may be concerned about the weight of the head fixing accessory 902 and the action camera 901 worn on the head, or may be concerned about the unattractive appearance of the third person. was Therefore, in the state shown in FIG. 63(b), the photographer cannot concentrate on the experience, or the photographer feels resistance to the state shown in FIG. 63(b). I had a problem with it being tough.

一方、後者の方法は、画像変換や切り出し位置指定などの一連の作業が必要となる。例えば、図64に示すような、レンズ904と、撮影用ボタン905とを備える全天球型撮影カメラ903が知られている。レンズ904は、全天球型撮影カメラ903の筐体両面に構成される一対の半天球撮影用の魚眼レンズの一つであり、この一対の魚眼レンズを用いて全天球型撮影カメラ903は全天球撮影を行う。そして、この一対の魚眼レンズを用いた撮影画像を合成して全天球映像が得られる。 On the other hand, the latter method requires a series of operations such as image conversion and clipping position designation. For example, as shown in FIG. 64, an omnidirectional imaging camera 903 having a lens 904 and an imaging button 905 is known. The lens 904 is one of a pair of fish-eye lenses for half-sphere shooting arranged on both sides of the housing of the omnidirectional camera 903, and the omnidirectional camera 903 uses this pair of fish-eye lenses to perform omnidirectional imaging. Take ball shots. Then, an omnidirectional image is obtained by synthesizing the captured images using the pair of fisheye lenses.

図65は、全天球型撮影カメラ903で撮像された映像の変換作業の例を示す図である。 65A and 65B are diagrams showing an example of the conversion work of the video imaged by the omnidirectional imaging camera 903. FIG.

図65(a)は、全天球型撮影カメラ903により得られた全天球映像の例であり、被写体である撮影者906、子供907、木908が含まれている。この映像は、1対の魚眼レンズの投影画像を合成して得られた全天球映像であるため、撮影者906は大きく歪曲している。また、撮影者906が撮像しようとしていた被写体である子供907は、レンズ904の撮影範囲の周辺部に胴体部があったことで、胴体部が左右に大きく歪曲し、引き伸ばされている。一方、木908は、レンズ904の正面に位置する被写体であったため、大きな歪みなく撮像されている。 FIG. 65(a) is an example of an omnidirectional image obtained by the omnidirectional imaging camera 903, and includes a photographer 906, a child 907, and a tree 908 as subjects. Since this image is an omnidirectional image obtained by synthesizing projection images of a pair of fisheye lenses, the image of the photographer 906 is greatly distorted. A child 907, which is the subject that the photographer 906 was trying to capture, has a body part in the periphery of the imaging range of the lens 904, so the body part is greatly distorted left and right and stretched. On the other hand, the tree 908 is an object positioned in front of the lens 904, so it is imaged without significant distortion.

図65(a)の映像から、普段人が見ているような視野の映像を作り出すにはその一部分を切り出して、平面変換して表示する必要がある。 From the image in FIG. 65(a), in order to create an image of the field of view that people usually see, it is necessary to cut out a portion of the image, convert it into a plane, and display it.

図65(b)は、図65(a)の映像から、レンズ904の正面に位置する映像を切り出した映像である。図65(b)の映像では、普段人が見ているような視野で、木908が中央に映っている。しかし撮影者906が撮像しようとしていた子供907は図65(b)の映像には含まれていないので切り出し位置を変更しなくてはならない。ここでは具体的には切り出し位置を、図65(a)において図面向かって木908より左方向かつ30°下方方向とする必要がある。この切り出し作業を行ったあと、平面変換して表示した映像が図65(c)である。このように、図65(a)の映像から撮影者が撮像しようとしていた図65(c)の映像を得るには、必要な箇所を切り出して平面変換する作業をしなくてはならない。このため、撮影者は、体験中(撮像中)は体験に集中できるがその後の作業量が膨大になるといった課題がある。そこでこれらの課題を解決する実施例1のような構成を考えた。 FIG. 65(b) is an image obtained by cutting out an image located in front of the lens 904 from the image of FIG. 65(a). In the image of FIG. 65(b), a tree 908 is shown in the center in a field of view that people usually see. However, since the child 907 that the photographer 906 was trying to capture is not included in the image in FIG. 65(b), the clipping position must be changed. Specifically, it is necessary to set the cutting position to the left and 30° downward from the tree 908 as viewed in FIG. 65(a). FIG. 65(c) shows an image displayed after performing the clipping operation and then planarly converted. As described above, in order to obtain the image shown in FIG. 65(c), which the photographer intended to capture, from the image shown in FIG. For this reason, the photographer can concentrate on the experience during the experience (during imaging), but there is a problem that the amount of work after that becomes enormous. Therefore, a configuration like the first embodiment was considered to solve these problems.

(実施例1)
図1A~図1Dは、本実施例に係るウェラブルな撮像装置としての撮影・検出部10を含むカメラ本体1とこれと別体で構成される表示装置800からなるカメラシステムを説明するための図である。尚、本実施例では、カメラ本体1と表示装置800は別体である場合を例に示しているが、一体的に構成されていてもよい。また、カメラ本体1を首にかけて装着しているユーザを以下、使用者という。
(Example 1)
1A to 1D are diagrams for explaining a camera system comprising a camera body 1 including an imaging/detecting unit 10 as a wearable imaging device according to the present embodiment and a display device 800 configured separately from this. is. In this embodiment, the camera body 1 and the display device 800 are shown as separate bodies, but they may be constructed integrally. A user wearing the camera body 1 around the neck is hereinafter referred to as a user.

図1Aは、カメラ本体1の外観図である。 FIG. 1A is an external view of the camera body 1. FIG.

図1Aにおいて、カメラ本体1は、撮影・検出部10、バッテリー部90(電源手段)、右側接続部80R、左側接続部80Lを備える。右側接続部80Rは、使用者の身体の右側(図1Aの向かって左側)で撮影・検出部10とバッテリー部90とを接続する。左側接続部80Lは、使用者の身体の左側(図1Aの向かって右側)で撮影・検出部10とバッテリー部90とを接続する。 In FIG. 1A, the camera body 1 includes a photographing/detecting section 10, a battery section 90 (power supply means), a right connecting section 80R, and a left connecting section 80L. The right connecting portion 80R connects the imaging/detecting portion 10 and the battery portion 90 on the right side of the user's body (on the left side as viewed in FIG. 1A). The left connection portion 80L connects the imaging/detection portion 10 and the battery portion 90 on the left side of the user's body (on the right side as viewed in FIG. 1A).

撮影・検出部10は、顔方向検出窓13、スタートスイッチ14、ストップスイッチ15、撮像レンズ16、LED17、及びマイク19L,19Rを備える。 The photographing/detecting unit 10 includes a face direction detection window 13, a start switch 14, a stop switch 15, an imaging lens 16, an LED 17, and microphones 19L and 19R.

顔方向検出窓13は、撮影・検出部10に内蔵される、使用者の顔の各部の位置を検出するための赤外LED22(図5:赤外線照射手段)から投光される赤外線やその反射光線を透過する。 The face direction detection window 13 detects infrared rays emitted from an infrared LED 22 ( FIG. 5 : infrared irradiation means) for detecting the positions of each part of the user's face, which is built in the photographing/detecting section 10, and its reflection. Allows light to pass through.

スタートスイッチ14は、撮像を開始するためのスイッチである。 The start switch 14 is a switch for starting imaging.

ストップスイッチ15は、撮像を止めるためのスイッチである。 A stop switch 15 is a switch for stopping imaging.

撮像レンズ16は、撮像する光線を撮影・検出部10の内部に導き、固体撮像素子42(図5)上に光学像を形成する。 The imaging lens 16 guides light rays to be imaged into the imaging/detecting unit 10 and forms an optical image on the solid-state imaging device 42 (FIG. 5).

LED17は、撮像中であることを示したり、警告を示したりするLEDである。 The LED 17 is an LED that indicates that an image is being captured or indicates a warning.

マイク19R,19Lは、周辺の音を取りいれるマイクであり、マイク19Lは使用者の周辺左側(図1Aの向かって右側)の音を取り入れ、マイク19Rは使用者の周辺右側(図1Aの向かって左側)の音を取り入れる。 The microphones 19R and 19L are microphones that take in surrounding sounds. The microphone 19L takes in sounds from the left side of the user's surroundings (the right side in FIG. 1A), and the microphone 19R takes in the sounds from the right side of the user's surroundings (the right side in FIG. 1A). to the left).

図1Bは、カメラ本体1を使用者が掛けた様子を示す図である。 FIG. 1B is a diagram showing how the camera body 1 is hung by the user.

バッテリー部90が使用者の背中側に、撮影・検出部10が使用者の体の前側にくるように装着すると、撮影・検出部10の左右端部近傍に両端が接続される左側及び右側接続部80L,80Rによって胸方向に付勢され支えられる。これにより、撮影・検出部10が使用者の鎖骨の前あたりに位置するようになる。この時、顔方向検出窓13は使用者の顎の下に位置する。顔方向検出窓13内には、後ほど図2Eで図示する赤外線集光レンズ26がある。赤外線集光レンズ26の光軸(検出光軸)は使用者の顔に向いており、撮像レンズ16の光軸(撮像光軸)とは異なる方向を向いている。赤外集光レンズ26を含む顔方向検出部20(顔方向検出手段、図5参照)により顔の各部の位置から使用者の観察方向を検出する。これにより、後述する撮影部40(撮像手段)によるその観察方向の撮像が可能となっている。 When the battery unit 90 is attached to the user's back side and the photographing/detecting unit 10 is attached to the front side of the user's body, both ends are connected near the left and right ends of the photographing/detecting unit 10 Left and right connection The parts 80L and 80R are biased and supported in the chest direction. As a result, the photographing/detecting unit 10 is positioned in front of the user's clavicle. At this time, the face direction detection window 13 is located under the chin of the user. Within the face orientation detection window 13 is an infrared condensing lens 26 which is illustrated later in FIG. 2E. The optical axis (detection optical axis) of the infrared condensing lens 26 faces the user's face and faces in a different direction from the optical axis (imaging optical axis) of the imaging lens 16 . A face direction detection unit 20 (face direction detection means, see FIG. 5) including an infrared condensing lens 26 detects the viewing direction of the user from the position of each part of the face. As a result, an imaging unit 40 (imaging means), which will be described later, can capture an image in the observation direction.

体形の個人差や、洋服の違いによる設定位置の調整方法等については後述する。 How to adjust the set position according to individual differences in body shape and clothes will be described later.

また、このように撮影・検出部10を体の前面、バッテリー部90を背面に配置することで、重量を分散し、使用者の疲れの軽減や使用者が動いた際の遠心力等によるズレの抑制効果がある。 In addition, by arranging the photographing/detecting unit 10 on the front of the body and the battery unit 90 on the back, the weight is distributed, the fatigue of the user is reduced, and the displacement due to centrifugal force or the like when the user moves. has the effect of suppressing

尚、本実施例では、撮影・検出部10が使用者の鎖骨の前あたりに位置するように装着される例を示したがこれに限定されない。すなわち、カメラ本体1は顔方向検出部20により使用者の観察方向が検出でき、且つ撮影部40によりその観察方向の撮像が可能であれば、カメラ本体1は使用者の頭部以外の身体上のいずれに装着されてもよい。 In this embodiment, an example is shown in which the imaging/detecting unit 10 is attached so as to be positioned in front of the collarbone of the user, but the present invention is not limited to this. That is, if the camera body 1 can detect the user's observation direction by the face direction detection unit 20 and can capture an image in the observation direction by the imaging unit 40, the camera body 1 can be used on the user's body other than the head. may be attached to any of the

図1Cは、バッテリー部90を図1Aの後方から見た図である。 FIG. 1C is a view of the battery section 90 viewed from the rear of FIG. 1A.

図1Cにおいて、バッテリー部90は、充電ケーブル挿入口91、調整用ボタン92L,92R、及び背骨よけ切り欠き93を備える。 In FIG. 1C, the battery section 90 includes a charging cable insertion port 91, adjustment buttons 92L and 92R, and a notch 93 for protecting the spine.

充電ケーブル挿入口91は、不図示の充電ケーブルの挿入口であり、この充電ケーブルを介して外部電源から内部のバッテリー94L、94R(図3A参照)を充電したり、撮影・検出部10に給電したりする。 The charging cable insertion port 91 is an insertion port for a charging cable (not shown). Through this charging cable, internal batteries 94L and 94R (see FIG. 3A) are charged from an external power source, and power is supplied to the imaging/detecting unit 10. or

調整用ボタン92L,92Rは、左側及び右側接続部80L,80Rのバンド部82L,82Rの長さの調整用ボタンである。調整用ボタン92Lは、向かって左側のバンド部82Lを調節するためのボタンであり、調整用ボタン92Rは、向かって右側のバンド部82Rを調節するためのボタンである。尚、本実施例では、調整用ボタン92L,92Rでバンド部82L,82Rの夫々の長さを独立に調整するが、1つのボタンでバンド部82L,82Rの長さを同時に調整するようにしてもよい。 The adjustment buttons 92L, 92R are buttons for adjusting the length of the band portions 82L, 82R of the left and right connection portions 80L, 80R. The adjustment button 92L is a button for adjusting the left band portion 82L, and the adjustment button 92R is a button for adjusting the right band portion 82R. In this embodiment, the lengths of the band portions 82L and 82R are adjusted independently by the adjustment buttons 92L and 92R, but the lengths of the band portions 82L and 82R are adjusted simultaneously by one button. good too.

背骨よけ切り欠き93は、バッテリー部90が使用者の背骨部分に当たらない様に背骨部分を避けた切り欠き部である。人体の背骨の凸部を避けることで装着の不快感を減らすと同時に、使用中に本体が左右に移動することを防止している。 The spine avoidance notch 93 is a notch portion that avoids the spine portion so that the battery portion 90 does not come into contact with the spine portion of the user. By avoiding the convex part of the spine of the human body, it reduces the discomfort of wearing it, and at the same time prevents the body from moving left and right during use.

図1Dは、カメラ本体1と別体で構成される、実施例1に係る携帯機器としての表示装置800の外観図である。 FIG. 1D is an external view of a display device 800 as a mobile device according to the first embodiment, which is configured separately from the camera body 1. FIG.

図1Dにおいて、表示装置800は、ボタンA802、表示部803、ボタンB804、インカメラ805、顔センサ806、角速度センサ807、及び加速度センサ808を備える。また、図1Dにおいては不図示であるが、カメラ本体1との高速接続が可能な無線LANを備える。 1D, the display device 800 includes a button A802, a display unit 803, a button B804, an in-camera 805, a face sensor 806, an angular velocity sensor 807, and an acceleration sensor 808. FIG. Also, although not shown in FIG. 1D, a wireless LAN capable of high-speed connection with the camera body 1 is provided.

ボタンA802は、表示装置800の電源ボタンの機能を備えるボタンである。表示装置800は、ボタンA802の長押しにより電源のONとOFFの操作を受け付け、ボタンA802の短押しによるその他の処理タイミングの指示を受け付ける。 A button A 802 is a button having the function of the power button of the display device 800 . The display device 800 accepts a power ON/OFF operation by long-pressing the button A802, and accepts other processing timing instructions by short-pressing the button A802.

表示部803は、カメラ本体1で撮像した映像を確認したり、設定に必要なメニュー画面を表示したりできる。本実施例では、表示部803の上面に透明なタッチセンサも設けて有り、表示中の画面(例えばメニュー画面)に対するタッチによる操作を受け付ける。 A display unit 803 can check an image captured by the camera body 1 and display a menu screen necessary for setting. In this embodiment, a transparent touch sensor is also provided on the upper surface of the display unit 803, and receives an operation by touching a screen being displayed (for example, a menu screen).

ボタンB804は、後述するキャリブレーション処理に用いられるキャリブレーションボタン854として機能するボタンである。 The button B804 is a button that functions as a calibration button 854 used for calibration processing, which will be described later.

インカメラ805は、表示装置800を観察している人を撮像することが可能なカメラである。 The in-camera 805 is a camera capable of capturing an image of a person observing the display device 800 .

顔センサ806は、表示装置800を観察している人の顔形状や観察方向を検出する。顔センサ806の具体的な構造は特に限定されないが、例えば構造光センサやToFセンサ、ミリ波レーダーなどの各種センサで実施することが可能である。 A face sensor 806 detects the face shape and viewing direction of a person viewing the display device 800 . Although the specific structure of the face sensor 806 is not particularly limited, it can be implemented with various sensors such as a structured light sensor, a ToF sensor, and a millimeter wave radar.

角速度センサ807は、表示装置800内部にあるため透視図の意味として点線で示されている。本実施例の表示装置800は後述するキャリブレータの機能も備えるため3次元のX,Y,Z方向の3方向のジャイロセンサが搭載されている。 Since the angular velocity sensor 807 is inside the display device 800, it is indicated by a dotted line as a perspective view. Since the display device 800 of the present embodiment also has a function of a calibrator, which will be described later, it is equipped with gyro sensors in the three-dimensional X, Y, and Z directions.

加速度センサ808は、表示装置800の姿勢を検出する。 An acceleration sensor 808 detects the orientation of the display device 800 .

尚、本実施例に係る表示装置800には、一般のスマートフォンが利用されており、そのスマートフォン内のファームウェアをカメラ本体1側のファームウェアに対応させることで、本発明にかかるカメラシステムを実施可能としている。但し、カメラ本体1側のファームウェアを表示装置800としてのスマートフォンのアプリケーションやOSに対応することによる本発明にかかるカメラシステムの実施も可能である。 A general smart phone is used for the display device 800 according to the present embodiment, and the camera system according to the present invention can be implemented by making the firmware in the smart phone compatible with the firmware on the camera body 1 side. there is However, it is also possible to implement the camera system according to the present invention by adapting the firmware of the camera body 1 side to the application and OS of the smartphone as the display device 800 .

図2A~図2Fは、撮影・検出部10を詳細に説明する図である。これ以降の図では既に説明した部分については同一の番号を付することで、同一機能を意味し、本明細書中の説明を省略する。 2A to 2F are diagrams illustrating the imaging/detection unit 10 in detail. In the subsequent figures, the same numbers are assigned to the parts that have already been explained, meaning the same functions, and the explanation in this specification is omitted.

図2Aは、撮影・検出部10を正面から見た図である。 FIG. 2A is a front view of the photographing/detecting unit 10. FIG.

右側接続部80Rは、撮影・検出部10との角度を保持する硬質素材の角度保持部81Rとバンド部82Rを有し、左側接続部80Lは、角度保持部81Lとバンド部82Lを有する。 The right connecting portion 80R has an angle holding portion 81R and a band portion 82R made of a hard material for holding an angle with respect to the photographing/detecting portion 10, and the left connecting portion 80L has an angle holding portion 81L and a band portion 82L.

図2Bは、左側及び右側接続部80L,80Rのバンド部82L,82Rの形状を示す図である。本図では、バンド部82L,82Rの形状を示すため、角度保持部81L,81Rを透視させている。 FIG. 2B is a diagram showing the shape of the band portions 82L, 82R of the left and right connection portions 80L, 80R. In this figure, the angle holding portions 81L and 81R are seen through in order to show the shapes of the band portions 82L and 82R.

バンド部82Lは、カメラ本体1の装着時に使用者の身体の左側(図2Bの向かって右側)に配置される左側接続面83L、及び電気ケーブル84を備える。バンド部82Rは、カメラ本体1の装着時に使用者の身体の右側(図2Bの向かって左側)に配置される右側接続面83Rを備える。 The band portion 82L includes a left connection surface 83L arranged on the left side of the user's body (the right side in FIG. 2B) when the camera body 1 is worn, and an electric cable 84. As shown in FIG. The band portion 82R includes a right connecting surface 83R that is arranged on the right side of the user's body (the left side in FIG. 2B) when the camera body 1 is worn.

左側接続面83Lは、角度保持部81Lに接続され、真円ではない断面形状、ここでは楕円形状を有する。右側接続面83Rも同様の楕円形状を有する。右側接続面83R及び左側接続面83Lは、ちょうどカタカナの「ハ」の字の様な形状となっている。すなわち、図2B向かって下方から上方に行くほど、右側接続面83R及び左側接続面83Lの左右対称な位置にある部位の間の距離が近くなる。これにより、カメラ本体1を使用者が掛けた場合に、左側及び右側接続面83L,83Rの長軸方向が使用者の体に沿う方向となるため、バンド部82L,82Rが使用者の体に接するときに快適かつ、左右前後方向に撮影・検出部10が移動しないという効果が生じる。 The left connecting surface 83L is connected to the angle holding portion 81L and has a non-circular cross-sectional shape, here an elliptical shape. The right connecting surface 83R also has a similar elliptical shape. The right connection surface 83R and the left connection surface 83L are shaped like the Japanese katakana character "C". That is, the distance between the symmetrically positioned portions of the right connection surface 83R and the left connection surface 83L becomes closer from the bottom to the top in FIG. 2B. As a result, when the user hangs the camera body 1, the long axis direction of the left and right connecting surfaces 83L and 83R is aligned with the user's body. There is an effect that the photographing/detecting unit 10 does not move in the left, right, front, and rear directions while being comfortable when in contact with it.

電気ケーブル84(電力供給手段)は、バンド部82L内部に配線され、バッテリー部90と撮影・検出部10を電気的に接続する。電気ケーブル84はバッテリー部90の電源を撮影・検出部10に接続したり、外部と電気信号の送受信をしたりする。 An electric cable 84 (power supply means) is wired inside the band portion 82L and electrically connects the battery portion 90 and the photographing/detecting portion 10 . The electric cable 84 connects the power source of the battery section 90 to the photographing/detecting section 10 and transmits/receives electric signals to/from the outside.

図2Cは、撮影・検出部10を裏側からみた図である。図2Cは、使用者の体に接する側、すなわち、図2Aの反対側からみた図のため、右側接続部80Rと左側接続部80Lの位置関係が図2Aとは逆になっている。 FIG. 2C is a diagram of the photographing/detecting unit 10 as seen from the back side. Since FIG. 2C is a view from the side in contact with the user's body, that is, the opposite side of FIG. 2A, the positional relationship between the right connecting portion 80R and the left connecting portion 80L is reversed from that in FIG. 2A.

撮影・検出部10は、その裏側に、電源スイッチ11、撮像モードスイッチ12、及び胸部接続パッド18a,18bを備える。 The photographing/detecting unit 10 has a power switch 11, an imaging mode switch 12, and chest connection pads 18a and 18b on its back side.

電源スイッチ11は、カメラ本体1の電源のON/OFFを切り替える電源スイッチである。本実施例の電源スイッチ11は、スライドレバーの形のスイッチであるが、これに限定されない。例えば、電源スイッチ11は、プッシュ型のスイッチでもよいし、また、撮像レンズ16の不図示のスライドカバーと一体的に構成されたスイッチでもよい。 The power switch 11 is a power switch for switching ON/OFF of the power of the camera body 1 . The power switch 11 of this embodiment is a switch in the form of a slide lever, but is not limited to this. For example, the power switch 11 may be a push-type switch, or may be a switch integrated with a slide cover (not shown) of the imaging lens 16 .

撮像モードスイッチ12(変更手段)は、撮像モードを変更するスイッチであり、撮像にかかわるモードを変更できる。本実施例では、撮像モードスイッチ12は、静止画モードや動画モードの他、後述する、表示装置800を用いて設定するプリ設定モードに切り替えることが可能である。本実施例では、撮像モードスイッチ12は、レバーのスライドにより図2Cに示す「Photo」、「Normal」、「Pre」のうちの一つを選択できるスライドレバーの形のスイッチである。撮像モードは、「Photo」へのスライドにより静止画モードに移行し、「Normal」へのスライドにより動画モードに移行し、「Pre」へのスライドによりプリ設定モードへ移行する。尚、撮像モードスイッチ12は、撮像モードの変更が可能なスイッチであれば、本実施例の形態に限定されない。例えば、「Photo」、「Normal」、「Pre」の3つのボタンで撮像モードスイッチ12は構成されていてもよい。 The imaging mode switch 12 (changer) is a switch for changing the imaging mode, and can change the mode related to imaging. In this embodiment, the imaging mode switch 12 can switch to a preset mode set using the display device 800, which will be described later, in addition to the still image mode and moving image mode. In this embodiment, the imaging mode switch 12 is a switch in the form of a slide lever that can select one of "Photo", "Normal", and "Pre" shown in FIG. 2C by sliding the lever. The imaging mode shifts to still image mode by sliding to "Photo", shifts to moving image mode by sliding to "Normal", and shifts to preset mode by sliding to "Pre". Note that the imaging mode switch 12 is not limited to the mode of this embodiment as long as it is a switch that can change the imaging mode. For example, the imaging mode switch 12 may be composed of three buttons "Photo", "Normal", and "Pre".

胸部接続パッド18a,18b(固定手段)は、撮影・検出部10が使用者の体に対して付勢されるときに、使用者の体に当たる部分である。図2Aに示すように、撮影・検出部10は装着時に縦(上下)の全長より横(左右)の全長が長くなるように形作られており、胸部接続パッド18a,18bは、撮影・検出部10の左右の端部近傍に配置されている。このように配置されることで、カメラ本体1での撮像中の左右の回転ブレを抑制することが可能となる。また、胸部接続パッド18a,18bがあることで、電源スイッチ11や、撮像モードスイッチ12が身体に接触することを防ぐことができる。さらに、胸部接続パッド18a,18bは、長時間の撮像で撮影・検出部10の温度が上昇しても使用者の体にその熱が伝わることを防ぐ役目や、撮影・検出部10の角度調整の役目も担っている。 The chest connection pads 18a and 18b (fixing means) are parts that come into contact with the user's body when the imaging/detection unit 10 is urged against the user's body. As shown in FIG. 2A, the photographing/detecting unit 10 is shaped so that its horizontal (left and right) length is longer than its vertical (upper and lower) length when worn, and the chest connection pads 18a and 18b are attached to the photographing/detecting unit. 10 are arranged near the left and right ends. By arranging in this way, it becomes possible to suppress left-right rotational blurring during imaging by the camera body 1 . Moreover, the presence of the chest connection pads 18a and 18b can prevent the power switch 11 and the imaging mode switch 12 from coming into contact with the body. Furthermore, the chest connection pads 18a and 18b serve to prevent the heat from being transmitted to the user's body even if the temperature of the imaging/detecting unit 10 rises due to long-time imaging, and to adjust the angle of the imaging/detecting unit 10. also plays the role of

図2Dは、撮影・検出部10を上からみた図である。 FIG. 2D is a top view of the photographing/detecting unit 10. FIG.

図2Dに示すように、撮影・検出部10の上面の中央部に、顔方向検出窓13が設けられ、また、胸部接続パッド18a,18bは、撮影・検出部10から突出している。 As shown in FIG. 2D , a face direction detection window 13 is provided in the center of the upper surface of the photographing/detecting section 10 , and chest connection pads 18 a and 18 b protrude from the photographing/detecting section 10 .

図2Eは、撮影・検出部10の内部であって、顔方向検出窓13の下部に配置される、顔方向検出部20の構成を示す図である。 FIG. 2E is a diagram showing the configuration of the face direction detection section 20 which is arranged inside the photographing/detection section 10 and below the face direction detection window 13 .

顔方向検出部20は、赤外LED22、及び赤外線集光レンズ26を備える。顔方向検出部20は、さらに、後述する図5の赤外LED点灯回路21と赤外検出処理装置27を備える。 The face direction detection unit 20 includes an infrared LED 22 and an infrared condensing lens 26 . The face direction detection unit 20 further includes an infrared LED lighting circuit 21 and an infrared detection processing device 27 shown in FIG. 5, which will be described later.

赤外LED22は、使用者に向けて赤外線23(図5)を投光する。 The infrared LED 22 projects infrared rays 23 (FIG. 5) toward the user.

赤外線集光レンズ26は、赤外LED22からの赤外線23の投光時に使用者から反射してくる反射光線25(図5)を赤外検出処理装置27の図示しないセンサに結像させるレンズである。 The infrared condensing lens 26 is a lens that forms an image of the reflected light beam 25 (FIG. 5) reflected from the user when the infrared ray 23 is projected from the infrared LED 22 on a sensor (not shown) of the infrared detection processing device 27. .

図2Fは、カメラ本体1を使用者が掛けた状態を使用者の左側面からみた図である。 FIG. 2F is a view of the state in which the user hangs the camera body 1 as viewed from the left side of the user.

角度調節ボタン85Lは、角度保持部81Lに設けられ、撮影・検出部10の角度調節の際に用いられる。尚、本図においては図示していないが、反対側面にある角度保持部81Rの内部にも、角度調節ボタン85Lと対称的な位置に角度調節ボタンが設定されている。 The angle adjustment button 85L is provided in the angle holding section 81L and used when adjusting the angle of the photographing/detecting section 10. FIG. Although not shown in this figure, an angle adjustment button is also set inside the angle holding portion 81R on the opposite side at a position symmetrical to the angle adjustment button 85L.

角度調節ボタンは、図2A,図2C、図2Dでも見える位置にあるが、説明の単純化のために省略している。 The angle adjustment buttons are also visible in FIGS. 2A, 2C, and 2D, but are omitted for simplicity of explanation.

使用者は、角度調節ボタン85Lを押しながら角度保持部81Lを図2F向かって上下に動かすことで撮影・検出部10と角度保持部81Lの角度を変更することが可能となる。右側についても同様である。また、胸部接続パッド18a,18bは、その突出角度の変更が可能である。撮影・検出部10は、この二種類の角度変更部材(角度調節ボタン及び胸部接続パッド)の働きにより、使用者の胸位置形状の個人差にかかわらず撮像レンズ16の光軸を水平に調節することが可能である。 The user can change the angle between the photographing/detecting section 10 and the angle holding section 81L by moving the angle holding section 81L up and down toward FIG. 2F while pressing the angle adjustment button 85L. The same is true for the right side. Moreover, the chest connection pads 18a and 18b can be changed in projection angle. The photographing/detecting unit 10 horizontally adjusts the optical axis of the imaging lens 16 by the action of these two types of angle changing members (the angle adjustment button and the chest connection pad) regardless of individual differences in the shape of the chest position of the user. It is possible.

図3は、バッテリー部90の詳細を説明する図である。 FIG. 3 is a diagram illustrating the details of the battery section 90. As shown in FIG.

図3(a)は、バッテリー部90を背面から一部透視表示した図である。 FIG. 3A is a partially see-through view of the battery section 90 from the back.

図3(a)に示すように、バッテリー部90はその重量バランスを取るため、内部に左バッテリー94Lと右バッテリー94Rの2個が対称的に搭載されている。このようにバッテリー部90の中央部に対して左右のバッテリー94L,94Rを対称的に配置することで、左右の重量バランスをあわせ、カメラ本体1の位置ズレを防止している。尚、バッテリー部90は、バッテリーを1つのみ搭載する構成としても良い。 As shown in FIG. 3(a), the battery section 90 has a left battery 94L and a right battery 94R symmetrically mounted therein in order to balance its weight. By symmetrically arranging the left and right batteries 94L and 94R with respect to the central portion of the battery section 90 in this manner, the left and right weight balances are balanced and the positional deviation of the camera body 1 is prevented. Note that the battery section 90 may have a configuration in which only one battery is mounted.

図3(b)は、バッテリー部90を上部からみた図である。本図においても、バッテリー94L,94Rが透視で示されている。 FIG. 3(b) is a top view of the battery section 90. As shown in FIG. Also in this figure, the batteries 94L and 94R are shown transparently.

図3(b)に示すように、背骨よけ切り欠き93の両サイドにバッテリー94L,94Rを対称的に配置することにより、比較的重量があるバッテリー部90を使用者に負担なく装着させることが可能である。 As shown in FIG. 3(b), by symmetrically arranging the batteries 94L and 94R on both sides of the notch 93 for avoiding the spine, the relatively heavy battery section 90 can be worn by the user without burden. is possible.

図3(c)は、バッテリー部90を裏側からみた図である。図3(c)は、使用者の体に接する側、すなわち、図3(a)の反対側からみた図である。 FIG. 3C is a diagram of the battery section 90 viewed from the back side. FIG. 3(c) is a view seen from the side in contact with the user's body, that is, the opposite side of FIG. 3(a).

図3(c)に示すように、背骨よけ切り欠き93は、使用者の背骨に沿うように中央に設けられている。 As shown in FIG. 3(c), the spine-relief notch 93 is centrally provided along the user's spine.

図4は、カメラ本体1の機能ブロック図である。詳細は後述するので、ここでは図4を用いてカメラ本体1で実行される大まかな処理の流れを説明する。 FIG. 4 is a functional block diagram of the camera body 1. As shown in FIG. Since the details will be described later, the general flow of processing executed by the camera body 1 will be described here with reference to FIG.

図4において、カメラ本体1は、顔方向検出部20、記録方向・画角決定部30、撮影部40、画像切り出し・現像処理部50、一次記録部60、送信部70、及び他制御部111を備える。これらの機能ブロックは、カメラ本体1の全体制御を行う全体制御CPU101(図5)の制御により実行される。 4, the camera body 1 includes a face direction detection unit 20, a recording direction/angle of view determination unit 30, a photographing unit 40, an image clipping/development processing unit 50, a primary recording unit 60, a transmission unit 70, and other control unit 111. Prepare. These functional blocks are executed under the control of an overall control CPU 101 (FIG. 5) that performs overall control of the camera body 1. FIG.

顔方向検出部20(観察方向検出手段)は、上記の赤外LED22や赤外検出処理装置27などにより実行される機能ブロックであり、顔方向を検出して観察方向を類推し、これを記録方向・画角決定部30に渡す。 The face direction detection unit 20 (observation direction detection means) is a functional block executed by the infrared LED 22, the infrared detection processing device 27, etc., detects the face direction, infers the observation direction, and records it. It is passed to the direction/angle of view determination unit 30 .

記録方向・画角決定部30(記録方向決定手段)は、顔方向検出部20で類推された観察方向に基づき各種演算を行って、撮影部40からの映像を切り出す際の位置や範囲の情報を決定し、この情報を画像切り出し・現像処理部50に渡す。 The recording direction/angle of view determining unit 30 (recording direction determining means) performs various calculations based on the observation direction inferred by the face direction detecting unit 20, and obtains information on the position and range when extracting the image from the photographing unit 40. is determined, and this information is transferred to the image clipping/development processing unit 50 .

撮影部40は、被写体からの光線を広角の映像に変換し、その映像を画像切り出し・現像処理部50に渡す。 The photographing unit 40 converts the light beam from the object into a wide-angle image, and transfers the image to the image clipping/development processing unit 50 .

画像切り出し・現像処理部50(現像手段)は、記録方向・画角決定部30からの情報を用いて、撮影部40からの映像から使用者が見ている方向の映像のみを切り出して現像し、それを一次記録部60に渡す。 The image clipping/developing processing unit 50 (developing means) uses the information from the recording direction/angle of view determining unit 30 to extract and develop only the image in the direction in which the user is looking from the image from the photographing unit 40. , to the primary recording unit 60 .

一次記録部60は、一次メモリ103(図5)などにより構成される機能ブロックであり、映像情報を記録し、必要タイミングで送信部70に渡す。 The primary recording unit 60 is a functional block configured by the primary memory 103 (FIG. 5) and the like, records video information, and transfers it to the transmitting unit 70 at the necessary timing.

送信部70(映像出力手段)は、あらかじめ決められた通信相手である、表示装置800(図1D)、キャリブレータ850、及び簡易表示装置900と無線接続し、これらに対して通信を行う。 The transmission unit 70 (video output means) is wirelessly connected to the display device 800 (FIG. 1D), the calibrator 850, and the simple display device 900, which are predetermined communication partners, and communicates with them.

表示装置800は、高速接続可能な無線LAN(以下「高速無線」という)で送信部70と接続可能である。ここで本実施例では、高速無線に、IEEE802.11ax(WiFi 6)規格に対応する無線通信を利用するが、他の規格、例えばWiFi 4規格やWiFi 5規格に対応する無線通信を利用してもよい。また、表示装置800はカメラ本体1専用に開発した機器でも良いし、一般的なスマートフォンや、タブレット端末等でも良い。 The display device 800 can be connected to the transmitter 70 via a wireless LAN (hereinafter referred to as "high-speed wireless") that allows high-speed connection. Here, in this embodiment, wireless communication corresponding to the IEEE802.11ax (WiFi 6) standard is used for high-speed wireless communication, but wireless communication corresponding to other standards such as the WiFi 4 standard and the WiFi 5 standard is used. good too. Further, the display device 800 may be a device developed exclusively for the camera body 1, or may be a general smart phone, a tablet terminal, or the like.

尚、送信部70と表示装置800の接続には、小電力無線を用いていてもよいし、高速無線と小電力無線の両方で接続したり、切り替えて接続したりしても良い。本実施例では、後述する動画映像の映像ファイルなどデータ量の多いものは高速無線で伝送し、軽量のデータや、伝送に時間がかかっても良いデータは、小電力無線で伝送する。ここで本実施例では、小電力無線に、Bluetoothを利用するが、NFC(Near Field Communication)等の他の近距離(短距離)無線通信を用いてもよい。 The transmission unit 70 and the display device 800 may be connected using low-power radio, or may be connected by both high-speed radio and low-power radio, or may be connected by switching. In this embodiment, a large amount of data, such as a video file of a moving image, which will be described later, is transmitted by high-speed wireless transmission, and light data or data that may take a long time to transmit is transmitted by low-power wireless transmission. In this embodiment, Bluetooth is used for low-power wireless communication, but other short-range wireless communication such as NFC (Near Field Communication) may be used.

キャリブレータ850は、カメラ本体1の初期設定時や、個別設定を行う機器であり、表示装置800と同様に高速無線で送信部70と接続可能である。キャリブレータ850についての詳細は後述する。また、表示装置800がこのキャリブレータ850としての機能を兼ね備えても良い。 The calibrator 850 is a device for performing initial settings of the camera body 1 and individual settings, and can be connected to the transmission unit 70 by high-speed wireless communication, like the display device 800 . Details of the calibrator 850 will be described later. Also, the display device 800 may also function as the calibrator 850 .

簡易表示装置900は、たとえば小電力無線でしか送信部70と接続できない表示装置である。 The simple display device 900 is a display device that can be connected to the transmitter 70 only by low-power radio, for example.

簡易表示装置900は、送信部70との間で、時間的な制約により動画映像の伝送はできないが、撮像開始・停止のタイミング伝送や、構図確認程度の画像確認などが行える。また、簡易表示装置900は、表示装置800と同様、カメラ本体1専用に開発した機器でも良いし、スマートウォッチなどであっても良い。 The simple display device 900 cannot transmit moving images with the transmission unit 70 due to time restrictions, but can perform timing transmission of imaging start/stop and image confirmation such as composition confirmation. As with the display device 800, the simple display device 900 may be a device developed exclusively for the camera body 1, or may be a smart watch or the like.

図5は、カメラ本体1のハードウェア構成を示すブロック図である。また、図1A~図1C等を用いて説明した構成・機能については、同じ番号を用い詳細説明は省略する。 FIG. 5 is a block diagram showing the hardware configuration of the camera body 1. As shown in FIG. Further, the configurations and functions described with reference to FIGS. 1A to 1C and the like are denoted by the same reference numerals, and detailed description thereof will be omitted.

図5においてカメラ本体1は、全体制御CPU101、電源スイッチ11、撮像モードスイッチ12、顔方向検出窓13、スタートスイッチ14、ストップスイッチ15、撮像レンズ16、及びLED17を備える。 5, the camera body 1 includes an overall control CPU 101, a power switch 11, an imaging mode switch 12, a face direction detection window 13, a start switch 14, a stop switch 15, an imaging lens 16, and an LED 17.

カメラ本体1はまた、顔方向検出部20(図4)を構成する、赤外LED点灯回路21、赤外LED22、赤外線集光レンズ26、及び赤外検出処理装置27を備える。 The camera body 1 also includes an infrared LED lighting circuit 21, an infrared LED 22, an infrared condensing lens 26, and an infrared detection processing device 27, which constitute the face direction detection section 20 (FIG. 4).

また、カメラ本体1は、撮像ドライバー41、固体撮像素子42、及び撮像信号処理回路43からなる撮影部40(図4)や、小電力無線ユニット71及び高速無線ユニット72からなる送信部70(図4)を備える。 The camera body 1 also includes an imaging unit 40 (FIG. 4) comprising an imaging driver 41, a solid-state imaging device 42, and an imaging signal processing circuit 43, and a transmitting unit 70 (FIG. 4) comprising a low-power wireless unit 71 and a high-speed wireless unit 72. 4).

尚、カメラ本体1には、本実施例では撮影部40は1つしか設けられていないが2以上の撮影部40を設け、3D映像の撮像をしたり、1つの撮影部40で取得できる画角より広角の映像の撮像をしたり、複数方向の撮像をしたりしてもよい。 Although only one imaging unit 40 is provided in the present embodiment, the camera body 1 is provided with two or more imaging units 40 to capture a 3D image or an image that can be acquired by one imaging unit 40. A wide-angle image may be captured, or images may be captured in a plurality of directions.

カメラ本体1はまた、大容量不揮発性メモリ51、内蔵不揮発性メモリ102、及び一次メモリ103等の各種メモリを備える。 The camera body 1 also includes various memories such as a large-capacity nonvolatile memory 51 , an internal nonvolatile memory 102 , and a primary memory 103 .

さらに、カメラ本体1は、音声処理部104、スピーカー105、振動体106、角速度センサ107、加速度センサ108、及び各種スイッチ110を備える。 Further, the camera body 1 includes an audio processing section 104 , a speaker 105 , a vibrating body 106 , an angular velocity sensor 107 , an acceleration sensor 108 and various switches 110 .

全体制御CPU101は、図2Cを用いて前述した電源スイッチ11などが接続され、このカメラ本体1の制御を行う。図4の記録方向・画角決定部30、画像切り出し・現像処理部50、及び他制御部111は、全体制御CPU101自身によって実現される。 The overall control CPU 101 is connected to the power switch 11 described above with reference to FIG. 2C, and controls the camera body 1 . The recording direction/angle of view determination unit 30, image clipping/development processing unit 50, and other control unit 111 shown in FIG. 4 are implemented by the overall control CPU 101 itself.

赤外LED点灯回路21は、図2Eを用いて前述した赤外LED22の点灯・消灯の制御を行い、赤外LED22から使用者に向けた赤外線23の投光を制御する。 The infrared LED lighting circuit 21 controls lighting and extinguishing of the infrared LED 22 described above with reference to FIG. 2E, and controls projection of infrared rays 23 from the infrared LED 22 toward the user.

顔方向検出窓13は、可視光カットフィルタで構成され、可視光線はほぼ透過できないが、赤外域の光である赤外線23やその反射光線25は十分透過する。 The face direction detection window 13 is composed of a visible light cut filter, which hardly transmits visible light, but sufficiently transmits infrared ray 23 which is light in the infrared region and its reflected light 25 .

赤外線集光レンズ26は、反射光線25を集光するレンズである。 The infrared condensing lens 26 is a lens that condenses the reflected light beam 25 .

赤外検出処理装置27(赤外線検出手段)は、赤外線集光レンズ26で集光された反射光線25を検出するセンサを有する。このセンサは、集光された反射光線25により形成された像をセンサデータに変換して、全体制御CPU101へ渡す。 The infrared detection processing device 27 (infrared detection means) has a sensor that detects the reflected light beam 25 condensed by the infrared condensing lens 26 . This sensor converts the image formed by the collected reflected light beam 25 into sensor data and transfers it to the overall control CPU 101 .

図1Bに示すようにカメラ本体1を使用者が掛けている場合、顔方向検出窓13は使用者の顎の下に位置する。このため、赤外LED22から投光された赤外線23は、図5に示すように顔方向検出窓13を透過して使用者の顎付近である赤外線照射面24に照射される。また、赤外線照射面24で反射した反射光線25は、顔方向検出窓13を透過し、赤外線集光レンズ26によって、赤外検出処理装置27にあるセンサに集光される。 When the user hangs the camera body 1 as shown in FIG. 1B, the face direction detection window 13 is located under the user's chin. Therefore, the infrared rays 23 projected from the infrared LED 22 pass through the face direction detection window 13 and are irradiated onto the infrared irradiation surface 24 near the chin of the user as shown in FIG. A reflected light ray 25 reflected by the infrared irradiation surface 24 passes through the face direction detection window 13 and is condensed by an infrared condensing lens 26 to a sensor in an infrared detection processing device 27 .

各種スイッチ110は、図1A~図1C等では不図示である、詳細は省略するが、本実施例と関係がない機能を実行するためのスイッチである。 The various switches 110 are not shown in FIGS. 1A to 1C and the like, and although the details are omitted, they are switches for executing functions unrelated to this embodiment.

撮像ドライバー41は、タイミングジェネレータ等を含み、撮像にかかわる各部に各種タイミング信号を生成・出力し、固体撮像素子42を駆動する。 The imaging driver 41 includes a timing generator and the like, generates and outputs various timing signals to each unit related to imaging, and drives the solid-state imaging device 42 .

固体撮像素子42は、図1Aを用いて説明した撮像レンズ16から投影された被写体像を光電変換してえられた信号を撮像信号処理回路43に出力する。 The solid-state imaging device 42 outputs a signal obtained by photoelectrically converting the subject image projected from the imaging lens 16 described with reference to FIG. 1A to the imaging signal processing circuit 43 .

撮像信号処理回路43は、固体撮像素子42からの信号に対してクランプなどの処理やA/D変換などの処理を行って生成した撮像データを全体制御CPU101に出力する。 The imaging signal processing circuit 43 outputs imaging data generated by performing processing such as clamping and processing such as A/D conversion on the signal from the solid-state imaging device 42 to the overall control CPU 101 .

内蔵不揮発性メモリ102は、フラッシュメモリなどが用いられ、全体制御CPU101の起動プログラムや、各種プログラムモードの設定値が記憶されている。本実施例では、観察視野(画角)や防振制御の効果レベルを設定できるので、そういった設定値も記録する。 The built-in non-volatile memory 102 is a flash memory or the like, and stores a startup program for the overall control CPU 101 and setting values for various program modes. In this embodiment, since the observation field of view (angle of view) and the effect level of image stabilizing control can be set, such setting values are also recorded.

一次メモリ103は、RAMなどで構成され、処理中の映像データを一時的に記憶したり、全体制御CPU101の演算結果を一時的に記憶したりする。 The primary memory 103 is composed of a RAM or the like, and temporarily stores video data being processed and temporarily stores the calculation results of the overall control CPU 101 .

大容量不揮発性メモリ51は、画像データを記憶する。本実施例では、大容量不揮発性メモリ51は脱着できない半導体メモリである。ただし、大容量不揮発性メモリ51は、SDカードなどの脱着可能な記録媒体で構成してもよいし、内蔵不揮発性メモリ102と併用しても良い。 A large-capacity nonvolatile memory 51 stores image data. In this embodiment, the large-capacity nonvolatile memory 51 is a non-removable semiconductor memory. However, the large-capacity nonvolatile memory 51 may be composed of a removable recording medium such as an SD card, or may be used together with the built-in nonvolatile memory 102 .

小電力無線ユニット71は、小電力無線で表示装置800、キャリブレータ850、及び簡易表示装置900との間でデータのやり取りを行う。 The low-power radio unit 71 exchanges data with the display device 800, the calibrator 850, and the simple display device 900 by low-power radio.

高速無線ユニット72は、高速無線で表示装置800、及びキャリブレータ850との間でデータのやり取りを行う。 The high-speed wireless unit 72 exchanges data with the display device 800 and the calibrator 850 by high-speed wireless.

音声処理部104は、マイク19L、マイク19Rにより収音された外部の音(アナログ信号)を処理し音声信号を生成する。 The audio processing unit 104 processes external sounds (analog signals) picked up by the microphones 19L and 19R to generate audio signals.

LED17、スピーカー105及び振動体106は、光を発したり、音を発したり、振動したりすることで、カメラ本体1の状態を使用者に対して通達したり警告したりする。 The LED 17, the speaker 105, and the vibrator 106 emit light, emit sound, or vibrate to notify or warn the user of the state of the camera body 1. FIG.

角速度センサ107は、ジャイロ等を用いたセンサであり、カメラ本体1自体の移動をジャイロデータとして検出する。 The angular velocity sensor 107 is a sensor using a gyro or the like, and detects movement of the camera body 1 itself as gyro data.

加速度センサ108は、撮影・検出部10の姿勢を検出する。 The acceleration sensor 108 detects the orientation of the imaging/detecting unit 10 .

図6は、表示装置800のハードウェア構成を示すブロック図である。図1Dを用いて説明した箇所は説明の簡単化のため、同一の符号を用い説明を省略する。 FIG. 6 is a block diagram showing the hardware configuration of the display device 800. As shown in FIG. For simplification of explanation, the parts explained with reference to FIG. 1D are denoted by the same reference numerals and the explanation thereof is omitted.

図6において、表示装置800は、表示装置制御部801、ボタンA802、表示部803、ボタンB804、顔センサ806、角速度センサ807、加速度センサ808、撮像信号処理回路809、及び各種スイッチ811を備える。 6, the display device 800 includes a display device control unit 801, a button A802, a display unit 803, a button B804, a face sensor 806, an angular velocity sensor 807, an acceleration sensor 808, an imaging signal processing circuit 809, and various switches 811.

また、表示装置800は、内蔵不揮発性メモリ812、一次メモリ813、大容量不揮発性メモリ814、スピーカー815、振動体816、LED817、音声処理部820、小電力無線ユニット871、及び高速無線ユニット872を備える。上記の各要素は、表示装置制御部801に接続されている。 The display device 800 also includes a built-in non-volatile memory 812, a primary memory 813, a large-capacity non-volatile memory 814, a speaker 815, a vibrating body 816, an LED 817, an audio processing section 820, a low-power radio unit 871, and a high-speed radio unit 872. Prepare. Each element described above is connected to the display device control unit 801 .

表示装置制御部801は、CPUにより構成され、表示装置800の制御を行う。 A display device control unit 801 is configured by a CPU and controls the display device 800 .

撮像信号処理回路809は、カメラ本体1内部の撮像ドライバー41、固体撮像素子42、撮像信号処理回路43と同等の機能を担い、インカメラ用レンズ805aと共に図1Dのインカメラ805を構成している。撮像信号処理回路809で出力されたデータは、表示装置制御部801内で処理される。このデータの処理内容については後述する。 The imaging signal processing circuit 809 has functions equivalent to those of the imaging driver 41, the solid-state imaging device 42, and the imaging signal processing circuit 43 inside the camera body 1, and constitutes the in-camera 805 of FIG. 1D together with the in-camera lens 805a. . Data output from the imaging signal processing circuit 809 is processed within the display device control unit 801 . Details of processing of this data will be described later.

各種スイッチ811は、本実施例と関係がない機能を実行するためのスイッチである。 Various switches 811 are switches for executing functions unrelated to this embodiment.

角速度センサ807は、ジャイロ等を用いたセンサであり、表示装置800自体の移動を検出する。 An angular velocity sensor 807 is a sensor using a gyro or the like, and detects movement of the display device 800 itself.

加速度センサ808は、表示装置800自体の姿勢を検出する。 An acceleration sensor 808 detects the orientation of the display device 800 itself.

内蔵不揮発性メモリ812は、フラッシュメモリなどが用いられ、表示装置制御部801の起動プログラムや、各種プログラムモードの設定値が記憶されている。 A built-in non-volatile memory 812 uses a flash memory or the like, and stores a startup program for the display device control unit 801 and setting values for various program modes.

一次メモリ813は、RAMなどで構成され、処理中の映像データを一時的に記憶したり、撮像信号処理回路809の演算結果を一時的に記憶したりする。本実施例では、動画映像の録画中は、各フレームの撮像時刻に角速度センサ107で検出されたジャイロデータが各フレームと紐づいて、一次メモリ813に保持される。 A primary memory 813 is configured by a RAM or the like, and temporarily stores video data being processed and temporarily stores the calculation results of the imaging signal processing circuit 809 . In this embodiment, during video recording, the gyro data detected by the angular velocity sensor 107 at the imaging time of each frame is associated with each frame and held in the primary memory 813 .

大容量不揮発性メモリ814は、表示装置800の画像データを記憶する。本実施例では、大容量不揮発性メモリ814は、SDカードの様に脱着可能なメモリで構成される。尚、カメラ本体1にある大容量不揮発性メモリ51のように脱着できないメモリで構成してもよい。 A large-capacity non-volatile memory 814 stores image data of the display device 800 . In this embodiment, the large-capacity non-volatile memory 814 is composed of removable memory such as an SD card. A non-detachable memory such as the large-capacity non-volatile memory 51 in the camera body 1 may be used.

スピーカー815、振動体816及びLED817は、音を発したり、振動したり、光を発したりすることで、表示装置800の状態を使用者に対して通達したり、警告したりする。 The speaker 815, vibrator 816, and LED 817 emit sound, vibrate, or emit light to notify or warn the user of the state of the display device 800. FIG.

音声処理部820は、左マイク819L、右マイク819Rにより収音された外部の音(アナログ信号)を処理し音声信号を生成する。 The audio processing unit 820 processes external sounds (analog signals) picked up by the left microphone 819L and the right microphone 819R to generate audio signals.

小電力無線ユニット871は、小電力無線でカメラ本体1との間でデータのやり取りを行う。 The low-power radio unit 871 exchanges data with the camera body 1 by low-power radio.

高速無線ユニット872は、高速無線でカメラ本体1との間でデータのやり取りを行う。 The high-speed radio unit 872 exchanges data with the camera body 1 by high-speed radio.

顔センサ806(顔検出手段)は、赤外LED点灯回路821、赤外LED822、赤外線集光レンズ826、及び赤外検出処理装置827を備える。 The face sensor 806 (face detection means) includes an infrared LED lighting circuit 821 , an infrared LED 822 , an infrared condenser lens 826 and an infrared detection processing device 827 .

赤外LED点灯回路821は、図5の赤外LED点灯回路21と同様の機能を有する回路であり、赤外LED822の点灯・消灯の制御を行い、赤外LED822から使用者に向けた赤外線823の投光を制御する。 The infrared LED lighting circuit 821 is a circuit having the same function as the infrared LED lighting circuit 21 in FIG. to control the light emission of the

赤外線集光レンズ826は、赤外線823の反射光線825を集光するレンズである。 The infrared condensing lens 826 is a lens that condenses the reflected light beam 825 of the infrared rays 823 .

赤外検出処理装置827は、赤外線集光レンズ826で集光された反射光線を検出するセンサを有する。このセンサは、集光された反射光線825をセンサデータに変換して、表示装置制御部801へ渡す。 Infrared detection processing device 827 has a sensor that detects the reflected light beams collected by infrared collecting lens 826 . This sensor converts the collected reflected light beam 825 into sensor data and passes it to the display device controller 801 .

図1Dに示す顔センサ806を使用者に向けると、図6に示すように、赤外LED822から投光された赤外線823が、使用者の顔全体である赤外線照射面824に照射される。また、赤外線照射面824で反射した反射光線825は、赤外線集光レンズ826によって、赤外検出処理装置827にあるセンサに集光される。 When the face sensor 806 shown in FIG. 1D is directed toward the user, as shown in FIG. 6, infrared rays 823 projected from the infrared LED 822 are irradiated onto the infrared irradiation surface 824, which is the entire face of the user. A reflected light ray 825 reflected by the infrared irradiation surface 824 is condensed by an infrared condensing lens 826 to a sensor in an infrared detection processing device 827 .

その他機能部830は、本実施例と関係がない電話機能などのスマートフォンの機能を実行する。 The other function unit 830 executes smartphone functions such as telephone functions that are not related to this embodiment.

以下、カメラ本体1及び表示装置800の使い方について説明する。 How to use the camera body 1 and the display device 800 will be described below.

図7Aは、カメラ本体1及び表示装置800において実行される、本実施例に係る撮像記録処理の概要を示すフローチャートである。 FIG. 7A is a flow chart showing an outline of image recording processing according to the present embodiment, which is executed in the camera body 1 and the display device 800. FIG.

説明の補助として、図7Aでは各ステップの右側にそのステップが図4に示すどの機器で行われているかが記載されている。すなわち、図7AのステップS100~S700はカメラ本体1にて実行され、図7AのステップS800~S1000は表示装置800にて実行される。 As an aid to the explanation, in FIG. 7A, which device shown in FIG. 4 is performing the step is described on the right side of each step. That is, steps S100 to S700 in FIG. 7A are executed by the camera body 1, and steps S800 to S1000 in FIG. 7A are executed by the display device 800. FIG.

電源スイッチ11がONとなり、カメラ本体1に電源投入がされると、全体制御CPU101は、起動して内蔵不揮発性メモリ102から起動プログラムを読み出す。その後、ステップS100では、全体制御CPU101は、カメラ本体1の撮像前の設定を行う準備動作処理を実行する。準備動作処理の詳細は図7Bを用いて後述する。 When the power switch 11 is turned on and the camera body 1 is powered on, the general control CPU 101 is activated and reads out the activation program from the built-in non-volatile memory 102 . Thereafter, in step S100, the overall control CPU 101 executes preparatory operation processing for setting the camera body 1 before imaging. Details of the preparatory operation process will be described later with reference to FIG. 7B.

ステップS200では、顔方向検出部20が顔方向を検出することで、観察方向を類推する顔方向検出処理を実行する。顔方向検出処理の詳細は図7Cを用いて後述する。本処理は、所定のフレームレートで実行される。 In step S200, the face direction detection unit 20 detects the face direction, and performs face direction detection processing for analogizing the viewing direction. The details of the face direction detection process will be described later with reference to FIG. 7C. This process is executed at a predetermined frame rate.

ステップS300では、記録方向・画角決定部30が記録方向・範囲決定処理を実行する。記録方向・範囲決定処理の詳細は図7Dを用いて後述する。 In step S300, the recording direction/angle of view determination unit 30 executes recording direction/range determination processing. Details of the recording direction/range determination process will be described later with reference to FIG. 7D.

ステップS400では、撮影部40が撮像を行い、撮像データを生成する。 In step S400, the imaging unit 40 performs imaging and generates imaging data.

ステップS500では、画像切り出し・現像処理部50がステップS400で生成された撮像データに対し、ステップS300で決定された記録方向、画角情報を用いて、映像を切り出し、その範囲の現像処理を行う記録範囲現像処理を実行する。記録範囲現像処理の詳細は図7Eを用いて後述する。 In step S500, the image clipping/development processing unit 50 clips an image from the imaging data generated in step S400 using the recording direction and angle of view information determined in step S300, and performs development processing of that range. Execute recording area development processing. Details of the recording area development processing will be described later with reference to FIG. 7E.

ステップS600では、ステップS500で現像された映像を、一次記録部60(映像記録手段)が一次メモリ103に映像データとして保存する一次記録処理を実行する。一次記録処理の詳細は図14を用いて後述する。 In step S600, the primary recording unit 60 (image recording means) executes primary recording processing in which the image developed in step S500 is stored in the primary memory 103 as image data. Details of the primary recording process will be described later with reference to FIG.

ステップS700では、送信部70がステップS600で一次記録された映像を指定タイミングにて表示装置800に対して無線にて送信する表示装置800への転送処理を実行する。表示装置800への転送処理の詳細は図16を用いて後述する。 In step S700, the transmission unit 70 executes a transfer process to the display device 800 for wirelessly transmitting the video primarily recorded in step S600 to the display device 800 at a designated timing. Details of the transfer processing to the display device 800 will be described later with reference to FIG. 16 .

ステップS800以降のステップは、表示装置800にて実行される。 The steps after step S<b>800 are executed by display device 800 .

ステップS800では、表示装置制御部801が、ステップS700でカメラ本体1から転送された映像の光学収差を補正する光学補正処理を実行する。光学補正処理の詳細は図17を用いて後述する。 In step S800, the display device control unit 801 executes optical correction processing for correcting optical aberration of the image transferred from the camera body 1 in step S700. Details of the optical correction processing will be described later with reference to FIG.

ステップS900では、表示装置制御部801が、ステップS800で光学補正が行われた映像に対し防振処理を行う。防振処理の詳細は図19を用いて後述する。 In step S900, the display device control unit 801 performs image stabilizing processing on the image optically corrected in step S800. Details of the anti-vibration processing will be described later with reference to FIG. 19 .

尚、ステップS800とステップS900の順番を逆にしても良い。つまり、先に映像の防振処理を行い、あとから光学補正を行っても良い。 Note that the order of steps S800 and S900 may be reversed. In other words, image stabilization processing may be performed first, and then optical correction may be performed.

ステップS1000では、表示装置制御部801(動画記録手段)が、ステップS800,S900における光学補正処理、防振処理を完了した映像を大容量不揮発性メモリ814に記録する二次記録を行い、本処理を終了する。 In step S1000, the display device control unit 801 (moving image recording means) performs secondary recording to record the image for which the optical correction processing and image stabilization processing in steps S800 and S900 have been completed in the large-capacity nonvolatile memory 814. exit.

次に図7B~図7Fを用いて、図7Aで説明した各ステップのサブルーチンについて処理の順番とともに他図なども用いながら詳細に説明する。 Next, with reference to FIGS. 7B to 7F, the subroutine of each step described with reference to FIG. 7A will be described in detail along with the order of processing and other figures.

図7Bは、図7AのステップS100の準備動作処理のサブルーチンのフローチャートである。以下本処理を、図2や図5に図示した各箇所を使って説明する。 FIG. 7B is a flowchart of a subroutine of the preparatory operation process in step S100 of FIG. 7A. This process will be described below using the parts shown in FIGS. 2 and 5. FIG.

ステップS101では、電源スイッチ11がONか否かを判定する。電源がOFFのままの場合は待機し、ONとなるとステップS102へ進む。 In step S101, it is determined whether the power switch 11 is ON. If the power remains OFF, it waits, and if it turns ON, the process proceeds to step S102.

ステップS102では、撮像モードスイッチ12で選択されているモードを判定する。判定の結果、撮像モードスイッチ12で選択されているモードが動画モードである場合は、ステップS103に進む。 In step S102, the mode selected by the imaging mode switch 12 is determined. As a result of determination, if the mode selected by the imaging mode switch 12 is the moving image mode, the process proceeds to step S103.

ステップS103では、動画モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS104に進む。ここで動画モードの各種設定には、画角設定値V(本実施例では90°に事前設定される)や「強」「中」「切」などで指定される防振レベルが含まれる。 In step S103, various settings of the moving image mode are read from the built-in non-volatile memory 102 and stored in the primary memory 103, after which the process proceeds to step S104. Here, the various settings of the moving image mode include the angle of view setting value V (which is preset to 90° in this embodiment) and the image stabilizing level designated as "strong", "medium", "off", and the like.

ステップS104では、動画モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。 In step S104, after starting the operation of the imaging driver 41 for moving image mode, this subroutine is exited.

ステップS102の判定の結果、撮像モードスイッチ12で選択されているモードが静止画モードである場合は、ステップS106に進む。 If the result of determination in step S102 is that the mode selected by the imaging mode switch 12 is the still image mode, the process proceeds to step S106.

ステップS106では、静止画モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS107に進む。ここで静止画モードの各種設定には、画角設定値V(本実施例では45°に事前設定される)や「強」「中」「切」などで指定される防振レベルが含まれる。 In step S106, various settings of the still image mode are read from the built-in non-volatile memory 102 and stored in the primary memory 103, after which the process proceeds to step S107. Here, the various settings of the still image mode include the angle of view setting value V (which is preset to 45° in this embodiment) and the vibration reduction level specified by "strong", "medium", "off", etc. .

ステップS107では、静止画モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。 In step S107, after starting the operation of the imaging driver 41 for the still image mode, this subroutine is exited.

ステップS102の判定の結果、撮像モードスイッチ12で選択されているモードがプリ設定モードである場合は、ステップS108に進む。ここでプリ設定モードとは、表示装置800などの外部機器からカメラ本体1に対して撮像モードの設定がなされるモードであり、撮像モードスイッチ12により切り替え可能な3つの撮像モードの一つである。プリ設定モードとは、すなわちカスタム撮影のためのモードである。ここで、カメラ本体1は小型のウェアラブルデバイスのため、その詳細設定を変更するための操作スイッチや設定画面等はカメラ本体1には設けられておらず、表示装置800のような外部機器でカメラ本体1の詳細設定の変更は行われる。 If the result of determination in step S102 is that the mode selected by the imaging mode switch 12 is the preset mode, the process proceeds to step S108. Here, the preset mode is a mode in which an imaging mode is set for the camera body 1 from an external device such as the display device 800, and is one of three imaging modes that can be switched by the imaging mode switch 12. . The preset mode is a mode for custom shooting. Since the camera body 1 is a small wearable device, the camera body 1 is not provided with operation switches or setting screens for changing detailed settings. The detailed settings of the main body 1 are changed.

たとえば同じ動画撮像でも、90°の画角と110°の画角とで続けて撮像したい場合を考えてみる。通常の動画モードでは90°の画角が設定されているため、このような撮像を行う場合、まず通常の動画モードでの撮像後、動画撮像を一度終了し、表示装置800にカメラ本体1の設定画面を表示させ、画角を110°に切り替える操作が必要となる。しかし、なんらかのイベント中であると、表示装置800に対するかかる操作は煩わしい。 For example, consider a case where it is desired to continuously capture the same moving image at a field angle of 90° and a field angle of 110°. Since the angle of view is set to 90° in the normal moving image mode, when performing such image capturing, first, after image capturing in the normal moving image mode, the moving image capturing is finished once, and the display device 800 displays the image of the camera body 1. It is necessary to display the setting screen and switch the angle of view to 110°. However, such an operation on the display device 800 is troublesome during some event.

一方、プリ設定モードを、画角110°で動画撮像するモードに事前設定しておけば、画角90°での動画撮像が終わった後、撮像モードスイッチ12を「Pre」にスライドするだけで、画角110°での動画撮像に即座に変更できる。すなわち、使用者は、現在の行為を中断し、上述の煩わしい操作を行う必要がなくなる。 On the other hand, if the preset mode is previously set to a mode for capturing a moving image with an angle of view of 110°, after capturing a moving image with an angle of view of 90°, simply slide the imaging mode switch 12 to "Pre". , the angle of view of 110° can be changed immediately. That is, the user does not need to interrupt the current action and perform the above-described troublesome operations.

尚、プリ設定モードで設定する内容に、画角だけでなく、「強」「中」「切」などで指定される防振レベルや、本実施例では説明しない音声認識の設定なども含めてもよい。 In addition, the settings in the preset mode include not only the angle of view, but also the image stabilization level specified by "strong", "medium", "off", etc., and voice recognition settings that are not explained in this embodiment. good too.

ステップS108では、プリ設定モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS109に進む。ここでプリ設定モードの各種設定には、画角設定値Vや「強」「中」「切」などで指定される防振レベルが含まれる。 In step S108, various settings of the preset mode are read from the built-in non-volatile memory 102 and stored in the primary memory 103, after which the process proceeds to step S109. Various settings in the preset mode include a field angle setting value V and image stabilizing levels designated as "strong," "medium," and "off."

ステップS109ではプリ設定モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。 In step S109, after starting the operation of the imaging driver 41 for the preset mode, this subroutine is exited.

ここで、図13を用いてステップS103で読み出した動画モードの各種設定について説明する。 Here, various settings of the moving image mode read in step S103 will be described with reference to FIG.

図13は、カメラ本体1での撮像前に、表示装置800の表示部803に表示される、動画モードの各種設定用のメニュー画面を示す図である。尚、図1Dと同じ箇所については同一の符号を用いて説明を省略する。尚、表示部803はタッチパネル機能を有しており、この後の説明はスワイプなどの操作を含むタッチ操作で機能するものとして説明する。 FIG. 13 is a diagram showing a menu screen for various settings of the moving image mode, which is displayed on the display unit 803 of the display device 800 before imaging by the camera body 1. As shown in FIG. Note that the same reference numerals are used for the same portions as those in FIG. 1D, and the description thereof is omitted. Note that the display unit 803 has a touch panel function, and the following description will be made on the assumption that it functions by touch operations including operations such as swiping.

図13において、メニュー画面には、プレビュー画面831、ズームレバー832、録画開始・停止ボタン833、スイッチ834、電池残量表示835、ボタン836、レバー837、及びアイコン表示部838を備える。 13, the menu screen includes a preview screen 831, a zoom lever 832, a recording start/stop button 833, a switch 834, a remaining battery level display 835, a button 836, a lever 837, and an icon display section 838.

プレビュー画面831は、カメラ本体1で撮像された映像の確認ができ、ズーム量や画角の確認ができる。 On the preview screen 831, it is possible to confirm the image captured by the camera body 1, and it is possible to confirm the zoom amount and the angle of view.

ズームレバー832は、左右にシフトすることでズーム設定ができる操作部である。本実施例では45°、90°、110°、130°の4つの値が画角設定値Vとして設定できる場合について説明するが、ズームレバー832によりこれらの値以外も画角設定値Vとして設定できるようにしてもよい。 A zoom lever 832 is an operation unit that allows zoom setting by shifting left and right. In this embodiment, four values of 45°, 90°, 110°, and 130° can be set as the angle of view setting value V, but values other than these can be set as the angle of view setting value V by the zoom lever 832. You may make it possible.

録画開始・停止ボタン833は、スタートスイッチ14とストップスイッチ15の機能を兼ね備えるトグルスイッチである。 The recording start/stop button 833 is a toggle switch having both the functions of the start switch 14 and the stop switch 15 .

スイッチ834は、防振の「切」「入」を切り替えるスイッチである。 A switch 834 is a switch for switching between "OFF" and "ON" of anti-vibration.

電池残量表示835は、カメラ本体1の電池残量を表示する。 The remaining battery level display 835 displays the remaining battery level of the camera body 1 .

ボタン836は、モードを変更するボタンである。 A button 836 is a button for changing modes.

レバー837は、防振レベルを設定するレバーである。本実施例では、防振レベルとして設定できるのは「強」「中」のみだが、他の防振レベル、例えば「弱」なども設定できるようにしてもよい。また、無段階に防振レベルを設定できるようにしても良い。 A lever 837 is a lever for setting an anti-vibration level. In this embodiment, only "strong" and "medium" can be set as the image stabilization level, but other image stabilization levels such as "weak" may also be set. Alternatively, the image stabilizing level may be set steplessly.

アイコン表示部838は、プレビュー用の複数のサムネイルアイコンを表示する。 The icon display portion 838 displays a plurality of thumbnail icons for preview.

図7Cは、図7AのステップS200の顔方向検出処理のサブルーチンのフローチャートである。本処理の詳細を説明する前に、赤外線投光による顔方向の検出方法について図8A~図8Kを用いて解説する。 FIG. 7C is a flowchart of a subroutine of face direction detection processing in step S200 of FIG. 7A. Before describing the details of this process, a face direction detection method using infrared light projection will be described with reference to FIGS. 8A to 8K.

図8Aは、顔方向検出窓13の位置から見た使用者の顔部の可視光映像を示す図である。 8A is a diagram showing a visible light image of the user's face viewed from the position of the face direction detection window 13. FIG.

図8Aの映像は、顔方向検出窓13に可視光カットフィルタ成分が無く、可視光を十分透過し、且つ赤外検出処理装置27が可視光用撮像素子だった場合に、その可視光用撮像素子において撮像される映像と同一である。 The image of FIG. 8A is obtained when the face direction detection window 13 does not have a visible light cut filter component, the visible light is sufficiently transmitted, and the infrared detection processing device 27 is a visible light imaging device. It is the same as the image captured by the device.

図8Aの映像には、使用者の鎖骨上の首前部201、顎の付け根202、顎先203、鼻を含む顔204が映っている。 The image of FIG. 8A shows the user's face 204 including the neck front 201 above the collarbone, the base of the chin 202, the tip of the chin 203, and the nose.

図8Bは、図8Aに示す使用者の可視光映像に室内にある蛍光灯205が背景として映りこんだ場合を示す図である。 FIG. 8B is a diagram showing a case where the fluorescent lamp 205 in the room is reflected as a background in the visible light image of the user shown in FIG. 8A.

図8Bの可視光映像には、使用者の周囲にある複数の蛍光灯205が映っている。この様に使用条件により使用者の映像には様々な背景等が映り込むため、可視光映像から、顔方向検出部20や全体制御CPU101が顔部の映像を切り分けることが困難になる。一方は、AI等の利用によりこういった映像を切り分ける技術もあるが、全体制御CPU101に高い能力が求められ、携帯機器であるカメラ本体1には適さない。 The visible light image of FIG. 8B shows a plurality of fluorescent lights 205 surrounding the user. As described above, since various backgrounds and the like appear in the image of the user depending on the usage conditions, it becomes difficult for the face direction detection unit 20 and the overall control CPU 101 to separate the image of the face from the visible light image. On the other hand, there is a technique for segmenting such images by using AI or the like, but it requires a high performance of the general control CPU 101 and is not suitable for the camera body 1 which is a portable device.

そこで、実施例1のカメラ1は、使用者の顔部を赤外光映像を用いて検出している。顔方向検出窓13は可視光カットフィルタで構成されているので可視光はほぼ透過しないので、赤外検出処理装置27の映像は、図8A,図8Bのような映像にはならない。 Therefore, the camera 1 of Example 1 detects the user's face using an infrared light image. Since the face direction detection window 13 is composed of a visible light cut filter, almost no visible light passes through it, so the image of the infrared detection processing device 27 does not become the image shown in FIGS. 8A and 8B.

図8Cは、図8Bに示す使用者及びその背景としての蛍光灯を、赤外LED22を点灯させない状態で、顔方向検出窓13を介して赤外検出処理装置27のセンサで結像させた場合の赤外光映像を示す図である。 FIG. 8C shows the case where the user shown in FIG. 8B and the fluorescent lamp as the background thereof are imaged by the sensor of the infrared detection processing device 27 through the face direction detection window 13 in a state where the infrared LED 22 is not turned on. 1 is a diagram showing an infrared image of .

図8Cの赤外光映像では、使用者の首や顎は暗くなっている。一方、蛍光灯205は、可視光線だけでなく赤外線成分も持っているためにやや明るく映っている。 In the infrared image of FIG. 8C, the user's neck and chin are dark. On the other hand, the fluorescent lamp 205 appears rather bright because it has not only visible rays but also infrared rays.

図8Dは、図8Bに示す使用者及びその背景としての蛍光灯を、赤外LED22を点灯させた状態で、顔方向検出窓13を介して赤外検出処理装置27のセンサで結像させた場合の映像を示す図である。 In FIG. 8D, the user shown in FIG. 8B and the fluorescent lamp as the background thereof are imaged by the sensor of the infrared detection processing device 27 through the face direction detection window 13 with the infrared LED 22 turned on. It is a figure which shows the image|video in a case.

図8Dの映像では、使用者の首や顎が明るくなっている。一方、図8Cと異なり、蛍光灯205周辺の明るさなどは変わっていない。 In the image of FIG. 8D, the user's neck and chin are brightened. On the other hand, unlike FIG. 8C, the brightness around the fluorescent lamp 205 does not change.

図8Eは、図8Dの映像から図8Cの映像を差し引いて演算された差分映像を示す図である。使用者の顔が浮かび上がっていることがわかる。 FIG. 8E illustrates a difference image calculated by subtracting the image of FIG. 8C from the image of FIG. 8D. It can be seen that the user's face is highlighted.

このように、全体制御CPU101(映像取得手段)は、赤外LED22の点灯時及び消灯時の夫々において赤外検出処理装置27のセンサで結像された映像の差を演算することで、使用者の顔が抽出された差分映像(以下、顔映像ともいう)を得る。 In this way, the overall control CPU 101 (image acquisition means) calculates the difference between the images formed by the sensor of the infrared detection processing device 27 when the infrared LED 22 is lit and when the infrared LED 22 is extinguished. A difference image (hereinafter also referred to as a face image) is obtained from which the face of the person is extracted.

本実施例の顔方向検出部20は赤外線反射強度を赤外検出処理装置27で2次元画像として抽出することにより顔映像を取得する方式を採用している。赤外検出処理装置27のセンサは、一般的な撮像素子と同様の構造を採用しており、顔画像を1フレームずつ取得している。そのフレーム同期を取る垂直同期信号(以下、V信号という)は赤外検出処理装置27で生成され全体制御CPU101に出力される。 The face direction detection unit 20 of this embodiment employs a method of obtaining a face image by extracting the infrared reflection intensity as a two-dimensional image by the infrared detection processing device 27 . The sensor of the infrared detection processing device 27 has a structure similar to that of a general imaging device, and acquires a face image frame by frame. A vertical synchronizing signal (hereinafter referred to as a V signal) for synchronizing the frame is generated by the infrared detection processor 27 and output to the overall control CPU 101 .

図9は、赤外LED22の点灯・消灯のタイミングと関連する信号とを示したタイミングチャートである。 FIG. 9 is a timing chart showing the timing of turning on/off the infrared LED 22 and related signals.

図9(a)は、赤外検出処理装置27でV信号が生成されるタイミングを示す。V信号がHiになることで、フレーム同期及び赤外LED22の点灯・消灯のタイミングが計られる。 FIG. 9(a) shows the timing at which the V signal is generated by the infrared detection processor 27. FIG. When the V signal becomes Hi, the timing of frame synchronization and turning on/off of the infrared LED 22 is measured.

図9(a)では、t1が1回目の顔画像取得期間、t2が2回目の顔画像取得期間を示している。図9(a),(b),(c),(d)は、その横軸の時間軸が同一となるように記載されている。 In FIG. 9A, t1 indicates the first facial image acquisition period, and t2 indicates the second facial image acquisition period. FIGS. 9A, 9B, 9C, and 9D are drawn so that the time axes of the horizontal axes are the same.

図9(b)は、赤外検出処理装置27のセンサから出力される像信号のH位置を縦軸で表す。像信号のH位置が、図9(b)に示すように、V信号と同期するよう、赤外検出処理装置27はそのセンサの動きを制御する。尚、赤外検出処理装置27のセンサは、上述した通り、一般的な撮像素子と同様の構造を採用しておりその動きは公知であるため詳細の制御については割愛する。 In FIG. 9B, the vertical axis represents the H position of the image signal output from the sensor of the infrared detection processing device 27 . The infrared detection processor 27 controls the movement of the sensor so that the H position of the image signal is synchronized with the V signal, as shown in FIG. 9(b). As described above, the sensor of the infrared detection processing device 27 employs a structure similar to that of a general imaging device, and its movement is known, so detailed control will be omitted.

図9(c)は、全体制御CPU101から赤外LED点灯回路21に出力されるIR-ON信号のHi及びLowの切り替えタイミングを示す。IR-ON信号のHi及びLowの切り替えは、図9(c)に示すように、V信号と同期するよう、全体制御CPU101が制御する。具体的には、全体制御CPU101は、t1の期間中は、LowのIR-ON信号を赤外LED点灯回路21に出力し、t2の期間中は、HiのIR-ON信号を赤外LED点灯回路21に出力する。 FIG. 9(c) shows the switching timing of the IR-ON signal output from the overall control CPU 101 to the infrared LED lighting circuit 21 between Hi and Low. The switching of the IR-ON signal between Hi and Low is controlled by the general control CPU 101 so as to synchronize with the V signal as shown in FIG. 9(c). Specifically, the overall control CPU 101 outputs a Low IR-ON signal to the infrared LED lighting circuit 21 during the period t1, and outputs a High IR-ON signal to the infrared LED lighting circuit 21 during the period t2. Output to circuit 21 .

ここで、IR-ON信号がHiの期間中は、赤外LED点灯回路21は赤外LED22を点灯し、赤外線23が使用者に投光される。一方、IR-ON信号がLowの期間中は、赤外LED点灯回路21は赤外LED22を消灯する。 Here, while the IR-ON signal is Hi, the infrared LED lighting circuit 21 lights the infrared LED 22, and the infrared ray 23 is projected to the user. On the other hand, while the IR-ON signal is Low, the infrared LED lighting circuit 21 turns off the infrared LED 22 .

図9(d)は、赤外検出処理装置27のセンサから全体制御CPU101に出力される撮像データである。縦方向が信号強度であり、反射光線25の受光量を示している。つまりt1の期間中は、赤外LED22は消灯しているので使用者の顔部分からの反射光線25は無い状態であり、図8Cの様な撮像データが得られる。一方、t2の期間中は、赤外LED22は点灯しているので、使用者の顔部分からは反射光線25がある状態であり、図8Dの様な撮像データが得られる。このため、図9(d)に示すように、t2の期間中の信号強度は、t1の期間中の信号強度と比べて使用者の顔部分からの反射光線25の分だけ強度が上がる。 FIG. 9(d) shows imaging data output from the sensor of the infrared detection processing device 27 to the overall control CPU 101. FIG. The vertical direction indicates the signal intensity, which indicates the amount of light received by the reflected light beam 25 . In other words, during the period t1, the infrared LED 22 is turned off, so there is no reflected light 25 from the user's face, and image data such as that shown in FIG. 8C is obtained. On the other hand, during the period t2, since the infrared LED 22 is lit, there is a reflected light beam 25 from the user's face, and imaging data as shown in FIG. 8D is obtained. Therefore, as shown in FIG. 9(d), the signal intensity during the period t2 is higher than the signal intensity during the period t1 by the reflected light beam 25 from the user's face.

図9(e)は、図9(d)のt2の期間中の撮像データからt1の期間中の撮像データを差し引いたものであり、図8Eの様な、使用者の顔からの反射光線25の成分のみが抽出された顔画像データが得られる。 FIG. 9(e) is obtained by subtracting the imaged data during the period t1 from the imaged data during the period t2 in FIG. 9(d). face image data from which only the component of is extracted is obtained.

上述の図8C~図8E,図9を用いて説明した動作を含めた上での、ステップS200における顔方向検出処理を図7Cに示す。 FIG. 7C shows face direction detection processing in step S200 including the operations described above with reference to FIGS. 8C to 8E and FIG.

まず、ステップS201で、赤外検出処理装置27から出力されたV信号がHiとなったとき、t1の期間が開始したタイミングV1が取得される。タイミングV1が取得されると、ステップS202に進む。 First, in step S201, when the V signal output from the infrared detection processing device 27 becomes Hi, the timing V1 at which the period t1 starts is acquired. When the timing V1 is obtained, the process proceeds to step S202.

ついでステップS202で、IR-ON信号をLowに設定し、赤外LED点灯回路21に出力する。これにより、赤外LED22は消灯する。 Then, in step S202, the IR-ON signal is set to Low and output to the infrared LED lighting circuit 21. FIG. Thereby, the infrared LED 22 is extinguished.

ステップS203で、t1の期間中において赤外検出処理装置27から出力された1フレーム分の撮像データを読み出し、そのデータをFrame1として一次メモリ103に一時保存する。 In step S203, one frame of imaging data output from the infrared detection processing device 27 during the period t1 is read, and the data is temporarily stored in the primary memory 103 as Frame1.

ステップS204で、赤外検出処理装置27から出力されたV信号が、t2の期間が開始したタイミングV2となったとき、ステップS205に進む。 In step S204, when the V signal output from the infrared detection processing device 27 reaches the timing V2 when the period t2 starts, the process proceeds to step S205.

ステップS205で、IR-ON信号をHiに設定し、赤外LED点灯回路21に出力する。これにより、赤外LED22は点灯する。 At step S 205 , the IR-ON signal is set to Hi and output to the infrared LED lighting circuit 21 . Thereby, the infrared LED 22 is lit.

ステップS206で、t2の期間中において赤外検出処理装置27から出力された1フレーム分の撮像データを読み出し、そのデータをFrame2として一次メモリ103に一時保存する。 In step S206, one frame of imaging data output from the infrared detection processing device 27 during the period t2 is read, and the data is temporarily stored in the primary memory 103 as Frame2.

ステップS207で、IR-ON信号をLowに設定し、赤外LED点灯回路21に出力する。これにより赤外LED22は消灯する。 At step S 207 , the IR-ON signal is set to Low and output to the infrared LED lighting circuit 21 . As a result, the infrared LED 22 is extinguished.

ステップS208で、一次メモリ103からFrame1及びFrame2を読み出し、Frame2からFrame1を引いた差分であり、図9(e)の顔映像に該当する使用者の反射光線25成分の光強度Fnを演算する(これは一般的には黒引きと呼ばれる処理にあたる)。 In step S208, Frame1 and Frame2 are read out from the primary memory 103, and the difference obtained by subtracting Frame1 from Frame2, and the light intensity Fn of the 25 reflected light rays of the user corresponding to the facial image in FIG. This is a process commonly called blacking.)

ステップS209で、光強度Fnより首元位置(首回転中心)を抽出する。 In step S209, the neck position (neck rotation center) is extracted from the light intensity Fn.

まず、全体制御CPU101(分割手段)は、光強度Fnを基に、顔映像を、図8Fを用いて説明する複数の距離エリアに分割する。 First, the overall control CPU 101 (dividing means) divides the face image into a plurality of distance areas, which will be explained with reference to FIG. 8F, based on the light intensity Fn.

図8Fは、使用者の顔・首部の各部位について光強度の分布をみるため、図8Eの差分映像の濃淡を、使用者の顔・首部に投光された赤外線23の反射光線25の光強度にスケールを合わせて調整した場合を示す図である。 FIG. 8F shows the distribution of light intensity for each part of the user's face and neck. FIG. 10 is a diagram showing a case where the scale is adjusted according to the intensity;

図8F(ア)は、図8Eの顔映像における反射光線25の光強度の分布を領域分けしてグレーの段階で示した図である。使用者の首の中央部から顎先に抜ける方向に説明用にXf軸を取っている。 FIG. 8F(a) is a diagram showing the distribution of the light intensity of the reflected light ray 25 in the face image of FIG. 8E divided into regions and shown in gray stages. For the sake of explanation, the Xf axis is taken in the direction from the center of the user's neck to the tip of the chin.

図8F(イ)は、横軸は図8F(ア)のXf軸上の光強度を示し、縦軸はXf軸を示す。横軸は右方向に行くほど強い光強度を示している。 In FIG. 8F(a), the horizontal axis indicates the light intensity on the Xf axis in FIG. 8F(a), and the vertical axis indicates the Xf axis. The horizontal axis indicates higher light intensity toward the right.

図8F(ア)において、顔映像は、光強度に応じた6つの領域(距離エリア)211~216に分けられている。 In FIG. 8F(a), the face image is divided into six areas (distance areas) 211 to 216 according to the light intensity.

領域211は、一番光強度が強い領域であり、グレーの段階として、白色で示されている。 Region 211 is the region with the highest light intensity and is shown in white as shades of gray.

領域212は、領域211より少しだけ光強度が落ちる領域であり、グレーの段階として、かなり明るいグレー色で示されている。 Region 212 is a region of slightly less light intensity than region 211 and is shown in a much lighter gray color as a gray scale.

領域213は、領域212よりさらに光強度が落ちる領域であり、グレーの段階として、明るいグレー色で示されている。 Region 213 is a region of even lower light intensity than region 212 and is shown in light gray as a gray scale.

領域214は、領域213よりさらに光強度が落ちる領域であり、グレーの段階として、中間のグレー色で示されている。 Region 214 is a region of even lower light intensity than region 213 and is shown in intermediate gray as a gray scale.

領域215は、領域214よりさらに光強度が落ちる領域であり、グレーの段階として、やや暗めのグレー色で示されている。 Area 215 is an area where the light intensity is even lower than that of area 214, and is shown in slightly darker gray as a gray scale.

領域216は、最も光強度が弱い領域であり、グレーの段階としては、最も暗いグレーとなっている。領域216より上方向は光強度の無い黒色となっている。 Area 216 is the area with the lowest light intensity and is the darkest shade of gray. The area above the area 216 is black with no light intensity.

この光強度について、以下、図10を用いて詳細に解説する。 This light intensity will be explained in detail below with reference to FIG.

図10は、使用者の顔の上下方向の動きを説明する図であり、使用者の左横方向より観察した状態を示す。 FIG. 10 is a diagram for explaining vertical movement of the user's face, and shows a state observed from the left lateral direction of the user.

図10(a)は、使用者が正面を向いている様子を示す図である。使用者の鎖骨前方に撮影・検出部10がある。また、撮影・検出部10の上部にある顔方向検出窓13から、赤外LED22の赤外線23が使用者頭部の下部に照射されている。顔方向検出窓13から使用者の鎖骨上の首元200までの距離をDn、顔方向検出窓13から顎の付け根202までの距離をDb、顔方向検出窓13から顎先203までの距離をDcとすると、Dn,Db,Dcの順に距離が遠くなっていることがわかる。光強度は距離の2乗に反比例するので、赤外線照射面24からの反射光線25が赤外検出処理装置27のセンサに結像された際の光強度は、首元200、顎の付け根202、顎先203の順に弱くなる。また、顔方向検出窓13からの距離がDcよりさらに遠い位置にある、鼻を含む顔204については、その光強度はさらに暗くなることがわかる。すなわち、図10(a)のような場合、図8Fで示した光強度の分布となる映像が取得されることがわかる。 FIG. 10(a) is a diagram showing a state in which the user faces the front. An imaging/detecting unit 10 is located in front of the user's clavicle. Infrared rays 23 from an infrared LED 22 are emitted to the lower portion of the user's head from the face direction detection window 13 in the upper portion of the photographing/detecting section 10 . Dn is the distance from the face direction detection window 13 to the neck 200 on the collarbone of the user, Db is the distance from the face direction detection window 13 to the base of the chin 202, and Db is the distance from the face direction detection window 13 to the chin 203. Assuming Dc, it can be seen that the distance increases in the order of Dn, Db, and Dc. Since the light intensity is inversely proportional to the square of the distance, the light intensity when the reflected light beam 25 from the infrared irradiation surface 24 is imaged on the sensor of the infrared detection processing device 27 is the neck 200, the chin base 202, It becomes weaker in order of the tip of the chin 203 . Further, it can be seen that the light intensity of the face 204 including the nose, which is farther from the face direction detection window 13 than Dc, is even darker. That is, in the case shown in FIG. 10A, an image having the light intensity distribution shown in FIG. 8F is acquired.

尚、使用者の顔方向が検出できれば顔方向検出部20の構成は、本実施例に示す構成に限定されない。例えば、赤外LED22(赤外線パターン照射手段)より赤外線パターンを照射するようにし、照射対象から反射された赤外線パターンを赤外検出処理装置27のセンサ(赤外線パターン検出手段)で検出するようにしてもよい。この場合、赤外検出処理装置27のセンサは、構造光センサであることが好ましい。また、赤外検出処理装置27のセンサを、赤外線23と反射光線25の位相比較を行うセンサ(赤外線位相比較手段)、例えば、Tofセンサとしてもよい。 The configuration of the face direction detection unit 20 is not limited to the configuration shown in this embodiment as long as the face direction of the user can be detected. For example, an infrared pattern may be emitted from the infrared LED 22 (infrared pattern irradiation means), and the infrared pattern reflected from the irradiation target may be detected by the sensor (infrared pattern detection means) of the infrared detection processing device 27. good. In this case, the sensor of the infrared detection processing device 27 is preferably a structured light sensor. Further, the sensor of the infrared detection processing device 27 may be a sensor (infrared phase comparison means) that compares the phases of the infrared rays 23 and the reflected light beam 25, such as a Tof sensor.

次に、図8Gを用いて、図7CのステップS209における首元位置の抽出について説明する。 Next, extraction of the neck position in step S209 of FIG. 7C will be described with reference to FIG. 8G.

図8G(ア)は、図8Fに、図10(a)における使用者の身体の各部位を示す符号、及び首元位置を示す二重丸と顎先位置を示す黒丸の符号を重ねた図である。 FIG. 8G(a) is a diagram in which the symbols indicating each part of the user's body in FIG. is.

白色の領域211は、首元200(図10(a))と対応しており、かなり明るいグレー色の領域212は、首前部201(図10(a))と対応しており、明るいグレー色の領域213は、顎の付け根202(図10(a))と対応している。また、中間のグレー色の領域214は、顎先203(図10(a))と対応しており、やや暗めのグレー色の領域215は、顔204(図10(a))の下部に位置する唇及びその周辺の顔下部と対応している。さらに、暗めのグレー色の領域216は、顔204(図10(a))の中央に位置する鼻及びその周辺の顔上部と対応している。 A white region 211 corresponds to the neck 200 (FIG. 10(a)), and a fairly light gray region 212 corresponds to the neck front 201 (FIG. 10(a)), and is light gray. A colored region 213 corresponds to the base of the chin 202 (FIG. 10(a)). A middle gray area 214 corresponds to the tip of the chin 203 (FIG. 10(a)), and a slightly darker gray area 215 is located below the face 204 (FIG. 10(a)). It corresponds to the lower part of the face around the lips and the periphery. In addition, a darker gray area 216 corresponds to the nose located in the center of the face 204 (FIG. 10(a)) and the surrounding upper part of the face.

尚、図10(a)に示すように、Db,Dcの距離は、顔方向検出窓13から使用者の他の部位までの距離に比べると差が少ないので、明るいグレー色の領域213及び中間のグレー色の領域214における反射光強度の差も少ない。 As shown in FIG. 10A, the distances Db and Dc are less different than the distances from the face direction detection window 13 to other parts of the user. There is also little difference in reflected light intensity in the gray area 214 of .

一方、図10(a)に示すように、顔方向検出窓13から使用者の各部位までの距離のうち、Dnの距離は最も短い至近距離であるので、首元200に対応する白色の領域211が一番反射強度の強い箇所となる。 On the other hand, as shown in FIG. 10A, among the distances from the face direction detection window 13 to each part of the user, the distance Dn is the shortest distance. A point 211 has the highest reflection intensity.

よって、全体制御CPU101(設定手段)は、領域211が首元200周辺であり、領域211の左右の中心で且つ撮影・検出部10に一番近い、図8G(ア)で二重丸で示す位置206を首回転中心の位置(以下、首元位置206という)に設定する。ここまでの処理が図7CのステップS209で行う内容である。 Therefore, the overall control CPU 101 (setting means) determines that the area 211 is around the neck 200, is the center of the left and right of the area 211, and is the closest to the photographing/detecting unit 10, indicated by a double circle in FIG. 8G(a). A position 206 is set at the center of neck rotation (hereinafter referred to as neck position 206). The processing up to this point is the content performed in step S209 of FIG. 7C.

ついで、図8Gを用いて、図7CのステップS210の顎先位置の抽出について説明する。 Next, extraction of the tip of the chin position in step S210 of FIG. 7C will be described with reference to FIG. 8G.

図8G(ア)に示す、顔204の内の唇を含む顔下部に対応する領域215より明るい、中間のグレー色の領域214が顎先を含む領域である。図8G(イ)を見ればわかるように顔方向検出窓13からの距離変化率が大きくなるため、領域214と接する領域215で光強度は急激に落ちている。全体制御CPU101は、光強度の急激な落ち込みがある領域215に接するより明るい領域214が顎先領域であると判別する。さらに、全体制御CPU101は、領域214の左右の中心で且つ首元位置206から一番遠い位置(図8G(ア)において黒丸で示す位置)を顎先位置207として算出(抽出)する。 A medium gray area 214 that is lighter than the area 215 corresponding to the lower part of the face including the lips in the face 204 shown in FIG. 8G(a) is the area including the tip of the chin. As can be seen from FIG. 8G(a), the rate of change in the distance from the face direction detection window 13 increases, so the light intensity drops sharply in the area 215 that is in contact with the area 214 . The overall control CPU 101 determines that a brighter area 214 adjacent to the area 215 where the light intensity sharply drops is the chin area. Furthermore, the overall control CPU 101 calculates (extracts) the position 207 of the tip of the chin at the center of the area 214 in the left and right direction and farthest from the neck position 206 (the position indicated by the black circle in FIG. 8G(a)).

たとえば顔が右方向を向いている時の変化を示しているのが図8H,図8Iである。 For example, FIGS. 8H and 8I show changes when the face is turned to the right.

図8Hは、使用者の顔が右方向を向いている時に、図8Eと同様の方法で演算された差分映像を示す図である。図8Iは、図8Hの差分映像の濃淡を、使用者の顔・首部に投光された赤外線の反射光線の光強度にスケールを合わせて調整し、首回転中心の位置である首元位置206を示す二重丸と顎先位置207rを示す黒丸の符号を重ねた図である。 FIG. 8H is a diagram showing a difference image calculated in the same manner as in FIG. 8E when the user's face is facing right. In FIG. 8I, the shading of the difference image in FIG. 8H is adjusted by adjusting the scale to the light intensity of the reflected infrared rays projected onto the user's face/neck, and the neck position 206, which is the position of the neck rotation center, is adjusted. is a diagram in which a double circle indicating a position 207r and a black circle indicating a chin tip position 207r are superimposed.

領域214は使用者の顔が右を向いたので、撮影・検出部10側から見上げると左方向にある、図8Iに示す領域214rへと移動する。顔204の内の唇を含む顔下部に対応する領域215も、撮影・検出部10側から見上げると左方向にある領域215rへと移動する。 Since the user's face has turned to the right, area 214 moves to area 214r shown in FIG. A region 215 corresponding to the lower part of the face including the lips in the face 204 also moves to a leftward region 215r when viewed from the imaging/detecting unit 10 side.

よって、全体制御CPU101は、光強度の急激な落ち込みがある215rの手前の領域214rを顎先領域と判別する。さらに、全体制御CPU101は、214rの左右の中心で且つ首元位置206から一番遠い位置(図8Iにおいて黒丸で示す位置)を顎先位置207rとして算出(抽出)する。 Therefore, the overall control CPU 101 determines that the area 214r in front of 215r where the light intensity drops sharply is the chin area. Furthermore, the overall control CPU 101 calculates (extracts) the position of the left and right center of 214r and the farthest position from the neck position 206 (the position indicated by the black circle in FIG. 8I) as the chin position 207r.

その後、全体制御CPU101は、図8G(ア)の顎先位置207から首元位置206を中心として右方向に、図8Iの顎先位置207rがどれだけ移動したかを示す移動角度θrを求める。図8Iに示すように、移動角度θrは、使用者の顔の左右方向の角度となる。 After that, the overall control CPU 101 obtains a movement angle θr indicating how much the chin position 207r in FIG. 8I has moved from the chin position 207 in FIG. 8G(a) to the right around the neck position 206. As shown in FIG. 8I, the movement angle θr is the angle of the user's face in the horizontal direction.

以上の方法で、ステップS210において、顔方向検出部20(3次元検出センサ)の赤外検出処理装置27で検出された顎先位置から使用者の左右方向の顔の角度を算出する。 By the above method, in step S210, the lateral face angle of the user is calculated from the chin position detected by the infrared detection processing device 27 of the face direction detection unit 20 (three-dimensional detection sensor).

次に上へ向けた顔の検出について説明する。 Next, the detection of faces directed upward will be described.

図10(b)は、使用者が顔を水平方向に向けている様子を示す図であり、図10(c)は使用者が顔を水平方向より上部33°に向けている様子を示す図である。 FIG. 10(b) is a diagram showing a state in which the user faces horizontally, and FIG. 10(c) is a diagram showing a state in which the user faces upward 33° from the horizontal direction. is.

図10(b)では、顔方向検出窓13から顎先203までの距離をFfhとし、図10(c)では、顔方向検出窓13から顎先203uまでの距離をFfuとしている。 In FIG. 10B, the distance from the face direction detection window 13 to the chin 203 is Ffh, and in FIG. 10C, the distance from the face direction detection window 13 to the chin 203u is Ffu.

図10(c)に示すように、顔とともに顎先203uも上に移動するため、FfuはFfhより距離が長くなっていることがわかる。 As shown in FIG. 10(c), since the chin 203u moves upward together with the face, it can be seen that Ffu is longer than Ffh.

図8Jは、使用者が水平より33°上方に顔を向けている際に、顔方向検出窓13から見える使用者の映像を示す図である。図10(c)に示すように、使用者は上を向いているので、使用者の顎の下に位置する顔方向検出窓13からは唇や鼻を含む顔204は見えておらず、顎先203までが見えている。図10(c)の状態の使用者に赤外線23を照射したときの反射光線25の光強度の分布を、図8Kで示す。図8K(ア)は、図8Eと同様の方法で演算された差分映像の濃淡を、使用者の顔・首部に投光された赤外線の反射光線の光強度にスケールを合わせて調整し、首元位置206を示す二重丸と顎先位置207uを示す黒丸の符号を重ねた図である。図8K(イ)及び(ウ)のグラフは、左の画像の濃度変化を示しており、(イ)は図8Fのグラフに相当し、(ウ)は図8Gのグラフに相当する。 FIG. 8J is a diagram showing an image of the user seen through the face direction detection window 13 when the user faces 33° above the horizontal. As shown in FIG. 10(c), since the user is facing upward, the face 204 including lips and nose cannot be seen from the face direction detection window 13 located under the user's chin. I can see up to 203 ahead. FIG. 8K shows the light intensity distribution of the reflected light beam 25 when the infrared ray 23 is applied to the user in the state of FIG. 10(c). In FIG. 8K (a), the gradation of the difference image calculated by the same method as in FIG. It is a diagram in which a double circle indicating the original position 206 and a black circle indicating the chin tip position 207u are superimposed. Graphs (a) and (c) of FIG. 8K show changes in density of the left image, (a) corresponds to the graph of FIG. 8F, and (c) corresponds to the graph of FIG. 8G.

図8K(ア)における光強度に応じた6つの領域211u~216uは、図8Fに示す領域と同じ光強度の領域に「u」を付けて示す領域である。使用者の顎先203の光強度は、図8F(ア)では中間のグレー色の領域214にあったが、図8K(ア)ではグレー側へとシフトし、やや暗めのグレー色の領域215uにあることがわかる。このように、図10(c)に示すように、FfuがFfhより距離が長い結果、使用者の顎先203の反射光線25の光強度は距離の2乗に反比例して弱まっていることが、赤外検出処理装置27で検出できる。 The six regions 211u to 216u corresponding to the light intensities in FIG. 8K(a) are regions with the same light intensity as the regions shown in FIG. 8F, with "u" added. The light intensity of the user's chin 203 was in the middle gray area 214 in FIG. 8F(a), but shifted to the gray side in FIG. It can be seen that there is Thus, as shown in FIG. 10(c), as a result of Ffu being longer than Ffh, the light intensity of the reflected light beam 25 from the tip of the user's chin 203 is weakened in inverse proportion to the square of the distance. , can be detected by the infrared detection processor 27 .

次に下に向けた顔の検出について説明する。 Next, the detection of faces facing downward will be described.

図10(d)は、使用者が顔を水平方向より22°下方向に向けている様子を示す図である。 FIG. 10(d) is a diagram showing a state in which the face of the user is directed downward by 22° from the horizontal direction.

図10(d)では、顔方向検出窓13から顎先203dまでの距離をFfdとしている。 In FIG. 10D, the distance from the face direction detection window 13 to the tip of the chin 203d is Ffd.

図10(d)に示すように、顔とともに顎先203dも下に移動するため、FfdはFfhより距離が短くなり、顎先203の反射光線25の光強度は強くなることがわかる。 As shown in FIG. 10(d), since the chin 203d moves downward together with the face, Ffd is shorter than Ffh, and the light intensity of the reflected light ray 25 from the chin 203 increases.

図7Cに戻り、ステップS211では、全体制御CPU101(距離算出手段)は、顔方向検出部20(3次元検出センサ)の赤外検出処理装置27で検出された顎先位置の光強度より、顎先位置から顔方向検出窓13までの距離を算出する。これに基づき、上下方向の顔の角度も算出する。 Returning to FIG. 7C, in step S211, the overall control CPU 101 (distance calculation means) determines the position of the chin from the light intensity of the chin position detected by the infrared detection processing device 27 of the face direction detection unit 20 (three-dimensional detection sensor). A distance from the forward position to the face direction detection window 13 is calculated. Based on this, the angle of the face in the vertical direction is also calculated.

ステップS212では、全体制御CPU101は、ステップS210,S211で夫々取得した顔の左右方向(第1の検出方向)及びこれと垂直な上下方向(第2の検出方向)の角度を、使用者の3次元観察方向viとして一次メモリ103に保存する(iは任意の符号)。たとえば、使用者が正面中心部を観察していた場合の観察方向voは、左右方向θhが0°、上下方向θvが0°であるので、[0°,0°]というベクトル情報となる。また、使用者が右45°を観察していた場合の観察方向vrは、[45°,0°]というベクトル情報となる。 In step S212, the overall control CPU 101 converts the angle of the horizontal direction (first detection direction) of the face obtained in steps S210 and S211 and the vertical direction (second detection direction) perpendicular thereto to the user's three angles. It is stored in the primary memory 103 as the dimensional viewing direction vi (i is an arbitrary code). For example, the observation direction vo when the user is observing the center of the front is 0° in the horizontal direction θh and 0° in the vertical direction θv, so the vector information is [0°, 0°]. Also, the observation direction vr when the user is observing 45 degrees to the right becomes vector information of [45 degrees, 0 degrees].

尚、ステップS211では、顔方向検出窓13からの距離を検出することで、顔の上下方向の角度を算出したが、この方法に限定されない。例えば、顎先203の光強度の変異レベルを比較することで、角度変化を算出しても良い。つまり図8G(イ)の顎の付け根202から顎先203の反射光強度の勾配CDhと、図8K(ウ)の顎の付け根202から顎先203の反射光強度の勾配CDuとを比較することで、顔の角度変化を算出しても良い。 Although the vertical angle of the face is calculated by detecting the distance from the face direction detection window 13 in step S211, the method is not limited to this method. For example, the angle change may be calculated by comparing the variation level of the light intensity of the chin 203 . That is, the gradient CDh of the reflected light intensity from the chin root 202 to the tip of the chin 203 in FIG. 8G(a) is compared with the gradient CDu of the reflected light intensity from the chin root 202 to the tip of the chin 203 in FIG. 8K(c). , the angular change of the face may be calculated.

図7Dは、図7AのステップS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。本処理の詳細を説明する前に、まず図11Aを用いて、本実施例における記録方向と記録範囲が決定される対象となる超広角映像について説明する。 FIG. 7D is a flowchart of a subroutine of the recording direction/range determination process in step S300 of FIG. 7A. Before describing the details of this process, first, using FIG. 11A, a super-wide-angle image for which the recording direction and recording range in this embodiment are determined will be described.

本実施例のカメラ本体1では、撮影・検出部10周辺を撮影部40が超広角な撮像レンズ16を用いて超広角映像を撮像し、その一部を切り出すことによって観察方向の映像を得ることを達成している。 In the camera body 1 of the present embodiment, the photographing unit 40 uses the ultra-wide-angle imaging lens 16 to capture a super-wide-angle image around the photographing/detecting unit 10, and a part of the image is cut out to obtain an image in the observation direction. have achieved

図11Aは、使用者が正面を向いている場合の、撮影部40により撮像された超広角映像における狙い視野125を示す図である。 FIG. 11A is a diagram showing the target field of view 125 in the ultra-wide-angle image captured by the imaging unit 40 when the user faces the front.

図11Aに示すように、固体撮像素子42の撮像可能な画素領域121は、長方形の領域である。また、有効投影部122(所定領域)は、撮像レンズ16によって固体撮像素子42に魚眼投影される円形の半天球映像の領域である。尚、画素領域121の中心及び有効投影部122の中心は一致するように撮像レンズ16は調整されている。 As shown in FIG. 11A, the imageable pixel area 121 of the solid-state imaging device 42 is a rectangular area. The effective projection area 122 (predetermined area) is an area of a circular half-celestial sphere image projected onto the solid-state imaging device 42 by the imaging lens 16 as a fisheye. The imaging lens 16 is adjusted so that the center of the pixel region 121 and the center of the effective projection portion 122 are aligned.

円形の有効投影部122の最外周がFOV(Field of view)角180°の位置を示している。使用者が水平垂直中心を見ている場合、撮像記録される領域である狙い視野125の角度範囲は有効投影部122の中心を中心とした90°(VOF角の半分)となる。尚、本実施例の撮像レンズ16は有効投影部122より外側の光線も導入でき、最大FOV角192°の程度までの光線を固体撮像素子42に魚眼投影できる。但し、有効投影部122を超えると極端に解像力がおちたり、光量がおちたり、歪が強まったりと、光学性能が大きく落ちる。よって、本実施例では、記録領域は有効投影部122に表示される半天球映像のうち画素領域121に投影された映像(以下、単に超広角映像という)内からのみ観察方向の映像を切り出す例で説明する。 The outermost periphery of the circular effective projection portion 122 indicates a position with an FOV (Field of view) angle of 180°. When the user is looking at the horizontal and vertical center, the angular range of the target field of view 125, which is the area to be imaged and recorded, is 90° (half the VOF angle) around the center of the effective projection section 122. FIG. The imaging lens 16 of this embodiment can also introduce light rays outside the effective projection portion 122, and can project light rays up to a maximum FOV angle of 192° onto the solid-state image pickup device 42 as a fisheye. However, when the effective projection area 122 is exceeded, the optical performance is greatly deteriorated, such as the resolving power being extremely reduced, the amount of light being reduced, and the distortion becoming stronger. Therefore, in this embodiment, the recording area is an example in which the image in the observation direction is cut out only from the image projected on the pixel area 121 (hereinafter simply referred to as the ultra-wide-angle image) of the half-celestial image displayed on the effective projection unit 122. will explain.

尚、本実施例では有効投影部122の上下方向のサイズが画素領域121の短辺のサイズより大きい為、有効投影部122における上下端の映像は画素領域121を外れているがこれに限定されない。例えば、撮像レンズ16の構成を変更して有効投影部122の全てが画素領域121内に収まるように光学系を設計してもよい。 In this embodiment, since the size of the effective projection portion 122 in the vertical direction is larger than the size of the short side of the pixel region 121, the images at the upper and lower ends of the effective projection portion 122 are out of the pixel region 121, but the present invention is not limited to this. . For example, the configuration of the imaging lens 16 may be changed to design the optical system so that the entire effective projection section 122 can be accommodated within the pixel area 121 .

無効画素領域123は、画素領域121のうち有効投影部122に含まれなかった画素領域である。 An invalid pixel area 123 is a pixel area that is not included in the effective projection area 122 in the pixel area 121 .

狙い視野125は、超広角画像から使用者の観察方向の映像を切り出す範囲を示す領域であり、観察方向を中心とする予め設定された左右上下の画角(ここでは45°、FOV角90°)により規定される。図11Aの例では、使用者は正面を向いているので、狙い視野125の中心は、有効投影部122の中心である観察方向voとなっている。 The target field of view 125 is an area indicating the range of cutting out the image in the viewing direction of the user from the ultra-wide-angle image, and is defined by a preset left, right, up, and down angle of view centered on the viewing direction (here, 45°, FOV angle of 90°). ). In the example of FIG. 11A, since the user faces the front, the center of the target field of view 125 is the observation direction vo, which is the center of the effective projection portion 122 .

図11Aに示す超広角映像には、子供である被写体A131、被写体Aである子供が登ろうとしている階段である被写体B132、及び機関車の形の遊具である被写体C133が含まれる。 The ultra-wide-angle image shown in FIG. 11A includes a subject A131 that is a child, a subject B132 that is a staircase that the child who is subject A is trying to climb, and a subject C133 that is a locomotive-shaped playground equipment.

次に、上記図11Aを用いて説明した超広角映像から観察方向の映像を得るために実行されるステップS300における記録方向・範囲決定処理を図7Dに示す。以下、狙い視野125の具体例である図12A~図12Gを用いて本処理を説明する。 Next, FIG. 7D shows the recording direction/range determination processing in step S300 that is executed to obtain the image in the viewing direction from the super-wide-angle image described using FIG. 11A. This process will be described below with reference to FIGS.

ステップS301で、事前に設定された画角設定値Vを一次メモリ103から読み出すことで取得する。 In step S<b>301 , the preset view angle setting value V is read out from the primary memory 103 to acquire it.

本実施例では、画像切り出し・現像処理部50にて観察方向の映像を超広角画像から切り出すことが可能な全ての画角、45°、90°、110°、130°が画角設定値Vとして内蔵不揮発性メモリ102に保存されている。また、図7BのステップS103,S106,S108のいずれかのステップで、内蔵不揮発性メモリ102から読み出された各種設定値に含まれる画角設定値Vが設定され、一次メモリ103に保存されている。 In the present embodiment, all the view angles, 45°, 90°, 110°, and 130°, at which the image clipping/development processing unit 50 can clip the video in the viewing direction from the super-wide-angle image, are the view angle setting values V is stored in the built-in nonvolatile memory 102 as . Also, in any one of steps S103, S106, and S108 in FIG. there is

また、ステップS301では、ステップS212で決まった観察方向viを記録方向に決定し、これを中心とする上記取得した画角設定値Vで超広角画像から切り出された狙い視野125の映像を、一次メモリ103に保存する。 In step S301, the observation direction vi determined in step S212 is determined as the recording direction, and the image of the target field of view 125 cut out from the ultra-wide-angle image with the above-obtained view angle setting value V centered on this is processed as a primary image. Save in memory 103 .

例えば、画角設定値Vが90°であり、且つ顔方向検出処理(図7C)で観察方向vo(ベクトル情報[0°,0°])が検出された場合、有効投影部122の中心Oを中心とする左右、上下の角度範囲が90°である狙い視野125(図11A)に設定される。図11Bは、図11Aの超広角映像から切り出された狙い視野125の映像を示す図である。つまり、全体制御CPU101(相対位置設定手段)は、顔方向検出部20で検出された顔方向の角度を、超広角映像に対する狙い視野125の相対位置を示すベクトル情報である観察方向viに設定している。 For example, when the view angle setting value V is 90° and the observation direction vo (vector information [0°, 0°]) is detected in the face direction detection process (FIG. 7C), the center O of the effective projection unit 122 is set to the target field of view 125 (FIG. 11A) in which the angular range in the left, right, and up and down directions is 90°. FIG. 11B is a diagram showing an image of the target field of view 125 cut out from the ultra-wide-angle image of FIG. 11A. That is, the overall control CPU 101 (relative position setting means) sets the angle of the face direction detected by the face direction detection unit 20 to the observation direction vi, which is vector information indicating the relative position of the target field of view 125 with respect to the ultra-wide-angle image. ing.

ここで、観察方向voの場合は撮像レンズ16による光学歪の影響はほぼ無視できるため、設定された狙い視野125の形状がそのまま後述するステップS303の歪み変換後の狙い視野125o(図12A)の形状となる。以下、観察方向viの場合の、歪み変換後の狙い視野125を、狙い視野125iという。 Here, in the case of the observation direction vo, since the influence of the optical distortion by the imaging lens 16 can be almost ignored, the shape of the set target field of view 125 can be used as it is for the target field of view 125o (FIG. 12A) after distortion conversion in step S303, which will be described later. shape. Hereinafter, the target field of view 125 after distortion conversion in the case of the observation direction vi is referred to as a target field of view 125i.

次にステップS302で、事前に設定された防振レベルを一次メモリ103から読み出すことで取得する。 Next, in step S302, a preset anti-vibration level is read out from the primary memory 103 to obtain it.

本実施例では、上述の通り、ステップS103,S106,S108のいずれかのステップで内蔵不揮発性メモリ102から読み出された各種設定値に含まれる防振レベルが設定され、一次メモリ103に保存されている。 In this embodiment, as described above, the anti-vibration level included in the various setting values read out from the built-in non-volatile memory 102 is set in one of steps S103, S106, and S108, and stored in the primary memory 103. ing.

また、ステップS302では、上記取得した防振レベルを基に防振用予備画素数Pisを設定する。 Further, in step S302, the number of spare pixels Pis for image stabilization is set based on the obtained image stabilization level.

防振処理では、撮影・検出部10のブレ量に追随して、ブレ方向と反対方向の映像に追随した映像を取得する。このため、本実施例では、狙い視野125iの周囲に防振に必要な防振用予備領域を設ける。 In the anti-vibration processing, an image that follows the image in the direction opposite to the direction of the blur is obtained by following the blur amount of the photographing/detecting unit 10 . For this reason, in this embodiment, a preliminary area for image stabilization necessary for image stabilization is provided around the target visual field 125i.

また本実施例では、各防振レベルに紐づく防振予備画素数Pisの値を保持するテーブルが内蔵不揮発性メモリ102に格納されている。例えば、防振レベルが「中」だった場合、上記テーブルから読み出された防振予備画素数Pisである100画素の幅の防振用予備領域が狙い視野を囲んで設定される。 Further, in this embodiment, the built-in non-volatile memory 102 stores a table that holds the value of the number of anti-shake pixels Pis associated with each anti-shake level. For example, if the vibration reduction level is "medium", a vibration correction preliminary area with a width of 100 pixels, which is the number of vibration correction preliminary pixels Pis read from the table, is set surrounding the target field of view.

図12Eは、図12Aで示す狙い視野125oの周囲に所定の防振レベルに対応する防振用予備領域を付与した例を示す図である。ここでは、防振レベルが「中」、すなわち防振予備画素数Pisが100画素である場合について説明する。 FIG. 12E is a diagram showing an example in which an anti-vibration preliminary area corresponding to a predetermined anti-vibration level is provided around the target visual field 125o shown in FIG. 12A. Here, the case where the image stabilization level is "medium", that is, the number of image stabilization spare pixels Pis is 100 pixels will be described.

図12Eに点線で示すように、狙い視野125oに対し、上下左右に夫々防振予備画素数Pisである100画素の幅の防振用予備画素枠126oが設定される。 As indicated by the dotted line in FIG. 12E, anti-vibration spare pixel frames 126o each having a width of 100 pixels, which is the number of anti-vibration spare pixels Pis, are set on the top, bottom, left, and right of the target field of view 125o.

図12A、図12Eでは説明の簡単化のため、観察方向viが有効投影部122の中心O(撮像レンズ16の光軸中心)と一致する場合について説明した。一方、観察方向viが有効投影部122の周辺部である場合は、光学歪の影響を軽減するための変換が必要である。 For simplicity of explanation, FIGS. 12A and 12E have explained the case where the observation direction vi coincides with the center O of the effective projection section 122 (the optical axis center of the imaging lens 16). On the other hand, when the observation direction vi is the periphery of the effective projection portion 122, conversion is required to reduce the effects of optical distortion.

ステップS303では、ステップS301で設定された狙い視野125の形状を、観察方向vi及び撮像レンズ16の光学特性を考慮して補正(歪み変換)し、狙い視野125iを生成する。同様に、ステップS302で設定された防振用予備画素数Pisも、観察方向vi及び撮像レンズ16の光学特性を考慮して補正する。 In step S303, the shape of the target field of view 125 set in step S301 is corrected (distorted) in consideration of the observation direction vi and the optical characteristics of the imaging lens 16 to generate a target field of view 125i. Similarly, the number of spare pixels for vibration reduction Pis set in step S302 is also corrected in consideration of the viewing direction vi and the optical characteristics of the imaging lens 16. FIG.

たとえば、画角設定値Vが90°で、使用者が中心oより右45°を観察しているとする。この場合、観察方向vr(ベクトル情報[45°,0°])がステップS212で決まり、観察方向vrを中心とする、左右45°、上下45°の範囲が狙い視野125となる。しかし、撮像レンズ16の光学特性を考慮し、狙い視野125は、図12Bに示す狙い視野125rに補正される。 For example, assume that the angle of view setting value V is 90° and the user is observing 45° to the right of the center o. In this case, the observation direction vr (vector information [45°, 0°]) is determined in step S212, and the target field of view 125 is a range of 45° left and right and 45° up and down centered on the observation direction vr. However, considering the optical characteristics of the imaging lens 16, the target field of view 125 is corrected to the target field of view 125r shown in FIG. 12B.

図12Bに示すように、狙い視野125rは有効投影部122の周辺部に行くにつれ広くなっており、且つ観察方向vrの位置も狙い視野125rの中心よりやや内側に来ている。これは、本実施例では、撮像レンズ16に立体射影魚眼に近い光学設計をしているためである。尚、撮像レンズ16が、等距離射影魚眼や、等立体角射影魚眼、正射影魚眼などによる設計であるとその関係は変わってくるので、その光学特性にあわせた補正が狙い視野125に対して行われる。 As shown in FIG. 12B, the target field of view 125r widens toward the periphery of the effective projection portion 122, and the position of the viewing direction vr is slightly inside the center of the target field of view 125r. This is because, in this embodiment, the imaging lens 16 has an optical design similar to a stereographic fisheye. Incidentally, if the imaging lens 16 is designed with an equidistant projection fisheye, an equisolid angle projection fisheye, or an orthogonal projection fisheye, etc., the relationship will change. performed for

図12Fは、図12Bで示す狙い視野125rの周囲に、図12Eの防振用予備領域と同一防振レベル「中」に対応する防振用予備領域126rを付与した例を示す図である。 FIG. 12F is a diagram showing an example in which an anti-vibration preliminary area 126r corresponding to the same anti-vibration level "middle" as the anti-vibration preliminary area in FIG. 12E is provided around the target visual field 125r shown in FIG. 12B.

防振用予備領域126o(図12E)では、狙い視野125oの上下左右の夫々に防振予備画素数Pisである100画素の幅で設定された。これに対し、防振用予備領域126r(図12F)は、有効投影部122の周辺部に行くにつれ、防振予備画素数Pisは補正されて増えている。 In the anti-vibration preliminary area 126o (FIG. 12E), a width of 100 pixels, which is the number of anti-vibration preliminary pixels Pis, is set in each of the top, bottom, left, and right of the target visual field 125o. On the other hand, in the anti-vibration preliminary area 126r (FIG. 12F), the number of anti-vibration preliminary pixels Pis is corrected and increased toward the periphery of the effective projection portion 122. FIG.

このように、狙い視野125rの形状と同様にその周囲に設けられた防振に必要な防振用予備領域の形状も、図12Fの防振用予備領域126rに示すように、有効投影部122の周辺部に行くにつれその補正量が大きくなる。これも、本実施例では、撮像レンズ16に立体射影魚眼に近い光学設計をしているためである。尚、撮像レンズ16が、等距離射影魚眼や、等立体角射影魚眼、正射影魚眼などによる設計であるとその関係は変わってくるので、その光学特性にあわせて防振用予備領域126rが補正される。 As described above, the shape of the image stabilization preliminary area required for image stabilization provided around the target field of view 125r is also the same as the shape of the image stabilization preliminary area 126r shown in FIG. 12F. The amount of correction increases toward the periphery of . This is also because, in this embodiment, the imaging lens 16 has an optical design similar to a stereoscopic projection fisheye. If the imaging lens 16 is designed with an equidistant projection fisheye, an equisolid angle projection fisheye, orthographic projection fisheye, etc., the relationship will change. 126r is corrected.

ステップS303で実行される、撮像レンズ16の光学特性を考慮して、狙い視野125及びその防振用予備領域の形状を逐次切り替える処理は、複雑な処理となる。そのため、本実施例では、内蔵不揮発性メモリ102内にある、観察方向vi毎の狙い視野125i及びやその防振用予備領域の形状が保持されるテーブルを用いてステップS303の処理は実行される。尚、先にあげた撮像レンズ16の光学設計によっては演算式を全体制御CPU101内に持っておき、その演算式によって光学歪値を算出しても良い。 The process of sequentially switching the shapes of the target field of view 125 and its anti-vibration preliminary area in consideration of the optical characteristics of the imaging lens 16, which is executed in step S303, is a complicated process. Therefore, in this embodiment, the processing of step S303 is executed using a table in the built-in nonvolatile memory 102 that holds the shape of the target field of view 125i for each viewing direction vi and the shape of the preliminary area for image stabilization. . Incidentally, depending on the optical design of the imaging lens 16 mentioned above, an arithmetic expression may be stored in the overall control CPU 101, and the optical distortion value may be calculated by the arithmetic expression.

ステップS304では、映像記録用枠の位置及びサイズを算出する。 In step S304, the position and size of the video recording frame are calculated.

上述の通り、防振に必要な防振用予備領域126iは狙い視野125iの周囲に設けられる。しかし、観察方向viの位置が有効投影部122の周辺に近づくと、例えば防振用予備領域126rの様にその形状がかなり特殊なものとなる。 As described above, the preliminary region 126i for image stabilization required for image stabilization is provided around the target visual field 125i. However, when the position in the viewing direction vi approaches the periphery of the effective projection portion 122, the shape becomes quite special, such as the preliminary region 126r for vibration isolation.

全体制御CPU101は、このような特殊な形状の範囲だけの映像を切り出して現像処理を行うことは可能である。しかし、ステップS600で映像データとして記録したり、ステップS700で表示装置800に転送したりする際に、長方形ではない映像を用いることは一般的でない。そこでステップS304では、この防振用予備領域126iの全体を包含する、長方形形状の映像記録用枠127iの位置及びサイズを算出する。 The overall control CPU 101 can cut out only the image of such a special shape and perform development processing. However, it is not common to use a non-rectangular image when recording as image data in step S600 or transferring to display device 800 in step S700. Therefore, in step S304, the position and size of a rectangular image recording frame 127i that includes the entire anti-vibration preliminary area 126i are calculated.

図12Fでは、防振用予備領域126rに対してステップS304で算出された、一点鎖線で示す映像記録用枠127rを示す。 FIG. 12F shows a video recording frame 127r indicated by a dashed line, calculated in step S304 for the anti-shake preliminary area 126r.

ステップS305では、ステップS304で算出された映像記録用枠127iの位置とサイズを一次メモリ103に記録する。 In step S305, the position and size of the video recording frame 127i calculated in step S304 are recorded in the primary memory 103. FIG.

本実施例では、超広角映像における映像記録用枠127iの左上の座標Xi,Yiを、映像記録用枠127iの位置として記録し、座標Xi,Yiからの映像記録用枠127iの横幅WXi及び縦幅WYiを、映像記録用枠127iのサイズとして記録する。例えば、図12Fに示す映像記録用枠127rに対しては、図示される座標Xr,Yr、横幅WXr、及び縦幅WYrがステップS305で記録される。尚、座標Xi,Yiは、所定の基準点、具体的には撮像レンズ16の光学中心を原点とするXY座標である。 In this embodiment, the upper left coordinates Xi, Yi of the image recording frame 127i in the ultra-wide-angle image are recorded as the position of the image recording frame 127i, and the horizontal width WXi and the vertical width WXi of the image recording frame 127i from the coordinates Xi, Yi are recorded. The width WYi is recorded as the size of the video recording frame 127i. For example, for the video recording frame 127r shown in FIG. 12F, the illustrated coordinates Xr, Yr, horizontal width WXr, and vertical width WYr are recorded in step S305. The coordinates Xi and Yi are XY coordinates with a predetermined reference point, specifically, the optical center of the imaging lens 16 as the origin.

この様にして防振用予備領域126iや映像記録用枠127iが決まったところで、図7Dに示すサブルーチンを抜ける。 When the anti-vibration spare area 126i and the video recording frame 127i are determined in this manner, the subroutine shown in FIG. 7D is exited.

尚、ここまでの説明では、複雑な光学歪変換の説明の簡単化のために観察方向viの例として、水平0°を含む観察方向、すなわち観察方向vo(ベクトル情報[0°,0°])や観察方向vr(ベクトル情報[45°,0°])を用いた説明を行った。しかし実際には、使用者の観察方向viは様々な方向となる。よって以下、水平0°でない場合に実行される記録範囲現像処理について説明する。 In the description so far, for the sake of simplification of the explanation of the complicated optical distortion conversion, the observation direction vi is taken as an example of the observation direction including the horizontal 0°, that is, the observation direction vo (vector information [0°, 0°] ) and observation direction vr (vector information [45°, 0°]). However, in practice, the viewing direction vi of the user varies. Therefore, the recording area development process executed when the horizontal angle is not 0° will be described below.

例えば、画角設定値Vが90°で観察方向vm[-42°,-40°]の場合の狙い視野125mは、図12Cのようになる。 For example, the target visual field 125m when the view angle setting value V is 90° and the observation direction is vm [−42°, −40°] is as shown in FIG. 12C.

また狙い視野125mと同じ観察方向vm(ベクトル情報[-42°,-40°])であっても、画角設定値Vが45°であった場合、図12Dに示すように、狙い視野125mより一回り小さい狙い視野128mとなる。さらに狙い視野128mについては、図12Gに示すような、防振用予備領域129m及び映像記録用枠130mが設定される。 Also, even if the observation direction vm (vector information [-42°, -40°]) is the same as the target field of view 125m, if the angle of view setting value V is 45°, the target field of view 125m The target field of view is 128 m, which is one size smaller. Furthermore, for the target field of view 128m, a preliminary region 129m for image stabilization and a frame 130m for video recording are set as shown in FIG. 12G.

ステップS400は撮像の基本動作であり、撮影部40の一般的なシーケンスを用いるので、詳細な説明を省略する。尚、本実施例では、撮影部40にある撮像信号処理回路43は、固体撮像素子42から出力された、固有の出力形態(規格の例:MIPI,SLVS)での信号を、一般的なセンサ読み出し方式の撮像データに修正する処理も行う。 Step S400 is a basic operation of imaging, and since a general sequence of the imaging unit 40 is used, detailed description will be omitted. In this embodiment, the imaging signal processing circuit 43 in the imaging unit 40 converts the signal output from the solid-state imaging device 42 in a specific output format (examples of standards: MIPI, SLVS) to a general sensor. It also performs a process of correcting the imaging data to read-out method.

尚、撮像モードスイッチ12で選択されているモードが動画モードの場合は、スタートスイッチ14の押下に応じて、撮影部40が録画を開始する。その後、ストップスイッチ15が押下されたとき、録画を終了する。一方、撮像モードスイッチ12で選択されているモードが静止画モードの場合は、スタートスイッチ14の押下がある毎に、撮影部40が静止画を撮像する。 When the mode selected by the imaging mode switch 12 is the moving image mode, the imaging unit 40 starts recording when the start switch 14 is pressed. After that, when the stop switch 15 is pressed, the recording ends. On the other hand, when the mode selected by the imaging mode switch 12 is the still image mode, the imaging unit 40 takes a still image each time the start switch 14 is pressed.

図7Eは、図7AのステップS500の記録範囲現像処理のサブルーチンのフローチャートである。 FIG. 7E is a flowchart of a subroutine of recording area development processing in step S500 of FIG. 7A.

ステップS501では、ステップS400において撮影部40で生成された撮像データ(超広角映像)の全領域のRawデータを取得し、全体制御CPU101の不図示のヘッド部と呼ばれる映像取り込み部に入力する。 In step S501, raw data of the entire area of the imaging data (ultra-wide-angle video) generated by the imaging unit 40 in step S400 is obtained and input to an image capture unit called a head unit (not shown) of the overall control CPU 101.

次いでステップS502では、ステップS305で一次メモリ103に記録された座標Xi,Yi、横幅WXi及び縦幅WYiに基づき、ステップS501で取得した超広角映像から映像記録用枠127iの部分を切り出す。この切り出し後、防振用予備領域126i内の画素のみに対して、以下実行するステップS503~S508からなるクロップ現像処理(図7F)が開始する。これにより、ステップS501で読み込んだ超広角映像の全領域に対して現像処理を行う場合と比べて演算量を大幅に削減でき、演算時間や電力を削減することができる。 Next, in step S502, based on the coordinates Xi, Yi, width WXi, and height WYi recorded in the primary memory 103 in step S305, a portion of the video recording frame 127i is cut out from the ultra-wide-angle video acquired in step S501. After this cropping, the crop development process (FIG. 7F) consisting of steps S503 to S508 executed below is started only for the pixels in the anti-vibration preliminary area 126i. As a result, the amount of calculation can be greatly reduced compared to the case where development processing is performed on the entire area of the super-wide-angle image read in step S501, and the calculation time and power can be reduced.

尚、図7Fに示すように、撮像モードスイッチ12で選択されているモードが動画モードである場合、ステップS200,S300の処理と、ステップS400の処理は、夫々同一又は異なるフレームレートで並列に実行される。つまり、撮影部40で生成された1フレーム分の全領域のRawデータが取得される毎に、その時点で一次メモリ103に記録されている座標Xi,Yi、横幅WXi及び縦幅WYiに基づきクロップ現像処理が行われる。 As shown in FIG. 7F, when the mode selected by the imaging mode switch 12 is the moving image mode, the processes of steps S200 and S300 and the process of step S400 are executed in parallel at the same or different frame rates. be done. That is, each time the raw data of the entire area for one frame generated by the imaging unit 40 is acquired, cropping is performed based on the coordinates Xi and Yi, the horizontal width WXi, and the vertical width WYi recorded in the primary memory 103 at that time. Development processing is performed.

防振用予備領域126i内の画素に対するクロップ現像処理を開始すると、まず、ステップS503でベイヤ配列に配置された色画素情報を補完する色補完を行う。 When the crop development process for the pixels in the anti-vibration preliminary area 126i is started, first, in step S503, color interpolation is performed to complement the color pixel information arranged in the Bayer array.

その後、ステップS504でホワイトバランスの調整を行った後、ステップS505で色変換を行う。 Thereafter, after adjusting the white balance in step S504, color conversion is performed in step S505.

ステップS506では、あらかじめ設定したガンマ補正値に従って階調を補正するガンマ補正を行う。 In step S506, gamma correction is performed to correct the gradation according to a preset gamma correction value.

ステップS507では、画像サイズに合わせたエッジ強調を行う。 In step S507, edge enhancement is performed in accordance with the image size.

ステップS508では、圧縮その他の処理を行うことで一次保存可能なデータ形式に変換し、1次メモリ103に記録した後、本サブルーチンを抜ける。この一次保存可能なデータ形式の詳細については後述する。 In step S508, the data is converted into a data format that can be temporarily stored by performing compression and other processing, and after recording in the primary memory 103, this subroutine is exited. The details of the data format that can be temporarily stored will be described later.

尚、ステップS503~S508で実行されるクロップ現像処理の順序や処理の有無は、カメラシステムに合わせて行えばよく、本発明を制限するものではない。 It should be noted that the order of the cropping development processing executed in steps S503 to S508 and the presence or absence of processing may be determined in accordance with the camera system, and are not intended to limit the present invention.

また、動画モードが選択されている場合、ステップS200~S500までの処理は録画が終了されるまで繰り返し実行される。 Also, when the moving image mode is selected, the processing from steps S200 to S500 is repeatedly executed until the recording ends.

本処理によれば、ステップS501で読み込んだ全領域の現像処理を行う場合と比べて演算量を大幅に削減することができる。このため、全体制御CPU101として安価で低消費電力なマイコンを使えるようになり、また、全体制御CPU101における発熱を抑えるとともに、バッテリー94の持ちもよくなる。 According to this process, the amount of calculation can be greatly reduced compared to the case where the development process is performed on the entire area read in step S501. Therefore, an inexpensive and low power consumption microcomputer can be used as the overall control CPU 101, heat generation in the overall control CPU 101 can be suppressed, and the battery 94 can last longer.

また、本実施例では、全体制御CPU101の制御負荷を軽くするため、映像の光学補正処理(図7AのステップS800)や防振処理(図7AのステップS900)はカメラ本体1では行わず、表示装置800に転送してから表示装置制御部801にて行う。そのため、投影された超広角映像から部分的に切り出した映像のデータだけを表示装置800に送ってしまうと、光学補正処理や防振処理を行うことができない。つまり、切り出した映像のデータだけでは、光学補正処理の際に式に代入したり、防振処理の際に補正テーブルより参照したりするために用いる位置情報が無い為、これらの処理を表示装置800において正しく実行できない。そのため、本実施例では、切り出した映像のデータだけでなく、その映像の超広角映像からの切り出し位置の情報等を含む補正データも共にカメラ本体1から表示装置800に送信する。 Further, in this embodiment, in order to lighten the control load of the overall control CPU 101, the image optical correction processing (step S800 in FIG. 7A) and image stabilization processing (step S900 in FIG. 7A) are not performed in the camera body 1, and the display After transferring to the device 800 , the display device control unit 801 performs the processing. Therefore, if only data of an image partially clipped from a projected ultra-wide-angle image is sent to the display device 800, optical correction processing and vibration reduction processing cannot be performed. In other words, the data of the clipped image alone does not have the position information used for substituting it into the formula for the optical correction processing or referring to the correction table for the image stabilizing processing. 800 cannot run correctly. Therefore, in this embodiment, not only data of the clipped image but also correction data including information on the clipping position of the image from the ultra-wide-angle image are transmitted from the camera body 1 to the display device 800 .

ここで切り出した映像が静止画映像である場合、静止画映像のデータと補正データを別途表示装置800に送信しても静止画映像のデータと補正データは1対1対応であるので、表示装置800において正しく光学補正処理や防振処理を行うことができる。一方、切り出した映像が動画映像である場合、動画映像のデータと補正データを別途表示装置800に送信すると、送信された補正データが、動画映像の各フレームに対するいずれの補正データであるかの判断が難しくなる。特に、カメラ本体1内の全体制御CPU101のクロックレートと、表示装置800内の表示装置制御部801のクロックレートが微妙に異なると数分の動画撮像で全体制御CPU101と表示装置制御部801の間の同期が取れなくなる。この結果、表示装置制御部801は、処理すべきフレームをそれに対応する補正データとは異なる補正データで補正してしまうなどの課題が生じる。 If the clipped image is a still image, even if the data of the still image and the correction data are separately transmitted to the display device 800, the data of the still image and the correction data are in one-to-one correspondence. In 800, correct optical correction processing and image stabilizing processing can be performed. On the other hand, if the clipped image is a moving image, if the data of the moving image and the correction data are separately transmitted to the display device 800, it is determined which correction data for each frame of the moving image is the transmitted correction data. becomes difficult. In particular, if the clock rate of the overall control CPU 101 in the camera body 1 and the clock rate of the display device control unit 801 in the display device 800 are slightly different, the difference between the overall control CPU 101 and the display device control unit 801 will occur after several minutes of video shooting. out of sync. As a result, the display device control unit 801 corrects the frame to be processed with correction data different from the correction data corresponding thereto.

よって、本実施例では、カメラ本体1から表示装置800に切り出した動画映像のデータを送信するにあたり、動画映像のデータに対してその補正データを適切に付与する。以下、その方法について説明する。 Therefore, in the present embodiment, when data of a moving image cut out from the camera body 1 is transmitted to the display device 800, the correction data is appropriately given to the data of the moving image. The method will be described below.

図14は、図7AのステップS600の一次記録処理のサブルーチンのフローチャートである。本処理を、以下、図15も参照して説明する。図14では、撮像モードスイッチ12で選択されているモードが動画モードである場合の処理が示されている。尚、選択されているモードが静止画モードである場合は、本処理は、ステップS601の処理から始まり、ステップS606の処理が終わると終了する。 FIG. 14 is a flowchart of a subroutine of primary recording processing in step S600 of FIG. 7A. This processing will be described below with reference to FIG. 15 as well. FIG. 14 shows processing when the mode selected by the imaging mode switch 12 is the moving image mode. If the selected mode is still image mode, this process starts from step S601 and ends when step S606 ends.

ステップS601aで、全体制御CPU101は記録範囲現像処理(図7E)で現像された動画映像からステップS601~S606までの処理が未処理である1つのフレームの画像を読み出す。また、全体制御CPU101(メタデータ生成手段)はその読み出したフレームのメタデータである補正データを生成する。 In step S601a, the overall control CPU 101 reads out one frame image for which steps S601 to S606 have not been processed from the moving image developed in the recording area development process (FIG. 7E). Also, the overall control CPU 101 (metadata generation means) generates correction data, which is metadata of the read frame.

ステップS601では、全体制御CPU101はステップS600で読み出したフレームの画像の切り出し位置の情報を補正データに添付する。ここで添付される情報は、ステップS305で取得した映像記録用枠127iの座標Xi,Yiである。尚、ここで添付される情報を、観察方向Viを示すベクトル情報としてもよい。 In step S601, the overall control CPU 101 attaches information about the clipping position of the image of the frame read out in step S600 to the correction data. The information attached here is the coordinates Xi and Yi of the video recording frame 127i acquired in step S305. The information attached here may be vector information indicating the viewing direction Vi.

ステップS602では、全体制御CPU101(光学補正値取得手段)は光学補正値を取得する。光学補正値はステップS303で設定された光学歪値である。あるいは、周辺光量補正値や回折補正といったレンズ光学特性に応じた補正値でもよい。 In step S602, the overall control CPU 101 (optical correction value obtaining means) obtains an optical correction value. The optical correction value is the optical distortion value set in step S303. Alternatively, correction values corresponding to lens optical characteristics such as peripheral light amount correction values and diffraction correction may be used.

ステップS603では、全体制御CPU101はステップS602の歪み変換に用いた光学補正値を補正データに添付する。 In step S603, the overall control CPU 101 attaches the optical correction value used for distortion conversion in step S602 to the correction data.

ステップS604では、全体制御CPU101は防振モードであるか否かを判断する。具体的には、事前に設定された防振モードが「中」又は「強」だった場合、防振モードであると判断してステップS605に進む。一方、事前に設定された防振モードが「切」だった場合は防振モードでないと判断してステップS606に進む。尚、ここで防振モードが「切」だった場合にステップS605をスキップする理由は、スキップした分、全体制御CPU101の演算データ量や無線送信時のデータ量を削減でき、ひいては、カメラ本体1の電力削減や発熱低減もできるためである。尚、ここでは防振処理に用いるデータの削減について説明したが、ステップS602で取得した光学補正値に含まれる、周辺光量補正値や、回折補正の有無についてのデータを削減しても良い。 In step S604, the overall control CPU 101 determines whether or not the mode is anti-vibration mode. Specifically, if the preset anti-shake mode is "medium" or "strong," it is determined that the anti-shake mode is on, and the process proceeds to step S605. On the other hand, if the anti-vibration mode set in advance is "OFF", it is determined that the mode is not anti-vibration mode, and the process proceeds to step S606. The reason why step S605 is skipped when the anti-shake mode is "OFF" is that the amount of data calculated by the overall control CPU 101 and the amount of data during wireless transmission can be reduced by skipping. This is because power consumption and heat generation can also be reduced. Although the reduction of the data used for image stabilizing processing has been described here, the peripheral illumination correction value and the data regarding the presence/absence of diffraction correction included in the optical correction value acquired in step S602 may be reduced.

本実施例では防振モードは、表示装置800による使用者の操作により事前に設定されているが、カメラ本体1の初期設定として設定されていてもよい。また、表示装置800に転送後に防振処理の有無を切り替えるようなカメラシステムとした場合は、ステップS604を無くし、ステップS603から直接ステップS605に進むようにしてもよい。 In this embodiment, the anti-vibration mode is set in advance by the user's operation on the display device 800 , but may be set as an initial setting of the camera body 1 . Also, in the case of a camera system that switches the presence/absence of image stabilizing processing after transfer to the display device 800, step S604 may be omitted and the process may proceed directly from step S603 to step S605.

ステップS605では、全体制御CPU101(移動量検出手段)はステップS302で取得した防振モード、及び一次メモリ813にあるステップS601aで読み出したフレームと紐づく動画撮像中のジャイロデータを補正データに添付する。 In step S605, the overall control CPU 101 (movement amount detection means) attaches the anti-vibration mode acquired in step S302 and the gyro data during moving image shooting linked to the frame read out in step S601a in the primary memory 813 to the correction data. .

ステップS606では、全体制御CPU101は、ステップS600で読み出されたフレームの画像のデータと、ステップS601~S605により各種データが添付された補正データとをエンコードしたデータで、映像ファイル1000(図15)を更新する。尚、ステップS601aにおいて動画映像の最初のフレームの読み出しがされた場合については、ステップS606で映像ファイル1000が生成される。 At step S606, the overall control CPU 101 encodes the image data of the frame read out at step S600 and the correction data to which various data are attached at steps S601 to S605 to encode the video file 1000 (FIG. 15). to update. Note that when the first frame of the moving image is read in step S601a, the image file 1000 is generated in step S606.

ステップS607で、全体制御CPU101は、記録範囲現像処理(図7E)で現像された動画映像の全てのフレームの画像の読み出しが終了したか判別し、終了していない場合は、ステップS601aに戻る。一方、終了している場合は、本サブルーチンを抜ける。生成された映像ファイル1000は、内蔵不揮発性メモリ102に保存される。前述した1次メモリ813及び内蔵不揮発性メモリ102に保存されるだけでなく、大容量不揮発性メモリ51にも保存されるようにしてもよい。また、生成された映像ファイル1000をただちに表示装置800へ転送する転送処理(図7AのステップS700)を実行する。表示装置800に転送後、その映像ファイル1000を1次メモリ813に保存してもよい。 In step S607, the overall control CPU 101 determines whether reading of images of all frames of the moving image developed in the recording area development process (FIG. 7E) has been completed. If not, the process returns to step S601a. On the other hand, if it has ended, this subroutine is exited. The generated video file 1000 is saved in the built-in non-volatile memory 102 . It may be stored not only in the primary memory 813 and the built-in non-volatile memory 102 described above, but also in the large-capacity non-volatile memory 51 . Also, a transfer process (step S700 in FIG. 7A) is executed to transfer the generated video file 1000 to the display device 800 immediately. After being transferred to the display device 800 , the video file 1000 may be stored in the primary memory 813 .

ここで、本実施例において、エンコードとは、映像データと補正データを合体させ1つのファイルにすることを指すが、この際、映像データを圧縮、あるいは映像データと補正データを合体させたものを圧縮してもよい。 Here, in this embodiment, "encoding" refers to combining video data and correction data into a single file. Can be compressed.

図15は、映像ファイル1000のデータ構造を示す図である。 FIG. 15 is a diagram showing the data structure of the video file 1000. As shown in FIG.

映像ファイル1000は、ヘッダ1001とフレーム部1002で構成される。フレーム部1002は、動画映像を構成する各フレームの画像とこれに対応するフレームメタデータがセットとなったフレームデータセット・BR>ナ構成されている。すなわち、フレーム1002部には、動画映像の総フレーム分だけフレームデータセットが存在する。 A video file 1000 is composed of a header 1001 and a frame portion 1002 . The frame portion 1002 is composed of a frame data set BR>, which is a set of images of each frame constituting a moving image and frame metadata corresponding thereto. That is, the frame 1002 portion has frame data sets for the total number of frames of the moving image.

本実施例では、フレームメタデータは、切り出し位置(映像内位置情報)、光学補正値及びジャイロデータが必要に応じて添付された補正データがエンコードされた情報であるがこれに限定されない。例えば、撮像モードスイッチ12で選択された撮像モードに応じてフレームメタデータに他の情報を添付したり、あるいは、フレームメタデータにある情報を削除したりするなどしてフレームメタデータの情報量を変更しても良い。 In the present embodiment, the frame metadata is information encoded with correction data to which cutout positions (position information in the video), optical correction values, and gyro data are attached as necessary, but is not limited to this. For example, depending on the imaging mode selected by the imaging mode switch 12, other information is attached to the frame metadata, or information in the frame metadata is deleted, thereby reducing the information amount of the frame metadata. You can change it.

ヘッダ1001には、各フレームのフレームデータセットまでのオフセット値または先頭アドレスを記録しておく。あるいは、ヘッダ1001には、映像ファイル1000に対応した時刻やサイズといったメタデータを保存してもよい。 In the header 1001, the offset value or start address of each frame to the frame data set is recorded. Alternatively, the header 1001 may store metadata such as time and size corresponding to the video file 1000 .

このように、一次記録処理(図14)では、表示装置800には、記録範囲現像処理(図7E)で現像された動画映像の各フレームとそのメタデータがセットとなった映像ファイル1000が転送される。よって、カメラ本体1の全体制御CPU101のクロックレートと、表示装置800の表示装置制御部801のクロックレートが微妙に異なる場合も、表示装置制御部801はカメラ本体1で現像された動画映像の補正処理を確実に実行できる。 In this way, in the primary recording process (FIG. 14), the image file 1000 in which each frame of the moving image developed in the recording area development process (FIG. 7E) and its metadata are set is transferred to the display device 800. be done. Therefore, even if the clock rate of the overall control CPU 101 of the camera body 1 and the clock rate of the display device control section 801 of the display device 800 are slightly different, the display device control section 801 can correct the moving image developed by the camera body 1. process can be performed reliably.

尚、本実施例では、フレームメタデータに光学補正値が含まれたが、映像全体に対して光学補正値を付与するようにしてもよい。 In this embodiment, the optical correction value is included in the frame metadata, but the optical correction value may be applied to the entire image.

図16は、図7AのステップS700の表示装置800への転送処理のサブルーチンのフローチャートである。図16では、撮像モードスイッチ12で選択されているモードが動画モードである場合の処理が示されている。尚、選択されているモードが静止画モードである場合は、本処理は、ステップS702の処理から始まる。 FIG. 16 is a flowchart of a subroutine of transfer processing to display device 800 in step S700 of FIG. 7A. FIG. 16 shows processing when the mode selected by the imaging mode switch 12 is the moving image mode. Note that if the selected mode is the still image mode, this process starts from step S702.

ステップS701では、撮影部40による動画映像の録画(ステップS400)が終了したか、また録画中である否かを判断する。ここで、動画映像が録画中(動画撮像中)である場合、フレーム毎の記録範囲現像処理(ステップS500)や、一次記録処理(ステップS600)での映像ファイル1000の更新(ステップS606)が順次行われている状態となる。無線転送は電力負荷が大きいため、録画中に並行して行うと、バッテリー94の電池容量を多く必要としたり発熱対策を別途行う必要があったりする。また、演算能力の観点で見ても、録画中に並行して無線転送を行うと演算負荷が大きくなるため、高スペックの全体制御CPU101を準備する必要があり、コストとしても大きくなってしまう。本実施例ではこれらを鑑み、動画映像の録画の終了を待ってから(ステップS701でYES)、ステップS702へ進み、表示装置800との接続を確立する。ただし、本実施例のカメラシステムが、バッテリー94から供給される電力に余裕があり且つ別途の発熱対策は不要であれば、カメラ本体1の起動時や録画を開始する前などであらかじめ表示装置800と接続をしてもよい。 In step S701, it is determined whether or not recording of the moving image by the imaging unit 40 (step S400) is completed, or whether recording is in progress. Here, when a moving image is being recorded (moving image is being captured), recording area development processing (step S500) for each frame and updating of the image file 1000 (step S606) in the primary recording processing (step S600) are sequentially performed. It will be in the state of being done. Since wireless transfer has a large power load, if it is performed in parallel with recording, a large battery capacity of the battery 94 is required, or heat generation countermeasures need to be taken separately. Also, from the point of view of computing power, performing wireless transfer in parallel with video recording increases the computing load, so it is necessary to prepare a high-spec overall control CPU 101, which increases the cost. In view of this, in this embodiment, after waiting for the end of recording of the moving image (YES in step S701), the process proceeds to step S702 to establish connection with the display device 800. FIG. However, if the camera system of the present embodiment has sufficient power supplied from the battery 94 and does not require a separate countermeasure against heat generation, the display device 800 may be set in advance when the camera body 1 is activated or before recording is started. You can connect with

ステップS702では、データ量の多い映像ファイル1000を表示装置800に転送するため、高速無線ユニット72を介して表示装置800との接続を確立する。尚、小電力無線ユニット71は、表示装置800への画角確認のための低解像度映像(あるいは映像)の転送や、表示装置800との間での各種設定値の送受信に利用するが、伝送に時間を要してしまうため映像ファイル1000の転送には利用しない。 In step S 702 , a connection is established with the display device 800 via the high-speed wireless unit 72 in order to transfer the video file 1000 with a large amount of data to the display device 800 . The low-power wireless unit 71 is used for transferring low-resolution video (or video) for checking the angle of view to the display device 800 and for transmitting and receiving various setting values to and from the display device 800. Since it takes time to transfer the video file 1000, it is not used.

ステップS703では、高速無線ユニット72を介して映像ファイル1000を表示装置800へ転送し、転送が終了した時点で、ステップS704に進み、表示装置800との接続を閉じた後、本サブルーチンを抜ける。 In step S703, the video file 1000 is transferred to the display device 800 via the high-speed wireless unit 72, and when the transfer is completed, the process advances to step S704, closes the connection with the display device 800, and exits from this subroutine.

ここまでは1つの動画映像の全フレームの画像を含む1つの映像ファイルを転送する場合を説明したが、数分にわたる長時間の動画映像の場合は、時間単位で区切った複数の映像ファイルとしても良い。図15に示すデータ構造の映像ファイルであれば、1つの動画映像を複数の映像ファイルとして表示装置800に転送しても、表示装置800において補正データとのタイミングズレなく動画映像を補正することが可能となる。 Up to this point, we have explained the case of transferring a single video file containing images of all frames of a single moving image. good. If the video file has the data structure shown in FIG. 15, even if one moving image is transferred to the display device 800 as a plurality of video files, the moving image can be corrected on the display device 800 without timing deviation from the correction data. It becomes possible.

図17は、図7AのステップS800の光学補正処理のサブルーチンのフローチャートである。本処理を、以下、図18も参照して説明する。尚、上述の通り、本処理は、表示装置800の表示装置制御部801が実行する処理である。 FIG. 17 is a flowchart of a subroutine of optical correction processing in step S800 of FIG. 7A. This processing will be described below with reference to FIG. 18 as well. Note that, as described above, this processing is processing executed by the display device control unit 801 of the display device 800 .

ステップS801では、まず表示装置制御部801(映像ファイル受信手段)は、表示装置800への転送処理(ステップS700)にて転送されたカメラ本体1からの映像ファイル1000を受信する。その後、表示装置制御部801(第1の抽出手段)は、受信した映像ファイル1000から抽出した光学補正値を取得する。 In step S801, first, the display device control section 801 (video file receiving means) receives the video file 1000 from the camera body 1 transferred in the transfer processing to the display device 800 (step S700). After that, the display device control unit 801 (first extraction means) acquires the optical correction values extracted from the received video file 1000 .

続いてステップS802では、表示装置制御部801(第2の抽出手段)は、映像ファイル1000から映像(動画撮像で得られた1つのフレームの画像)を取得する。 Subsequently, in step S<b>802 , the display device control unit 801 (second extraction unit) acquires a video (one frame image obtained by capturing a moving image) from the video file 1000 .

ステップS803では、表示装置制御部801(フレーム映像補正手段)は、ステップS801で取得した光学補正値によりステップS802で取得した映像の光学収差を補正し、補正した映像を1次メモリ813に保存する。光学補正を行う際、ステップS802で取得した映像からの切り出しを行う場合、ステップS303で決定した現像範囲(狙い視野125i)よりも狭い画像の範囲で切り出して処理を行う(切り出し現像領域)。 In step S803, the display device control unit 801 (frame image correction means) corrects the optical aberration of the image acquired in step S802 using the optical correction value acquired in step S801, and stores the corrected image in the primary memory 813. . When cutting out the image acquired in step S802 when optical correction is performed, the image is cut out in an image range narrower than the development range (target visual field 125i) determined in step S303 (cutout development region).

図18は、図17のステップS803において歪曲収差補正を実施した過程を説明するための図である。 FIG. 18 is a diagram for explaining the process of performing distortion aberration correction in step S803 of FIG.

図18(a)は、使用者が撮像時に肉眼でみた被写体1401の位置を示す図であり、図18(b)は、被写体1401が固体撮像素子42上に映った像を示す図である。 FIG. 18(a) is a diagram showing the position of the subject 1401 as seen by the user's naked eye during imaging, and FIG.

図18(c)は、図18(b)の像における現像領域1402を示す図である。ここで、現像領域1402は先ほど説明した切り出し現像領域のことである。 FIG. 18(c) shows the developed area 1402 in the image of FIG. 18(b). Here, the development area 1402 is the clipped development area described above.

図18(d)は、現像領域1402の像が切り出された、切り出し現像映像を示す図であり、図18(e)は、図18(d)の切り出し現像映像を歪曲補正した映像を示す図である。切り出し現像映像の歪曲補正時に切り出し処理を行うので、図18(e)に示す映像は、図18(d)に示す切り出し現像映像よりさらに画角は小さくなる。 FIG. 18(d) is a view showing a clipped developed image in which the image of the development area 1402 is clipped, and FIG. 18(e) is a view showing an image obtained by correcting the distortion of the clipped developed image of FIG. 18(d). is. Since the clipping process is performed during distortion correction of the clipped developed image, the angle of view of the clipped developed image shown in FIG. 18(e) is even smaller than that of the clipped developed image shown in FIG.

図19は、図7AのステップS900の防振処理のサブルーチンのフローチャートである。本処理を、以下、図18(f)も参照して説明する。尚、上述の通り、本処理は、表示装置800の表示装置制御部801が実行する処理である。 FIG. 19 is a flow chart of a subroutine of image stabilizing processing in step S900 of FIG. 7A. This process will be described below with reference to FIG. 18(f) as well. Note that, as described above, this processing is processing executed by the display device control unit 801 of the display device 800 .

ステップS901では、表示装置制御部801は、映像ファイル1000のフレームメタデータから、現フレーム及び前フレームのジャイロデータと、前フレームに対して後述のステップS902で算出されたブレ量Vn-1 Detを取得する。その後、これらの情報からおおよそのブレ量V Preを算出する。尚、本実施例において、現フレームとは、現在処理中のフレームであり、前フレームとは現フレームの1フレーム前のフレームである。 In step S901, the display device control unit 801 extracts the gyro data of the current frame and the previous frame from the frame metadata of the video file 1000, and the blur amount Vn -1 Det calculated for the previous frame in step S902, which will be described later. to get After that, an approximate shake amount V n Pre is calculated from these pieces of information. In this embodiment, the current frame is the frame currently being processed, and the previous frame is the frame one frame before the current frame.

ステップS902では、表示装置制御部801は、映像ファイルから詳細なブレ量V Detをもとめる。ブレ量の検出は、現フレームの画像の特徴点が前フレームからどの程度移動したかを計算することで行う。 In step S902, the display device control unit 801 obtains the detailed blur amount VnDet from the video file. The blur amount is detected by calculating how much the feature point of the image of the current frame has moved from the previous frame.

特徴点の抽出は既知の方法が採用できる。例えば、フレームの画像の輝度情報のみを抽出した輝度情報画像を生成し、それを1乃至数ピクセルずらした画像をもとの画像から減算してその絶対値が閾値以上の画素を特徴点として抽出してもよい。また上記輝度情報画像にハイパスフィルターをかけた画像を、もとの輝度情報画像から減算し抽出されたエッジを特徴点として抽出してもよい。 A known method can be adopted for extracting feature points. For example, a luminance information image is generated by extracting only the luminance information of the image of the frame, and the image obtained by shifting the image by one to several pixels is subtracted from the original image, and the pixels whose absolute value is greater than the threshold value are extracted as feature points. You may Further, an image obtained by applying a high-pass filter to the luminance information image may be subtracted from the original luminance information image, and the extracted edge may be extracted as a feature point.

現フレームと前フレームの輝度情報画像を1乃至数ピクセルずつずらしながら複数回差分を計算し、特徴点の画素での差分が少なくなる位置を計算することで移動量が算出される。 Differences are calculated a plurality of times while the luminance information images of the current frame and the previous frame are shifted by one to several pixels, and the movement amount is calculated by calculating the position where the difference in the pixel of the feature point becomes small.

特徴点は後述するように複数点が必要となるため、現フレーム及び前フレームの夫々の画像を複数のブロックに分割してブロック毎に特徴点の抽出を行なうことが好ましい。ブロック分割は画像のピクセル数やアスペクト比にもよるが、一般的には4×3の12ブロック乃至は9×6の54ブロックが好ましい。ブロック数が少ないとカメラ本体1の撮影部40のあおりによる台形歪や光軸方向の回転ブレなどの補正が正確にできなくなるが、ブロック数が多すぎると1ブロックのサイズが小さくなり、特徴点が近くなるため誤差を含むようになるためである。このようなことから画素数や特徴点の見つけやすさ、被写体の画角などによって適宜最適なブロック数が選択される。 Since a plurality of feature points are required as described later, it is preferable to divide the images of the current frame and the previous frame into a plurality of blocks and extract feature points for each block. Although the block division depends on the number of pixels and the aspect ratio of the image, generally 4×3=12 blocks or 9×6=54 blocks is preferable. If the number of blocks is too small, trapezoidal distortion due to tilting of the imaging unit 40 of the camera body 1 and rotational shake in the direction of the optical axis cannot be corrected accurately. This is because the error is included due to the closeness. For this reason, the optimal number of blocks is appropriately selected depending on the number of pixels, the ease of finding characteristic points, the angle of view of the subject, and the like.

移動量の算出には、現フレームと前フレームの輝度情報画像を1乃至数ピクセルずつずらして複数回の差分計算を行う必要があるため計算量が多くなる。そこで実際の移動量は粗いブレ量V Preとそこからのズレ(何ピクセルだけずれているか)に基づいて算出されるため、粗いブレ量近傍のみの差分計算を行うことで大幅に計算量を減らすことが可能である。 To calculate the amount of movement, it is necessary to shift the luminance information images of the current frame and the previous frame by one to several pixels and calculate the difference a plurality of times, resulting in a large amount of calculation. Therefore, since the actual amount of movement is calculated based on the rough blurring amount V n Pre and the deviation (by how many pixels) therefrom, calculating the difference only in the vicinity of the rough blurring amount greatly reduces the amount of calculation. can be reduced.

次にステップS903では、ステップS902で取得した詳細なブレ量V Detを用いて防振処理を行った後、本サブルーチンを抜ける。 Next, in step S903, image stabilization processing is performed using the detailed blurring amount VnDet acquired in step S902, after which this subroutine is exited .

尚、防振処理の方法としては、回転や平行移動が可能なユークリッド変換、それらが可能なアフィン変換、さらに台形補正が可能な射影変換などが知られている。 Known methods for vibration reduction processing include Euclidean transformation capable of rotation and translation, affine transformation capable of such rotation, and projective transformation capable of trapezoidal correction.

ユークリッド変換は、X軸方向、Y軸方向への移動や回転は補正可能であるが、カメラ本体1の撮影部40で生じる前後方向やパン・チルト方向の手振れに起因するブレは補正できない。よって、本実施例では拡大、スキューなども補正可能なアフィン変換を用いて防振処理を行う。基準となる特徴点の座標(x,y)が座標(x’,y’)に移動するアフィン変換は、以下の式100で表わされる。 The Euclidean transform can correct movement and rotation in the X-axis direction and Y-axis direction, but cannot correct blur caused by camera shake in the front-rear direction and in the pan/tilt direction that occurs in the imaging unit 40 of the camera body 1 . Therefore, in the present embodiment, image stabilizing processing is performed using affine transformation capable of correcting enlargement, skew, and the like. An affine transformation in which coordinates (x, y) of a reference feature point are moved to coordinates (x', y') is represented by Equation 100 below.

Figure 2022140328000002
Figure 2022140328000002

式100の3×3行列のアフィン係数は、最低3か所の特徴点のずれが検出できれば算出可能である。ただし、検出された特徴点が互いに近い距離にある場合や、直線上にのってしまう場合、特徴点よりも遠い箇所やその直線から離れた箇所の防振処理が不正確になる。よって検出される特徴点は、互いに遠い距離にあり、且つ直線上にのらないものを選択することが好ましい。よって、複数の特徴点が検出された場合は、互いに近い特徴点を省いて残りを最小二乗法で正規化を行う。 The affine coefficients of the 3×3 matrix of Equation 100 can be calculated if at least three feature point shifts can be detected. However, when the detected feature points are close to each other or are on a straight line, the vibration reduction processing becomes inaccurate at locations farther than the feature points or away from the straight line. Therefore, it is preferable to select feature points that are far apart from each other and do not lie on a straight line. Therefore, when a plurality of feature points are detected, feature points close to each other are omitted and the rest are normalized by the least squares method.

図18(f)は、図18(e)に示す歪曲補正をした映像に対してステップS903の防振処理をした映像を示す図である。防振処理時に切り出し処理を行うので、図18(f)に示す映像は、図18(e)に示す映像より画角は小さくなる。 FIG. 18(f) is a diagram showing an image obtained by subjecting the distortion-corrected image shown in FIG. 18(e) to the vibration reduction processing in step S903. Since clipping processing is performed during image stabilizing processing, the image shown in FIG. 18(f) has a smaller angle of view than the image shown in FIG. 18(e).

このような防振処理を行うことで、ブレを補正した品位のある映像を得ることが可能である。 By performing such anti-vibration processing, it is possible to obtain a high-quality image in which blur is corrected.

以上、本実施例のカメラシステムに含まれるカメラ本体1及び表示装置800で実行される一連の動作を説明した。 A series of operations performed by the camera body 1 and the display device 800 included in the camera system of this embodiment have been described above.

使用者が電源スイッチ11をONとした後に撮像モードスイッチ12で動画モードを選択し、顔を上下左右の方向を向かずにただ正面を観察していると、まず顔方向検出部20が観察方向vo(ベクトル情報[0°,0°])(図12A)を検出する。その後、記録方向・画角決定部30が、固体撮像素子42に投影される超広角映像から図12Aに示す狙い視野125oの映像(図11B)を切り出す。 When the user turns on the power switch 11, selects the moving image mode with the imaging mode switch 12, and observes the front without looking up, down, left, or right, first, the face direction detection unit 20 detects the observation direction. Detect vo(vector information [0°, 0°]) (FIG. 12A). After that, the recording direction/angle of view determination unit 30 cuts out the image (FIG. 11B) of the target field of view 125o shown in FIG.

その後、使用者がカメラ本体1を操作することなく、例えば、図11Aの子供(被写体A131)の観察を開始すると、まず顔方向検出部20が観察方向vm(ベクトル情報[-42°,-40°])(図11C)を検出する。その後、記録方向・画角決定部30が、撮影部40で撮像された超広角映像から狙い視野125mの映像(図11C)を切り出す。 Thereafter, when the user starts observing, for example, the child (subject A131) in FIG. °]) (FIG. 11C). After that, the recording direction/angle of view determination unit 30 cuts out an image with a target field of view of 125 m (FIG. 11C) from the ultra-wide-angle image captured by the imaging unit 40 .

このように観察方向に応じて様々な形状に切り出された映像に対する光学補正処理及び防振処理が、ステップS800,S900で表示装置800において行われる。これにより、カメラ本体1の全体制御CPU101が低スペックでも、大きな歪みがある、例えば狙い視野125m(図11C)の映像を切り出した場合も、図11Dの様に子供(被写体A131)を中心とした歪や揺れの補正された映像とすることができる。すなわち使用者は、電源スイッチ11をONとし撮像モードスイッチ12でモード選択をする以外には、カメラ本体1に触れなくとも、自身の観察方向が撮像された映像を得ることができる。 In steps S800 and S900, the display device 800 performs optical correction processing and vibration reduction processing on images cut out in various shapes according to the viewing direction. As a result, even if the general control CPU 101 of the camera body 1 is of low spec, even if a video with a large distortion, for example, a target field of view of 125 m (FIG. 11C) is cut out, a child (subject A 131) is centered as shown in FIG. 11D. An image corrected for distortion and shaking can be obtained. In other words, the user can obtain an image in which his observation direction is captured without touching the camera body 1 except for turning on the power switch 11 and selecting the mode with the imaging mode switch 12 .

ここでプリ設定モードについて説明する。上述の通り、カメラ本体1は小型のウェアラブルデバイスのため、その詳細設定を変更するための操作スイッチや設定画面等はカメラ本体1には設けられていない。このため、本実施例では外部機器としての表示装置800の設定画面(図13)でカメラ本体1の詳細設定は変更される。 The preset mode will now be described. As described above, since the camera body 1 is a small wearable device, the camera body 1 is not provided with operation switches, setting screens, and the like for changing detailed settings. Therefore, in this embodiment, the detailed settings of the camera body 1 are changed on the setting screen (FIG. 13) of the display device 800 as an external device.

たとえば同じ動画撮像でも、90°の画角と45°の画角とで続けて撮像したい場合を考えてみる。通常の動画モードでは90°の画角が設定されているため、このような撮像を行う場合、まず通常の動画モードでの撮像後、動画撮像を一度終了し、表示装置800をカメラ本体1の設定画面に変えて、画角を45°に切り替える操作が必要となる。しかし、連続した撮像中であると、表示装置800に対するかかる操作は煩わしいし、録りたい映像を撮り逃すこともある。 For example, consider a case where it is desired to continuously capture the same moving image at a field angle of 90° and a field angle of 45°. Since the angle of view is set to 90° in the normal moving image mode, when performing such image capturing, first, after image capturing in the normal moving image mode, the moving image capturing is finished once, and the display device 800 is moved to the camera body 1. It is necessary to switch to the setting screen and switch the angle of view to 45 degrees. However, during continuous imaging, such operations on the display device 800 are troublesome, and the user may miss the desired image.

一方、プリ設定モードを、画角45°で動画撮像するモードに事前設定しておけば、画角90°での動画撮像が終わった後、撮像モードスイッチ12を「Pre」にスライドするだけで、画角45°のズームアップした動画撮像に即座に変更できる。すなわち、使用者は、現在の撮像行為を中断し、上述の煩わしい操作を行う必要がなくなる。 On the other hand, if the preset mode is set in advance to a mode for capturing a moving image at an angle of view of 45°, after capturing a moving image at an angle of view of 90°, simply slide the imaging mode switch 12 to "Pre". , can be immediately changed to a zoomed-in moving image with an angle of view of 45°. That is, the user does not need to interrupt the current imaging action and perform the above-described troublesome operations.

プリ設定モードで設定する内容としては、画角の変更だけでなく、「強」「中」「切」などで指定される防振レベルや、本実施例では説明しない音声認識の設定なども含めてもよい。 The contents to be set in the preset mode include not only the change of the angle of view, but also the stabilization level specified by "strong", "medium", "off", etc., and voice recognition settings that are not explained in this embodiment. may

たとえば先の撮像の状況で使用者が子供(被写体A131)の観察を継続したまま撮像モードスイッチ12で動画モードからプリ設定モードに切り替えると、画角設定値Vが90°から45°に変更される。この場合、記録方向・画角決定部30は、撮影部40で撮像された超広角映像から図11Eに示す点線枠で示す狙い視野128mの映像を切り出す。 For example, when the user switches from the moving image mode to the preset mode with the imaging mode switch 12 while continuing to observe the child (subject A131) in the previous imaging situation, the angle of view setting value V is changed from 90° to 45°. be. In this case, the recording direction/angle of view determination unit 30 cuts out the image of the target field of view of 128 m indicated by the dotted line frame shown in FIG.

プリ設定モードにおいても光学補正処理及び防振処理は、ステップS800,S900で表示装置800において行われる。これにより、カメラ本体1の全体制御CPU101が低スペックでも、図11Fの様に子供(被写体A131)を中心にズームアップされた歪や揺れの補正された映像を得ることができる。動画モードで画角設定値Vが90°から45°に変更する例で説明したが、静止画モードでも同様である。また、動画の画角設定値Vが90°であり、静止画の画角設定値Vが45°の場合も同様である。 Even in the preset mode, optical correction processing and image stabilization processing are performed in display device 800 in steps S800 and S900. As a result, even if the overall control CPU 101 of the camera body 1 has a low spec, it is possible to obtain a zoomed-in image centering on the child (subject A131) as shown in FIG. An example in which the angle of view setting value V is changed from 90° to 45° in the moving image mode has been described, but the same applies to the still image mode. In addition, the same is true when the field angle setting value V for moving images is 90° and the field angle setting value V for still images is 45°.

このように、使用者は、カメラ本体1に対する撮像モードスイッチ12でのモード切り替えのみで、自身の観察方向が撮像されたズームアップ映像を得ることができる。 In this manner, the user can obtain a zoomed-in image in which the observation direction of the user is captured only by switching modes with the imaging mode switch 12 on the camera body 1 .

尚、本実施例では、カメラ本体1において顔方向検出部20と撮影部40とが一体的に構成される場合について説明したが、顔方向検出部20が使用者の頭部以外の身体上に装着され、撮影部40が使用者の身体上に装着されていればこれに限定されない。例えば、本実施例の撮影・検出部10を肩上や腹部に設置することも可能である。ただし、肩上の場合、右肩の上に撮影部40を設置すると、左側の被写体は頭部に遮られることが考えられるため、左肩なども含めた複数の撮影手段を設置して補う構成が好ましい。また、腹部の場合、撮影部40と頭部との間に空間的に視差が発生するため実施例3にあげるようなその視差を補正する観察方向の補正算出が行えることが望ましい。 In this embodiment, the case where the face direction detection section 20 and the photographing section 40 are integrally configured in the camera body 1 has been described. It is not limited to this as long as it is worn and the imaging unit 40 is worn on the user's body. For example, the imaging/detecting unit 10 of this embodiment can be installed on the shoulder or on the abdomen. However, if the imaging unit 40 is placed on the right shoulder, the subject on the left side may be blocked by the head. preferable. Further, in the case of the abdomen, a spatial parallax occurs between the imaging unit 40 and the head, so it is desirable to perform observation direction correction calculation for correcting the parallax as described in the third embodiment.

(実施例2)
実施例2では、カメラ本体1を装着する使用者の個人差・調整差をキャリブレーションする方法について図20~図23を用いて詳細に説明する。
(Example 2)
In a second embodiment, a method for calibrating individual differences and adjustment differences of users wearing the camera body 1 will be described in detail with reference to FIGS. 20 to 23. FIG.

基本的に本実施例は、実施例1からの派生として説明を行う。このため、実施例2のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the second embodiment, the same reference numerals are used for the configurations that are the same as those of the camera system of the first embodiment, redundant descriptions are omitted, and details of different configurations are added each time. to explain.

カメラ本体1を装着する使用者は、その体格、カメラ本体1が取付けられる首部周辺の傾きや角度、装着時の襟に代表される衣服の状態、及びバンド部82L,82Rの調整残り等に代表される個人差や調整差がある。そのため、カメラ本体1の撮像レンズ16の光軸中心と、使用者が正面を向いている状態(以下、使用者の自然状態という)での視野中心は通常一致しない。使用者にとってはカメラ本体1の撮像レンズ16の光軸中心をそのまま映像を切り取る記録領域(狙い視野125)の中心とするのではなく、使用者の姿勢や動作における視野中心を記録領域の中心とすることが望ましい。 The user who wears the camera body 1 is represented by their physique, the inclination and angle around the neck to which the camera body 1 is attached, the condition of the clothes represented by the collar when worn, and the rest of the adjustment of the band portions 82L and 82R. There are individual differences and adjustment differences. Therefore, the center of the optical axis of the imaging lens 16 of the camera body 1 and the center of the visual field when the user faces the front (hereinafter referred to as the user's natural state) usually do not coincide. For the user, the center of the optical axis of the imaging lens 16 of the camera body 1 is not the center of the recording area (target visual field 125) where the image is to be cut out, but the center of the visual field in the user's posture and movement is the center of the recording area. It is desirable to

また、使用者の自然状態での視野中心だけでなく、使用者が上下左右斜めを含む各方向に首を向けた場合の視野中心、また首の可動領域にも個人差がある。そのため、顔方向検出部20が検出した顔方向(観察方向)と、その観察方向に応じて設定される狙い視野125の中心位置(以下、視野中心位置という)との関係性も個人差が生じる。従って、顔方向と視野中心位置を関連付けるキャリブレーション作業が必要となる。 In addition to the natural visual field center of the user, there are individual differences in the visual field center when the user turns his head in each direction including up, down, left, and right, and in the movable range of the neck. Therefore, the relationship between the face direction (observation direction) detected by the face direction detection unit 20 and the center position of the target visual field 125 (hereinafter referred to as the visual field center position) set according to the observation direction also varies among individuals. . Therefore, calibration work is required to associate the face direction with the center position of the field of view.

通常、キャリブレーション動作は図7Aにおける準備動作処理(ステップS100)の一環として行われるのが望ましい。カメラ本体1の初回起動時にキャリブレーション動作を行うことが通常想定されるが、それ以外にも、キャリブレーション後一定時間が経過した場合や、カメラ本体1が前回キャリブレーション時から使用者に対して位置ずれを起こした場合に行っても良い。顔方向検出部20が使用者の顔を検出できなくなった場合にもキャリブレーション動作を行っても良い。また使用者がカメラ本体1を着脱したことを検知した場合、再度装着した場面でキャリブレーション動作を行っても良い。このように、カメラ本体1の適切な使用上必要だと判断したタイミングで適宜キャリブレーション動作が行われることが望ましい。 Generally, it is desirable that the calibration operation be performed as part of the preparatory operation process (step S100) in FIG. 7A. Normally, it is assumed that the calibration operation is performed when the camera body 1 is started for the first time. This may be done when positional deviation occurs. The calibration operation may be performed even when the face direction detection unit 20 cannot detect the user's face. Further, when it is detected that the user has attached/detached the camera body 1, the calibration operation may be performed when the user attaches/reinserts the camera body 1 again. In this way, it is desirable that the calibration operation is performed appropriately at the timing determined to be necessary for proper use of the camera body 1 .

図20は、実施例2に係るキャリブレーション処理に用いられるキャリブレータ850の詳細を示す図である。本実施例においては、キャリブレータ850が表示装置800を兼ねている場合について説明を行う。 FIG. 20 is a diagram illustrating details of the calibrator 850 used for calibration processing according to the second embodiment. In this embodiment, a case where the calibrator 850 also serves as the display device 800 will be described.

キャリブレータ850には、図1Dに示す表示装置800の構成要素であるボタンA802、表示部803、インカメラ805、顔センサ806、角速度センサ807に加えて、位置決め指標851、キャリブレーションボタン854が含まれている。尚、実施例1であったボタンB804は本実施例では使わないこと、また後述するようにキャリブレーションボタン854と置き換えることが可能なため、ここでは図示していない。 Calibrator 850 includes positioning index 851 and calibration button 854 in addition to button A 802, display unit 803, in-camera 805, face sensor 806, and angular velocity sensor 807, which are components of display device 800 shown in FIG. 1D. ing. Note that the button B804 used in the first embodiment is not used in this embodiment and can be replaced with a calibration button 854 as described later, so it is not illustrated here.

図20(a)は、位置決め指標851が表示部803に表示された特定のパターンである場合を、図20(b)では位置決め指標851にキャリブレータ850の外観を用いた場合を示している。図20(b)の場合、後述する位置決め指標中心852はキャリブレータ850の外形の情報から算出する。 20A shows a case where the positioning index 851 is a specific pattern displayed on the display unit 803, and FIG. 20B shows a case where the external appearance of the calibrator 850 is used for the positioning index 851. FIG. In the case of FIG. 20B, a positioning index center 852, which will be described later, is calculated from information on the outer shape of the calibrator 850. In FIG.

尚、位置決め指標は、図20(a),(b)の例に限らず、例えば、キャリブレータ850とは別体であってもかまわない。大きさの計測を行いやすく、また使用者が見やすい形状であれば、位置決め指標は何であっても良い。例えば撮像レンズ16のレンズキャップ、カメラ本体1の充電ユニットであっても良い。いずれにせよキャリブレーション動作における基本的な考え方は同一のため、以下では主に図20(a)に示すキャリブレータ850を例に用いて説明を行う。 The positioning index is not limited to the examples shown in FIGS. 20A and 20B, and may be separate from the calibrator 850, for example. Any positioning index may be used as long as the size is easily measured and the shape is easy for the user to see. For example, it may be a lens cap for the imaging lens 16 or a charging unit for the camera body 1 . In any case, the basic concept of the calibration operation is the same, so the following description will be made mainly using the calibrator 850 shown in FIG. 20(a) as an example.

尚、本実施例では、キャリブレータ850は、表示装置800の機能を兼ね備えているものとする。また、キャリブレータ850は、専用の機器であっても良く、また他にも例えば一般的なスマートフォンや、タブレット端末であっても良い。 In this embodiment, the calibrator 850 is assumed to have the function of the display device 800 as well. Also, the calibrator 850 may be a dedicated device, or may be, for example, a general smart phone or a tablet terminal.

位置決め指標851は、キャリブレータ850の表示部803に表示される指標であり、位置決め指標の横幅L851aと位置決め指標の縦幅L851b、位置決め指標中心852を算出可能となっている図形である。後述するキャリブレーション処理において、使用者は位置決め指標851の中心部付近に顔方向を向けるため、位置決め指標851は視野中心に捉えやすい形状をしていることが望ましい。図20(a)においては、十字の中心に黒丸を配した円形で示したが、特にこの形状に限定されるものではない。他にも四角や三角、星型の図形、また例えばキャラクターのイラストであっても良い。 The positioning index 851 is an index displayed on the display unit 803 of the calibrator 850, and is a graphic from which the horizontal width L851a of the positioning index, the vertical width L851b of the positioning index, and the positioning index center 852 can be calculated. In the calibration process, which will be described later, the user faces toward the center of the positioning index 851, so it is desirable that the positioning index 851 has a shape that is easy to grasp at the center of the visual field. In FIG. 20(a), a circle with a black dot at the center of the cross is shown, but the shape is not particularly limited to this shape. In addition, it may be a square, triangle, star-shaped figure, or, for example, an illustration of a character.

位置決め指標851は、カメラ本体1の撮影部40で撮像される。撮像された映像に基づき、表示装置制御部801(位置算出手段・距離算出手段)が、撮影・検出部10とキャリブレータ850との距離、また画像範囲上に写る位置決め指標851の位置座標を演算する。本実施例では表示装置800の機能を備えるキャリブレータ850でかかる演算が行われるが、キャリブレータ850が表示装置800の機能を備えていない場合、カメラ本体1側の全体制御CPU101でかかる演算が行われる。 The positioning index 851 is imaged by the imaging unit 40 of the camera body 1 . Based on the imaged image, the display device control section 801 (position calculating means/distance calculating means) calculates the distance between the photographing/detecting section 10 and the calibrator 850 and the position coordinates of the positioning index 851 appearing on the image range. . In this embodiment, the calibrator 850 having the functions of the display device 800 performs such calculations.

角速度センサ807は、キャリブレータ850の動きを計測することが出来る。角速度センサ807の測定値に基づき、表示装置制御部801は、後述するキャリブレータ850の位置や姿勢を示す移動情報を算出する。 Angular velocity sensor 807 can measure movement of calibrator 850 . Based on the measured value of the angular velocity sensor 807, the display device control unit 801 calculates movement information indicating the position and orientation of the calibrator 850, which will be described later.

キャリブレーションボタン854は、後述するキャリブレーション処理において、使用者が位置決め指標851の中心部付近に顔方向を向けた際に押下するボタンである。図20(a)では、キャリブレーションボタン854は、タッチパネル式の表示部803に表示されたタッチボタンであるが、ボタンA802やボタンB804がキャリブレーションボタンとして機能するようにしても良い。 The calibration button 854 is a button that is pressed when the user faces the vicinity of the center of the positioning index 851 in calibration processing, which will be described later. In FIG. 20A, the calibration button 854 is a touch button displayed on the touch panel display unit 803, but the button A802 or button B804 may function as the calibration button.

次に、使用者の顔方向に応じて撮影部40で撮像された超広角画像から映像を切り出してその映像の画像処理を行う際に実行される、キャリブレーション処理について、図21のフローチャートを用いて詳細に説明する。 Next, referring to the flow chart of FIG. 21, the calibration process that is executed when a video is extracted from the ultra-wide-angle image captured by the imaging unit 40 according to the direction of the user's face and the video is processed will be described. will be explained in detail.

図21は、カメラ本体1(第1のキャリブレーション手段)及びキャリブレータ850において実行される、本実施例に係るキャリブレーション処理のフローチャートである。 FIG. 21 is a flow chart of calibration processing according to this embodiment, which is executed in the camera body 1 (first calibration means) and the calibrator 850 .

説明の補助として、図21では、使用者の操作をカメラ本体1やキャリブレータ850を受け付けるステップについては、動作主体を使用者とする枠に入れている。また、図21では、上記使用者の操作を受けてキャリブレータ850の表示装置制御部801が実行するステップについては、動作主体をキャリブレータ850とする枠に入れている。同様に、図21では、上記使用者の操作を受けてカメラ本体1の全体制御CPU101が実行するステップについては、動作主体をカメラ本体1とする枠に入れている。 As an aid to the explanation, in FIG. 21, the step of receiving the user's operation of the camera body 1 and the calibrator 850 is included in a frame in which the user is the subject of the action. In addition, in FIG. 21, the steps executed by the display device control unit 801 of the calibrator 850 in response to the user's operation are included in a frame in which the calibrator 850 is the subject of action. Similarly, in FIG. 21, the steps executed by the overall control CPU 101 of the camera body 1 in response to the user's operation are put in a frame with the camera body 1 as the subject of action.

具体的には、図21のステップS3104,ステップS3108は、カメラ本体1が動作主体であり、ステップS3101,S3105,S3106は、使用者が動作主体である。また、ステップS3102,S3103,S3106a,S3107,S3107b,S3110はキャリブレータ850が動作主体である。 Specifically, in steps S3104 and S3108 of FIG. 21, the camera body 1 is the subject of action, and in steps S3101, S3105, and S3106, the user is the subject of action. Further, the calibrator 850 is the main operator of steps S3102, S3103, S3106a, S3107, S3107b, and S3110.

本処理が開始すると、まずステップS3101では、使用者は、キャリブレータ850の電源がONでない場合は、ボタンA802を操作してキャリブレータ850の電源をONにする。同様に、カメラ本体1の電源がONでない場合は電源スイッチ11をONに切り替えてカメラ本体1の電源をONにする。その後、使用者はキャリブレータ850とカメラ本体1との間の接続を確立させる。この接続が確立すると、表示装置制御部801及び全体制御CPU101は夫々、キャリブレーションモードに入る。 When this process starts, first, in step S3101, the user operates the button A802 to turn on the power of the calibrator 850 if the power of the calibrator 850 is not turned on. Similarly, when the camera body 1 is not powered on, the power switch 11 is turned on to turn on the power of the camera body 1 . The user then establishes a connection between the calibrator 850 and the camera body 1 . When this connection is established, the display device control section 801 and the overall control CPU 101 enter calibration mode.

またステップS3101において、使用者は、カメラ本体1を装着し、バンド部82L,82Rの長さやカメラ本体1の角度等の調整を行って、好適な位置にカメラ本体1を配置して撮影・検出部10が撮像可能な状態にする。 In step S3101, the user wears the camera body 1, adjusts the lengths of the band portions 82L and 82R, the angle of the camera body 1, etc., and arranges the camera body 1 at a suitable position for photographing/detection. The unit 10 is put into a state capable of imaging.

ステップS3102では、表示装置制御部801(第1の表示手段)は、位置決め指標851を表示部803に表示する。 In step S<b>3102 , the display device control unit 801 (first display means) displays the positioning index 851 on the display unit 803 .

次に、ステップS3103では、表示装置制御部801は、指示表示855において使用者にキャリブレータ850のかざすべき指定位置を指示する。本実施例では、正面、右上、右下、左上、左下の5か所を順に指定位置として指示する。但し、キャリブレーションが可能であれば指定位置はこれに限定されない。 Next, in step S3103, the display device control unit 801 instructs the user on the instruction display 855 of the specified position to which the calibrator 850 should be held. In this embodiment, the front, upper right, lower right, upper left, and lower left five points are indicated in order as designated positions. However, the designated position is not limited to this as long as calibration is possible.

ステップS3104では、全体制御CPU101は、撮影部40を起動させて撮像可能状態とし、また顔方向検出部20を起動して使用者の顔方向を検出可能な状態にする。 In step S3104, the overall control CPU 101 activates the imaging unit 40 to enable imaging, and activates the face direction detection unit 20 to enable detection of the user's face direction.

ステップS3105では、使用者は、ステップS3103で指示された指定位置にキャリブレータ850をかざす。 In step S3105, the user holds the calibrator 850 over the specified position instructed in step S3103.

次に、ステップS3106では、使用者は、キャリブレータ850の位置を指定位置に維持したまま、顔を位置決め指標851の方向に向け、使用者の視野中心を位置決め指標851に合わせてキャリブレーションボタン854を押す。 Next, in step S3106, the user turns the face toward the positioning index 851 while maintaining the position of the calibrator 850 at the specified position, aligns the user's visual field center with the positioning index 851, and presses the calibration button 854. push.

ステップS3106aでは、表示装置制御部801(第2の表示手段)は、使用者が位置決め指標851の位置決め指標中心852を視野中心で見たか否かを判定する。見たと判定した場合(S3106aでYES)、表示装置制御部801は、ステップS3107で指示表示855において使用者に指定位置のキャリブレーションを開始する旨通知すると共に、キャリブレーションボタン854を再表示する。ステップS3106aでNOと判定されると、使用者はステップS3105からの処理を繰り返す。 In step S3106a, the display device control unit 801 (second display unit) determines whether or not the user has viewed the positioning index center 852 of the positioning index 851 at the center of the visual field. If it is determined that it has been seen (YES in S3106a), the display device control unit 801 notifies the user to start the calibration of the specified position in the instruction display 855 in step S3107, and redisplays the calibration button 854. If determined as NO in step S3106a, the user repeats the processing from step S3105.

ステップS3107aで使用者がキャリブレーションボタン854を押下すると、表示装置制御部801は、ステップS3107bでキャリブレーション指示をカメラ本体1に送信する。 When the user presses the calibration button 854 in step S3107a, the display device control unit 801 transmits a calibration instruction to the camera body 1 in step S3107b.

ステップS3108では、全体制御CPU101(取得・検出手段)は、キャリブレータ850からのキャリブレーション指示に応じて、撮影部40での撮像で位置決め指標851が映りこむ超広角画像を取得すると共に、顔方向検出部20で顔方向を検出する。その後、全体制御CPU101(生成手段)は、ここで取得した超広角画像における位置決め指標中心852の位置座標情報を算出し、算出された位置座標情報とここで検出された顔方向との関係を示す情報を生成する。 In step S3108, the overall control CPU 101 (acquisition/detection means) acquires an ultra-wide-angle image in which the positioning index 851 is captured by the imaging unit 40 in response to the calibration instruction from the calibrator 850, and detects the face direction. A face direction is detected in the unit 20 . After that, the overall control CPU 101 (generating means) calculates the position coordinate information of the positioning index center 852 in the super-wide-angle image acquired here, and indicates the relationship between the calculated position coordinate information and the face direction detected here. Generate information.

ステップS3103~S3108の処理の詳細を、以下、図22A~図22Fを用いて説明する。 Details of the processing of steps S3103 to S3108 will be described below with reference to FIGS. 22A to 22F.

図22A~図22Fは、使用者の正面方向についてのキャリブレーション動作について説明するための図である。キャリブレーション動作により、使用者の自然状態での視野中心位置と、カメラ本体1の撮影部40が捉えた映像のうち狙い視野125の中心位置とを一致させる。 22A to 22F are diagrams for explaining the calibration operation in the front direction of the user. By the calibration operation, the center position of the visual field in the user's natural state is matched with the center position of the target visual field 125 in the image captured by the photographing section 40 of the camera body 1 .

図22Aは、使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3103において、キャリブレータ850の表示部803に表示される画面を示す図である。 FIG. 22A is a diagram showing a screen displayed on the display unit 803 of the calibrator 850 in step S3103 of FIG. 21 during the calibration operation for the front direction of the user.

図22Aに示すように、キャリブレータ850の表示部803には、位置決め指標851と、使用者が位置決め指標851をどこに置けばよいかを示す指示表示855が表示されている。 As shown in FIG. 22A, the display unit 803 of the calibrator 850 displays a positioning index 851 and an instruction display 855 indicating where the user should place the positioning index 851 .

指示表示855は顔を正面に向けた際の視野中心に位置決め指標851を配置するよう指示する文字列である。尚、指示表示855として表示される指示は、文字での指示に限ったものではなく、例えばイラストや写真、動画といった他の方法での指示であってもかまわない。 The instruction display 855 is a character string that instructs to arrange the positioning index 851 at the center of the visual field when the face is turned to the front. The instructions displayed as the instruction display 855 are not limited to instructions in characters, and may be instructions in other methods such as illustrations, photographs, and moving images.

また、いわゆる一般的なチュートリアルのような、指示表示855を表示し、その後に位置決め指標851を表示するようにしても良い。 Alternatively, the instruction display 855 may be displayed as in a so-called general tutorial, and then the positioning index 851 may be displayed.

図22Bは、使用者が、図22Aにおける指示表示に示された指示に従ってキャリブレータを前方にかざしている様子を示す図である。 FIG. 22B is a diagram showing how the user holds the calibrator forward according to the instructions shown in the instruction display in FIG. 22A.

使用者が、図22Aにおける指示表示855に示された指示に従ってキャリブレータ850を前方にかざす(ステップS3105)。そして、使用者は、位置決め指標851が顔の正面に向けた際の視野中心になるようキャリブレータ850を配置してキャリブレーションボタン854(図22A)を押下する(ステップS3106)。このキャリブレーションボタン854の押下に応じて、ステップS3106aの判定が行われる。この判定方法の具体的な手順については後述する。ステップS3106aでYESと判定されると、表示装置制御部801は、ステップS3107で図22Aに示す指示表示855を「正面方向のキャリブレーションを開始します」という通知に変更し、キャリブレーションボタン854を表示する。 The user holds the calibrator 850 forward according to the instructions shown in the instruction display 855 in FIG. 22A (step S3105). Then, the user arranges the calibrator 850 so that the positioning index 851 is at the center of the field of view when facing the front of the face, and presses the calibration button 854 (FIG. 22A) (step S3106). Determination in step S3106a is performed in response to pressing of the calibration button 854. FIG. A specific procedure of this determination method will be described later. If YES is determined in step S3106a, the display device control unit 801 changes the instruction display 855 shown in FIG. indicate.

その後、使用者は、図22Aに示す指示表示855が「正面方向のキャリブレーションを開始します」という通知に変更されたことを確認後、キャリブレーションボタン854を押下する(ステップS3107a)。 After that, the user presses the calibration button 854 after confirming that the instruction display 855 shown in FIG. 22A has been changed to the notification "Calibration in the front direction is started" (step S3107a).

このキャリブレーションボタン854の押下に応じて、ステップS3107bでキャリブレーション指示がカメラ本体1に送信され、ステップS3108で撮影部40が撮影映像を取得する。 In response to pressing of the calibration button 854, a calibration instruction is transmitted to the camera body 1 in step S3107b, and the photographing unit 40 acquires a photographed image in step S3108.

図22Cは、図22Bの状態において撮像レンズ16が捉えた超広角画像の全体を示す模式図であり、図22Dは、図22Cに示す超広角画像の収差を補正した画像を示す模式図である。 FIG. 22C is a schematic diagram showing the entire ultra-wide-angle image captured by the imaging lens 16 in the state of FIG. 22B, and FIG. 22D is a schematic diagram showing an aberration-corrected image of the ultra-wide-angle image shown in FIG. 22C. .

一方、図22Bの状態での使用者によるキャリブレーションボタン854の押下に応じてステップS3108で顔方向検出部20が顔方向を取得する。 On the other hand, in step S3108, the face direction detection unit 20 acquires the face direction in response to the user pressing the calibration button 854 in the state of FIG. 22B.

図22Eは、使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3108において顔方向検出部20が記録した顔方向画像を示す模式図である。 FIG. 22E is a schematic diagram showing the face direction image recorded by the face direction detection unit 20 in step S3108 of FIG. 21 during the calibration operation for the front direction of the user.

実施例1で図8G~図8Kを用いて先述したとおり、顔方向検出部20は、顎先位置207,207r,207u等と首元位置206との距離及び角度を用いて顔の左右上下方向の角度を算出する。しかし、顎先位置207,207r,207u等と首元位置206の距離及び角度値もまた画像中心と同様に、上述した使用者の体格等に表されるような個人差や調整差があるため一定しない。そのため、本実施例では、キャリブレーションボタン854が押下された時点での顎先位置と首元位置206との関係を使用者が正面を視野中心としたときの値として定義する。これにより、個人差や調整差に依らず使用者の顔方向を正確に算出することが可能となる。 As described above with reference to FIGS. 8G to 8K in the first embodiment, the face direction detection unit 20 uses the distances and angles between the chin positions 207, 207r, 207u, etc. and the neck position 206 to determine the left, right, up, and down directions of the face. Calculate the angle of However, the distances and angle values between the chin positions 207, 207r, 207u, etc. and the neck position 206 also have individual differences and adjustment differences, as indicated by the physique of the user, as with the center of the image. inconsistent. Therefore, in this embodiment, the relationship between the chin position and the neck position 206 when the calibration button 854 is pressed is defined as a value when the front is the center of the visual field of the user. This makes it possible to accurately calculate the face direction of the user regardless of individual differences or adjustment differences.

図21に戻り、ステップS3109では、全体制御CPU101は、正面方向のキャリブレーションの準備が完了したか否かを判断する。すなわち、顎先位置207、首元位置206及び位置決め指標中心852の算出に必要な情報が取得できている否かの判定を行う。 Returning to FIG. 21, in step S3109, the overall control CPU 101 determines whether or not the preparation for calibration in the front direction has been completed. That is, it is determined whether information necessary for calculating the chin position 207, the neck position 206, and the positioning index center 852 has been acquired.

このとき、必要な情報が取得できていない場合、正面方向のキャリブレーションの準備は完了していないと判断し(ステップS3109でNO)、必要な情報のうち不足している情報を再度取得できるよう、ステップS3102からの動作を繰り返す。尚、必要な情報が取得できていない場合については当然ステップS3102からのすべての動作を行う必要はなく、不足している情報を再度取得するために必要な動作のみを再度行っても良い。 At this time, if the necessary information has not been acquired, it is determined that the preparation for the calibration in the front direction has not been completed (NO in step S3109), and the missing information among the necessary information can be acquired again. , the operation from step S3102 is repeated. It should be noted that when necessary information cannot be obtained, it is of course not necessary to perform all the operations from step S3102, and only necessary operations to obtain the missing information again may be performed again.

ここで、ステップS3106aの判定は、キャリブレータ850に搭載された顔センサ806またはインカメラ805を用いて行う。以下、この判定方法の具体的な手順を、インカメラ805を用いて使用者の正面方向についてのキャリブレーション動作を行う場合を例に説明する。尚、顔センサ806を使用した場合については、情報が二次元か三次元かの差異はあるものの、基本的な考え方は同一であるため省略する。但し、ステップS3106aの判定で顔センサ806を使用する場合、顔センサ806から赤外線823が使用者に投光されている期間中は、カメラ本体1の顔方向検出部20は赤外線23を使用者に投光することによる顔検出は行わない。赤外線23,823が相互に干渉するのを防止するためである。 Here, the determination in step S3106a is performed using the face sensor 806 or the in-camera 805 mounted on the calibrator 850. FIG. A specific procedure of this determination method will be described below by taking as an example a case where the in-camera 805 is used to perform a calibration operation in the front direction of the user. In the case of using the face sensor 806, although there is a difference whether the information is two-dimensional or three-dimensional, the basic idea is the same, so a description thereof will be omitted. However, when the face sensor 806 is used in the determination in step S3106a, the face direction detector 20 of the camera body 1 emits the infrared ray 23 to the user while the infrared ray 823 is projected from the face sensor 806 to the user. Face detection by projecting light is not performed. This is to prevent the infrared rays 23 and 823 from interfering with each other.

まず、使用者が、ステップS3106で図22Aのキャリブレーションボタン854を押下すると、表示装置制御部801は、インカメラ805(顔検知手段)で撮像を行い、使用者が写ったインカメラ映像858(図22F)を取得する。さらに、表示装置制御部801は、取得したインカメラ映像858から、使用者の首前部201、顎先203、及び鼻を含む顔204と、撮影・検出部10(撮影部40)の位置情報を検出する。 First, when the user presses the calibration button 854 in FIG. 22A in step S3106, the display device control unit 801 captures an image with the in-camera 805 (face detection means), and captures an in-camera image 858 ( FIG. 22F) is obtained. Further, the display device control unit 801 extracts the user's front neck 201, chin 203, and face 204 including the nose from the acquired in-camera image 858, and the position information of the image capturing/detecting unit 10 (image capturing unit 40). to detect

このインカメラ映像858で検出された各位置情報を用いて、使用者が位置決め指標851の位置決め指標中心852を視野中心で見ているかを、ステップS3106aで表示装置制御部801(判定手段)が判定する。 In step S3106a, the display device control unit 801 (determining means) determines whether the user is looking at the positioning index center 852 of the positioning index 851 in the center of the visual field using each position information detected by the in-camera image 858. do.

尚、この判定の結果、使用者が異なる方向を見ていると判定された場合、表示装置制御部801は、指示表示855に正しい情報取得が出来ない旨の情報を表示する。これにより、使用者に対しキャリブレーション動作を再度やり直すように指示することが出来る。 As a result of this determination, when it is determined that the user is looking in a different direction, the display device control section 801 displays information to the effect that correct information cannot be obtained on the instruction display 855 . As a result, the user can be instructed to redo the calibration operation.

尚、表示装置制御部801は、インカメラ映像858を用いて、撮影・検出部10がある一定以上傾いている、顔方向検出窓13が塞がっているまたは汚れているといった、正しいキャリブレーション動作が出来ない状態であると判定可能な場合がある。このような場合も、表示装置制御部801は、指示表示855に正しい情報取得が出来ない旨の情報を表示するようにしてもよい。 Note that the display device control unit 801 uses the in-camera image 858 to determine whether the correct calibration operation is performed when the shooting/detection unit 10 is tilted more than a certain amount, or when the face direction detection window 13 is blocked or dirty. In some cases, it can be determined that it is not possible. In such a case as well, the display device control unit 801 may display information to the effect that correct information cannot be obtained on the instruction display 855 .

さらには、このステップS3106aで取得されるインカメラ映像858と、ステップS3108で取得される超広角画像を用いて、実施例5で後述する視差補正に必要な情報を取得することも可能である。 Furthermore, using the in-camera image 858 acquired in step S3106a and the ultra-wide-angle image acquired in step S3108, it is possible to acquire information necessary for parallax correction, which will be described later in the fifth embodiment.

具体的には、ステップS3108で撮影部40により位置決め指標851が撮像される前に、キャリブレータ850からカメラ本体1に予め位置決め指標851の大きさ(横幅L851a及び縦幅L851b)の情報を送信しておく。これにより、全体制御CPU101は、位置決め指標851の大きさの情報と、ステップS3108で取得された超広角画像に写る位置決め指標851の映像を用いて、撮影・検出部10と位置決め指標851との距離を算出可能となる。位置決め指標851はインカメラ805と同一筐体であるキャリブレータ850にあり、また図22Bではキャリブレータ850は使用者と略正対しているため、インカメラ805と撮影・検出部10との距離は、撮影・検出部10と位置決め指標851との距離と等しい。 Specifically, before the positioning index 851 is imaged by the imaging unit 40 in step S3108, information on the size of the positioning index 851 (horizontal width L851a and vertical width L851b) is transmitted from the calibrator 850 to the camera body 1 in advance. back. As a result, the overall control CPU 101 uses information on the size of the positioning index 851 and the image of the positioning index 851 appearing in the ultra-wide-angle image acquired in step S3108 to determine the distance between the photographing/detecting unit 10 and the positioning index 851. can be calculated. The positioning index 851 is located in the calibrator 850, which is the same housing as the in-camera 805. In FIG. 22B, the calibrator 850 faces the user substantially.・Equal to the distance between the detection unit 10 and the positioning index 851 .

同様に、ステップS3106aでインカメラ805により図22Fのインカメラ映像が撮像される前に、カメラ本体1からキャリブレータ850に予め撮影・検出部10の大きさの情報を送信しておく。これにより、表示装置制御部801(垂直距離算出手段)は、撮影・検出部10の大きさの情報と、図22Fのインカメラ映像858に写る撮影・検出部10の映像を用いて、撮像レンズ16の光軸中心と使用者の視点位置との垂直距離5070を推定可能となる。加えて、表示装置制御部801は、撮像レンズ16と使用者の顎先203との距離2071も推定可能となる。距離2071は顔方向検出窓13と顎先203との距離であっても良い。 Similarly, before the in-camera image of FIG. 22F is captured by the in-camera 805 in step S3106a, information about the size of the imaging/detecting unit 10 is transmitted from the camera body 1 to the calibrator 850 in advance. As a result, the display device control unit 801 (vertical distance calculation means) uses the size information of the photographing/detecting unit 10 and the image of the photographing/detecting unit 10 captured in the in-camera image 858 in FIG. A vertical distance 5070 between the center of the 16 optical axes and the user's viewpoint position can be estimated. In addition, the display device control unit 801 can also estimate the distance 2071 between the imaging lens 16 and the chin 203 of the user. The distance 2071 may be the distance between the face direction detection window 13 and the tip of the chin 203 .

ここで、顔方向検出部20が使用者の首元位置206や顎先・BR>ハ置を算出するには、顔方向検出部20の設計に応じて、使用者の顔が顔方向検出窓13からある一定以上の距離だけ離れている必要がある。従ってこの推定結果は顔方向検出部20が正しく顔方向を検出可能か判定する際の判定条件のひとつとすることが可能である。 Here, in order for the face direction detection unit 20 to calculate the user's neck position 206 and the chin/BR> position, the user's face must be positioned within the face direction detection window according to the design of the face direction detection unit 20 . 13 must be at least a certain distance away. Therefore, this estimation result can be used as one of the determination conditions when determining whether the face direction detection unit 20 can correctly detect the face direction.

図21に戻り、以上で記載した方法で、ステップS3109において、全体制御CPU101は、必要な情報が取得でき、正面方向のキャリブレーション準備が完了したと判断した場合、ステップS3110に進む。 Returning to FIG. 21, if the overall control CPU 101 determines in step S3109 that the necessary information has been acquired and the front direction calibration preparation has been completed by the method described above, the process advances to step S3110.

ステップS3110では、表示装置制御部801(第一のキャリブレーション手段)が、個人差・調整差を吸収するように、切り出し中心位置をオフセットするために必要な情報を演算し、その情報に基づき切り出し中心位置をオフセットする。 In step S3110, the display device control unit 801 (first calibration means) calculates information necessary for offsetting the cutout center position so as to absorb individual differences and adjustment differences, and cuts out based on the information. Offset the center position.

ステップS3110における演算の具体的な説明は以下のとおりである。 A specific description of the calculation in step S3110 is as follows.

使用者が設計値の通り理想状態であり、かつ理想的にカメラ本体1を装着しているならば、図22Cに示すステップS3108で取得された超広角画像の中心856と、その超広角画像に写る位置決め指標中心852の位置は略一致するはずである。しかし実際には、上述した使用者の体格等に表されるような個人差や調整差があるため、超広角画像における中心856及び位置決め指標中心852の位置は通常一致しない。 If the user is in an ideal state according to the design values and is ideally wearing the camera body 1, then the center 856 of the ultra-wide-angle image acquired in step S3108 shown in FIG. The position of the positioning index center 852 to be photographed should approximately match. However, in reality, the positions of the center 856 and the positioning index center 852 in the ultra-wide-angle image usually do not match because of individual differences and adjustment differences such as the physique of the user described above.

使用者にとっては、切り出し中心位置は、カメラ本体1の示す超広角画像の中心856ではなく、使用者の姿勢や動作における視野中心、すなわち超広角画像における位置決め指標中心852の位置であることが望ましい。 For the user, the cutout center position is not the center 856 of the ultra-wide-angle image shown by the camera body 1, but the field-of-view center of the user's posture and movement, that is, the position of the positioning index center 852 in the ultra-wide-angle image. .

そのため、超広角画像における位置決め指標中心852と中心856とのずれ量を計測し、切り出し中心位置を超広角画像の中心856ではなく位置決め指標中心852を基準とした位置にオフセットする。また、その際の顔方向検出部20が検出した顔方向も同様の方法でオフセットする。 Therefore, the amount of deviation between the positioning index centers 852 and 856 in the ultra-wide-angle image is measured, and the cutout center position is offset to a position based on the positioning index center 852 instead of the center 856 of the ultra-wide-angle image. Also, the face direction detected by the face direction detection unit 20 at that time is also offset by the same method.

具体的なオフセット方法を図22C及び図22Dを参照して説明する。図22Cのように超広角画像の中心856に対する位置決め指標中心852のずれ量を計測し、これを左右方向のずれ量857aと上下方向のずれ量857bに分け、全画角の投影方法に従って適切な変換処理を行った後にオフセット量を決定すればよい。 A specific offset method will be described with reference to FIGS. 22C and 22D. As shown in FIG. 22C, the displacement amount of the positioning index center 852 with respect to the center 856 of the ultra-wide-angle image is measured, and this is divided into a horizontal displacement amount 857a and a vertical displacement amount 857b. The offset amount may be determined after the conversion process is performed.

また、図22Dに示すように、超広角画像に投影方法に従って適切な変換処理を行った後にオフセット量を決定しても良い。すなわち、変換後の超広角画像における中心856aと位置決め指標中心852とのずれ量を計測し、ずれ量を左右方向のずれ量857cと上下方向のずれ量857dに分けてオフセット量を決定しても良い。 Alternatively, as shown in FIG. 22D, the offset amount may be determined after the super-wide-angle image is subjected to appropriate conversion processing according to the projection method. That is, the amount of deviation between the center 856a and the center 852 of the positioning index in the super-wide-angle image after conversion is measured, and the amount of deviation is divided into the amount of deviation 857c in the horizontal direction and the amount of deviation 857d in the vertical direction to determine the offset amount. good.

図22C、図22Dのいずれに示すオフセット方法をとるかは、カメラシステムの処理負荷や目的を考慮して任意に決定することが可能である。 Which of the offset methods shown in FIGS. 22C and 22D should be used can be arbitrarily determined in consideration of the processing load and purpose of the camera system.

以上説明した正面方向のキャリブレーション動作を行うことで、個人差や調整差等に関わらず、各使用者の装着時における顔方向と、超広角画像内でのその顔方向における視野中心、そして顔方向検出部20の顔方向とを適切に関連付けることが可能となる。 By performing the calibration operation in the front direction described above, regardless of individual differences and adjustment differences, each user's face direction at the time of wearing, the visual field center in that face direction in the ultra-wide-angle image, and the face It is possible to appropriately associate the face direction of the direction detection unit 20 .

尚、ここまでは、正面、右上、右下、左上、左下の5方向のうち、正面方向のキャリブレーション動作について説明を行ったが、同様のキャリブレーション動作を右上、右下、左上、左下の4方向についても実行する必要がある。 Up to this point, the calibration operation in the front direction out of the five directions of the front, upper right, lower right, upper left, and lower left has been explained. It is necessary to perform also for four directions.

よって、図21において、ステップS3110の処理が終了すると、ステップS3111に進む。 Therefore, in FIG. 21, when the process of step S3110 is complete|finished, it progresses to step S3111.

ステップS3111では、正面、右上、右下、左上、左下の5方向のうち、まだキャリブレーション動作が行われていない方向があると判定した場合、その1方向に、キャリブレーション動作を行う方向を変更し、ステップS3103に戻る。これにより、すでに終了した正面方向以外の、残りの方向について同様にキャリブレーション動作を繰り返す。 In step S3111, if it is determined that there is a direction in which the calibration operation has not yet been performed among the five directions of the front, upper right, lower right, upper left, and lower left, the direction in which the calibration operation is performed is changed to that one direction. and returns to step S3103. As a result, the calibration operation is repeated in the same manner for the remaining directions other than the already completed front direction.

尚、図21においては不図示だが、ステップS3111において、キャリブレーション動作が行われていない方向がないと判定した場合は本処理をそのまま終了する。 Although not shown in FIG. 21, if it is determined in step S3111 that there is no direction for which the calibration operation has not been performed, this processing ends.

図23A~図23Eは、使用者の右手上方向(超広角画像における右上方向)についてのキャリブレーション動作について説明するための図である。図23A~図23Eはそれぞれ図22A~図22Eに対応しており、基本的な動作も同じであるため、共通する説明は省略する。 23A to 23E are diagrams for explaining the calibration operation for the upper right direction of the user (upper right direction in the ultra-wide-angle image). 23A to 23E correspond to FIGS. 22A to 22E, respectively, and the basic operation is the same, so common explanations are omitted.

ここで、図23Aに示すように、指示表示855には顔を右上に向けた際の視野中心に位置決め指標851を配置するよう文字での指示を表示している。 Here, as shown in FIG. 23A, an instruction display 855 displays a text instruction to place the positioning index 851 in the center of the visual field when the face is turned to the upper right.

図23Bは、使用者が、図23Aにおける指示表示855に示された指示に従ってキャリブレータ850を右上にかざしている様子を示す図である。 FIG. 23B is a diagram showing how the user holds the calibrator 850 to the upper right according to the instruction indicated by the instruction display 855 in FIG. 23A.

図23Cは、図23Bの状態において撮像レンズ16が捉えた超広角画像の全体を示す模式図である。 FIG. 23C is a schematic diagram showing the entire super-wide-angle image captured by the imaging lens 16 in the state of FIG. 23B.

図23Cに示すように、具体的なオフセット方法としては、まず、超広角画像における中心856及び位置決め指標中心852の位置のずれ量を計測する。その後、計測されたずれ量を直径方向のずれ量857eと角度方向のずれ量857fに分け、全画角の投影方法に従って適切な変換処理を行った後にオフセット量を決定する。 As shown in FIG. 23C, as a specific offset method, first, the amount of positional deviation between the center 856 and the positioning index center 852 in the ultra-wide-angle image is measured. After that, the measured deviation amount is divided into a diametrical deviation amount 857e and an angular deviation amount 857f, and an offset amount is determined after appropriate conversion processing is performed according to the projection method for all angles of view.

また他にも、図23Dに示すように、超広角画像に投影方法に従って適切な変換処理を行った後にオフセット量を決定しても良い。すなわち、変換後の超広角画像における中心856aと位置決め指標中心852とのずれ量を計測し、ずれ量を直径方向のずれ量857gと角度方向ずれ量857hに分けてオフセット量を決定しても良い。 Alternatively, as shown in FIG. 23D, the offset amount may be determined after performing appropriate conversion processing on the ultra-wide-angle image according to the projection method. That is, the amount of deviation between the center 856a and the center 852 of the positioning index in the converted ultra-wide-angle image may be measured, and the amount of deviation may be divided into the amount of deviation 857g in the diameter direction and the amount 857h of deviation in the angular direction to determine the offset amount. .

尚、図22A~図22Eを用いて説明したオフセット量の決定では、ずれ量を上下方向と左右方向に分ける方法を用いた。これに対し、図23A~図23Dを用いて説明したオフセット量の決定では、ずれ量を直径方向と角度方向に分ける方法を用いたが、この方法の違いは説明の便宜上のものにすぎず、いずれの方法を用いても構わない。 Incidentally, in determining the offset amount described with reference to FIGS. 22A to 22E, a method of dividing the amount of deviation into the vertical direction and the horizontal direction was used. On the other hand, in the determination of the offset amount explained using FIGS. 23A to 23D, the method of dividing the amount of deviation into the diametrical direction and the angular direction was used, but the difference in this method is only for convenience of explanation. Either method may be used.

また、このとき顔方向検出部20では、図23Eに示すように、使用者が右上方向を向いた時の顔方向を算出するのに必要な首元位置206及び顎先位置207ruが取得できている。そのため、使用者の個人差・調整差にかかわらず、使用者が位置決め指標中心852の方向(この場合は右上方向)を見た際の顔方向を正しく測定することが出来る。 At this time, as shown in FIG. 23E, the face direction detection unit 20 can acquire the neck position 206 and the chin position 207ru necessary for calculating the face direction when the user faces the upper right direction. there is Therefore, it is possible to correctly measure the face direction when the user looks at the direction of the positioning index center 852 (the upper right direction in this case) regardless of individual differences and adjustment differences of the user.

以上のように、図21に示すキャリブレーション処理においては、正面方向だけでなく、右上、右下、左上、左下の各方向についてもキャリブレーション動作を行う。これにより、使用者が上下左右方向のいずれかの方向に首を振った場合に、使用者がどの方向を向いているかを顔方向検出部20は正しく測定することが可能となり、個人差や調整差によらずカメラ本体1を適切に使用することが出来る。 As described above, in the calibration process shown in FIG. 21, the calibration operation is performed not only in the front direction but also in the upper right, lower right, upper left, and lower left directions. As a result, when the user shakes his or her head in any of the vertical and horizontal directions, the face direction detection unit 20 can accurately measure the direction in which the user is facing, and this allows for individual difference and adjustment. The camera body 1 can be used appropriately regardless of the difference.

以上の記載では、簡単のため明示的に正面、右上、右下、左上、左下の5つの方向に対して繰り返しキャリブレーション動作を行う方法を説明した。 In the above description, for the sake of simplification, the method of repeatedly performing the calibration operation in the five directions of the front, upper right, lower right, upper left, and lower left has been explicitly described.

しかし、キャリブレーション動作はこの方法に限らない。例えば、使用者が、指示表示855に従ってZ字状、渦巻き状、多角形状等の軌跡に沿って連続的にキャリブレータ850を移動させると同時に、キャリブレータ850に表示中の位置決め指標851を視野中心で捉え続ける方法を採っても良い。この方法では、表示装置制御部801は、この方法によりキャリブレータ850が移動している間、複数回キャリブレーション指示をカメラ本体1に送信する。全体制御CPU101は、キャリブレーション指示を受信する毎に顔方向検出部20で検出して顔方向と、撮影部40で撮像した超広角画像における位置決め指標中心852の位置座標情報を取得し、履歴情報として保持する。その後、全体制御CPU101は、取得した履歴情報から抽出した情報を組み合わせて、映像の切り出し中心位置と使用者の顔方向との関係性を算出する。さらには、この方法によるキャリブレータ850の移動中にキャリブレータ850側で取得されたインカメラ805や顔センサ806の情報を用いて、履歴情報から抽出される情報を、使用者が位置決め指標851を見ている状態の情報に限定してもよい。これにより、例えば使用者がよそ見をしている状態の情報は、履歴情報から抽出されなくなるため、関係性の算出の精度を上げることが可能である。 However, the calibration operation is not limited to this method. For example, the user continuously moves the calibrator 850 along a Z-shaped, spiral, polygonal, or other trajectory according to the instruction display 855, and at the same time captures the positioning index 851 being displayed on the calibrator 850 at the center of the visual field. You can find a way to continue. According to this method, the display device control unit 801 transmits calibration instructions to the camera body 1 multiple times while the calibrator 850 is moving according to this method. The overall control CPU 101 acquires the face direction detected by the face direction detection unit 20 each time a calibration instruction is received, and the position coordinate information of the positioning index center 852 in the ultra-wide-angle image captured by the image capturing unit 40, and obtains the history information. hold as Thereafter, the overall control CPU 101 combines the information extracted from the acquired history information to calculate the relationship between the clipping center position of the image and the face direction of the user. Furthermore, using the information of the in-camera 805 and the face sensor 806 acquired by the calibrator 850 while the calibrator 850 is moving by this method, the information extracted from the history information can be read by the user by looking at the positioning index 851. You may limit to the information of the state in which it exists. As a result, for example, information about a state in which the user is looking away is not extracted from the history information, so it is possible to improve the accuracy of calculating the relationship.

また、表示装置制御部801は、キャリブレーション指示の際に角速度センサ807による測定値もカメラ本体1に送信するようにしてもよい。この場合、全体制御CPU101は、送信された角速度センサ807による測定値から、使用者によるキャリブレータ850の移動方法や、キャリブレータ850の位置や姿勢を示す移動情報を取得し、これも履歴情報として保持する。これにより、角速度センサ807による測定値に基づく移動情報、顔方向検出部20が検出した顔方向、及び撮影部40で撮像した超広角画像における位置決め指標中心852の位置座標情報から、キャリブレーション動作を簡易かつ正確に行うことが出来る。 Further, the display device control unit 801 may also transmit the measurement value of the angular velocity sensor 807 to the camera body 1 when instructing calibration. In this case, the overall control CPU 101 acquires movement information indicating the movement method of the calibrator 850 by the user and the position and orientation of the calibrator 850 from the transmitted measured values by the angular velocity sensor 807, and also retains this as history information. . As a result, the calibration operation is performed based on the movement information based on the measured value by the angular velocity sensor 807, the face direction detected by the face direction detection unit 20, and the position coordinate information of the positioning index center 852 in the ultra-wide-angle image captured by the image capturing unit 40. It can be done easily and accurately.

ただしこの場合は、角速度センサ807による測定値に基づく移動情報と、位置決め指標851の位置座標情報に基づく移動情報が一致している必要がある。そのため、角速度センサ807による測定値を用いる場合は、カメラ本体1とキャリブレータ850の通信を同期させることが必要である。 However, in this case, the movement information based on the measured value by the angular velocity sensor 807 and the movement information based on the position coordinate information of the positioning index 851 must match. Therefore, when using the measured value by the angular velocity sensor 807, it is necessary to synchronize communication between the camera body 1 and the calibrator 850. FIG.

以上、実施例2では、個人差や調整差があっても使用者の顔方向と超広角画像における狙い視野125の中心位置を関係づけるキャリブレーション方法を説明した。しかし、本発明は、実施例2で例示した各種形態に限定されるものではなく、その要旨の範囲内で種々の変形及び変更が可能である。 As described above, in the second embodiment, the calibration method for relating the direction of the face of the user and the center position of the target field of view 125 in the ultra-wide-angle image even if there are individual differences and adjustment differences has been described. However, the present invention is not limited to the various forms exemplified in Example 2, and various modifications and changes are possible within the scope of the gist of the present invention.

(実施例3)
実施例3では、二次記録された映像による映像酔いを防止する方法について図24~26を用いて説明する。
(Example 3)
In the third embodiment, a method for preventing motion sickness due to secondary recorded video will be described with reference to FIGS.

基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例3のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the third embodiment, the same reference numerals are used for the configurations that are the same as those of the camera system of the first embodiment, and redundant descriptions are omitted, and details of different configurations are added each time. to explain.

映像技術の進化により、実写と見まがうようなCGや迫力ある3次元映像を手軽に楽しめるようになった。 Advances in imaging technology have made it possible to easily enjoy CG and powerful 3D images that look like live action.

一方、このような3次元映像が、VRなどのダイナミックな動きのある映像や手ぶれの多い映像である場合、これを見たときに映像酔いが生じやすい。映像酔いは乗り物酔いのような症状を招くこともあり、その安全対策に関心が高まっている。 On the other hand, when such 3D images are images with dynamic movements such as VR images or images with a lot of camera shake, motion sickness is likely to occur when viewing these images. Motion sickness can also cause motion sickness-like symptoms, and there is growing interest in its safety measures.

カメラシステムが記録範囲現像処理(ステップS500)において使用者の顔が向いている方向の映像をそのまま切り出して現像するように設計されているとする。この場合、撮影部40による撮像時(ステップS400)に使用者の顔が素早く動いた場合、映像シーンも速い速度で切り替わる。 It is assumed that the camera system is designed to extract and develop the image in the direction in which the user's face is facing in the recording area development process (step S500). In this case, when the user's face moves quickly when the image is captured by the image capturing unit 40 (step S400), the video scene also switches at a high speed.

撮影部40による撮像時に顔を素早く動かした使用者自身は酔わないが、ステップS1000で二次記録された、出来上がった映像にかかる映像シーンが含まれる場合、かかる映像を鑑賞する鑑賞者は映像酔いを起こす可能性がある。 The user who quickly moved his/her face when the image was captured by the imaging unit 40 does not get motion sickness. can cause

顔が向いている方向を映像にする特許文献1,2にもこのような映像酔いに対する対策についての記載はない。 Japanese Patent Application Laid-Open Nos. 2003-100001 and 2003-200010, which record the direction in which the face is facing, do not include any description of countermeasures against motion sickness.

よって、本実施例では、撮影部40による撮像時に使用者が顔を素早く動かす場合であっても、出来上がった映像には速い速度で切り替わる映像シーンが含まれないよう制御し、鑑賞者が映像酔いを起こさないようにするカメラシステムを提供する。 Therefore, in the present embodiment, even if the user moves his/her face quickly when the photographing unit 40 takes an image, control is performed so that the resulting image does not include image scenes that switch at a high speed, thereby preventing the viewer from motion sickness. To provide a camera system that prevents

図8H~図8Kや図10(b)~(d)を用いて説明した通り、使用者の顔は、撮影部40により撮像を行う際に上下左右方向に回転運動をする。 As described with reference to FIGS. 8H to 8K and FIGS. 10B to 10D, the user's face rotates vertically and horizontally when the photographing unit 40 takes an image.

よって、以下、使用者の顔の動く方向と速さは角速度ωで表現し、その動いた量は角度Θで表現する。 Therefore, hereinafter, the direction and speed of movement of the user's face are represented by angular velocity ω, and the amount of movement is represented by angle Θ.

角速度ωは顔方向検出部20で検出された角度Θを検出間隔で除算することで算出する。 The angular velocity ω is calculated by dividing the angle Θ detected by the face direction detector 20 by the detection interval.

ここで、人が顔を素早く動かす動作には、振り返り、チラ見、動体観察などが挙げられる。 Here, examples of actions in which a person quickly moves his/her face include looking back, glimpsing, and observing a moving object.

振り返りとは、例えば背後で大きな音が発生した場合に勢いよく振り返る動作である。 Looking back is an action of vigorously turning back, for example, when a loud sound is generated behind the user.

チラ見とは、何か視界に気になる変化が発生し、それを見たが、あまり関心がなかったので元の顔の位置に戻る動作である。 A glimpse is an action of returning to the original position of the face because there was a change in the field of vision that caused a concern, and the person saw it but was not interested in it.

動体観察とは、例えば空を縦横無尽に飛び回る鳥や凧などを観察する動作である。 Observing a moving object is, for example, an action of observing a bird or a kite flying freely in the sky.

撮影部40による撮像時にこれらの動作が発生した場合、使用者の顔が向いている方向の映像をそのまま記録範囲現像処理で切り出して現像すると、上述した通り、出来上がった映像の鑑賞者が映像酔いを起こす可能性がある。 When these operations occur when the photographing unit 40 takes an image, if the image in the direction in which the user's face is facing is cut out and developed by the recording area development processing, as described above, the viewer of the completed image will not get motion sickness. can cause

よって、全体制御CPU101は、閾値ω0以上となる角速度ωが所定時間以上(第1の所定時間以上)算出された場合、使用者が顔を素早く動かす動作(振り返り、チラ見、動体観察のいずれか)が発生したと判断する。さらに、全体制御CPU101は、発生した動作が図25を用いて後述する方法によりチラ見や動体観察ではないと判断した場合、その動作は振り返りであると判断する。この場合、全体制御CPU101は、使用者の顔が向いている方向の映像をそのまま記録範囲現像処理で切り出すのではなく、使用者の顔の動きに対して遅延して切り出す遅延切り出しを行う。 Therefore, when the angular velocity ω equal to or greater than the threshold value ω0 is calculated for a predetermined time or longer (a first predetermined time or longer), the overall control CPU 101 determines whether the user makes a quick facial movement (looks back, glances, or observes a moving object). ) has occurred. Furthermore, when the overall control CPU 101 determines that the action that has occurred is not a glance or a moving object observation by the method described later with reference to FIG. 25, it determines that the action is looking back. In this case, the overall control CPU 101 does not cut out the image in the direction in which the user's face is facing as it is by the recording area development processing, but performs delayed cutout in which the image is cut out with a delay with respect to the movement of the user's face.

ここで、本実施例では、閾値ω0をπ/8 rad/sとする。これは、顔が正面0度から真横90度を4秒で動く速度である。しかしながら、閾値ω0はπ/8 rad/sに限定するものではない。例えば、フレームレートn fpsに基づき、閾値ω0を(n×π)/x rad/s(xは任意の値)などとしても良い。 Here, in this embodiment, the threshold ω0 is set to π/8 rad/s. This is the speed at which the face moves from 0 degrees in front to 90 degrees to the side in 4 seconds. However, the threshold ω0 is not limited to π/8 rad/s. For example, based on the frame rate n fps, the threshold ω0 may be set to (n×π)/x rad/s (where x is an arbitrary value).

角速度ωは、今回のフレームnの画像から取得された角度Θ及びその取得時刻tと、前回のフレームn-1の画像から取得された角度Θn-1及びその取得時刻tn-1とから、角速度ωを下記の式で求めることができる。
ω=(Θ-Θn-1)/(t-tn-1
但し、角速度ωはx回前のフレームn-xの角速度ωn-xから今回のフレームnの角速度ωまでのxフレーム分の加算平均としてもよい。
The angular velocity ω is the angle Θ n acquired from the image of the current frame n and its acquisition time t n , and the angle Θ n−1 acquired from the image of the previous frame n−1 and its acquisition time t n−1 . , the angular velocity ωn can be obtained by the following equation.
ω n =(Θ nn-1 )/(t n -t n-1 )
However, the angular velocity ω may be an addition average of x frames from the angular velocity ω n− x of the frame n−x before x times to the angular velocity ω n of the current frame n.

さらに、本実施例では、所定時間を0.2秒とするが、この値に限定するものではない。 Furthermore, in this embodiment, the predetermined time is set to 0.2 seconds, but it is not limited to this value.

以下、図24を用いて、使用者が振り返り中である場合の遅延切り出しについて説明する。 Delayed clipping when the user is looking back will be described below with reference to FIG.

実施例1における図11及び図12の説明は撮像レンズ16の歪曲を考慮したが、本実施例では説明を簡単にするために撮像レンズ16の歪曲は考慮しない。また、実施例2のキャリブレーション処理がフレームの画像になされており、各フレームの画像の中心は、その画像の撮像時における使用者の視野中心と一致するとして説明する。また、顔が真横に向いた場合を説明するため、最大FOV角192°の程度までの光線が固体撮像素子42に投影される場合を例に説明する。 The description of FIG. 11 and FIG. 12 in Example 1 considered the distortion of the imaging lens 16, but in this example, the distortion of the imaging lens 16 is not considered for the sake of simplicity of description. Further, it is assumed that the calibration process of the second embodiment is performed on the frame images, and the center of each frame image coincides with the user's visual field center when the image is captured. In addition, in order to explain the case where the face is turned to the side, the case where light rays up to the maximum FOV angle of 192° are projected onto the solid-state imaging device 42 will be explained as an example.

領域4000は、固体撮像素子42の撮像可能な画素領域を表す。 A region 4000 represents the imageable pixel region of the solid-state imaging device 42 .

画像4001(図24(a)及び図24(b))は、現在顔が向いている方向を狙い視野125として切り出したフレームfの画像である。 An image 4001 (FIGS. 24(a) and 24(b)) is an image of a frame fn cut out as the target field of view 125 in the direction the face is currently facing.

画像4002(図24(a)及び図24(b))は、前回顔が向いていた方向を狙い視野125として切り出したフレームfn-1の画像である。 An image 4002 (FIGS. 24(a) and 24(b)) is an image of the frame f n−1 extracted as the target field of view 125 in the direction the face was facing last time.

以下、フレームfn-1の画像4002の中心からフレームfの画像4001の中心までの距離4010(図24(a))の値をdとする。 Hereinafter, let d be the value of the distance 4010 (FIG. 24(a)) from the center of the image 4002 of the frame f n−1 to the center of the image 4001 of the frame f n .

画像4003(図24(b))は、顔方向検出部20により検出された顔方向に基づく顔の角速度ωが閾値ω0以上だった場合に、遅延切り出しフレームf’の画像として領域4000に投影される映像から切り出される画像である。 An image 4003 (FIG. 24(b)) is projected onto the area 4000 as an image of the delayed clipped frame f' n when the angular velocity ω of the face based on the face direction detected by the face direction detection unit 20 is equal to or greater than the threshold value ω0. It is an image cut out from the video to be processed.

以下、フレームfn-1の画像4002の中心から遅延切り出しフレームf’の画像4003の中心までの距離4011の値をd’とする。 Hereinafter, let d' be the value of the distance 4011 from the center of the image 4002 of the frame fn -1 to the center of the image 4003 of the delayed clipped frame f'n .

遅延距離4012は、フレームfの画像4001の中心からフレームf’の画像4003の中心までの距離であり、以下その値をd”とする。 The delay distance 4012 is the distance from the center of the image 4001 of frame fn to the center of the image 4003 of frame f'n , and its value is hereinafter d ''.

この時、距離4010の値dは、距離4011の値d’より大きい(d>d’)。 At this time, the value d of the distance 4010 is greater than the value d' of the distance 4011 (d>d').

次にd’の値の決め方の一例を図24(c)を用いて説明する。 Next, an example of how to determine the value of d' will be described with reference to FIG. 24(c).

ここでは、使用者が顔を正面(観察方向vo(ベクトル情報[0°,0°]))から右方向に真横90度に素早く動かした場合について説明する。この場合、顔が正面(観察方向vo(ベクトル情報[0°,0°]))に向くフレームfの画像4021がえられた後、短い時間経過後に、顔が右方向に真横90°に向くフレームfn+xの画像4022が得られる。 Here, a case will be described where the user quickly moves the face from the front (viewing direction vo (vector information [0°, 0°])) to the right by 90 degrees. In this case, after an image 4021 of frame fn in which the face faces the front (observation direction vo (vector information [0°, 0°])) is obtained, after a short period of time, the face is 90° to the right. An image 4022 of the facing frame f n+x is obtained.

映像酔いを防止するには、正面から右方向に真横90°にt秒(例えば4秒)以上かけて動かす必要があるとすると、映像のフレームレートがn fps(例えば30fps)である場合、d’=(fn+x-f)/(n fps×t秒)となる。 In order to prevent motion sickness, if it is necessary to move from the front to the right side to 90 ° over t seconds (eg, 4 seconds) or more, if the video frame rate is n fps (eg, 30 fps), d '=(f n+x −f n )/(n fps×t seconds).

一方、フレームfからフレームf’までの距離d”が大きくなっていくと、顔が向いている方向を記録方向としていないので、フレームfには使用者が見ていた被写体が映っていない可能性が出てくる。 On the other hand, as the distance d '' from the frame fn to the frame f'n increases, the subject that the user was looking at is not reflected in the frame fn because the direction in which the user's face is facing is not set as the recording direction. There is a possibility that there is no.

そこで、遅延時間が所定時間Thdelay(第2の所定時間)以上になった場合は、遅延切り出しを中止し、現在顔が向いている方向の切り出しをする。 Therefore, when the delay time becomes equal to or longer than a predetermined time Thdelay (second predetermined time), the delayed clipping is stopped, and the clipping is performed in the direction in which the face is currently facing.

ここで遅延時間とは、遅延が発生し始めた時間t0(図26のステップS4211)と、顔が動き続けている現在時間t(図26のステップS4213)の差である。 Here, the delay time is the difference between the time t0 (step S4211 in FIG. 26) at which the delay begins to occur and the current time tn (step S4213 in FIG. 26) at which the face continues to move.

所定値Thdelayは、本実施例では1秒に設定されるが、これに限定されない。例えば、フレームレートn fpsを基にして、所定値Thdelayを20/n秒に設定しても良い。所定値Thdelayが20/n秒の場合、フレームレートが高いほど所定値Thdelayが短くなる。これは、フレームレートが高いほど映像酔いの可能性は低くなるため、短い遅延時間で現在顔が向いている方向の切り出し処理に戻しても構わないためである。 Although the predetermined value Th delay is set to 1 second in this embodiment, it is not limited to this. For example, based on the frame rate n fps, the predetermined value Th delay may be set to 20/n seconds. When the predetermined value Th delay is 20/n seconds, the higher the frame rate, the shorter the predetermined value Th delay . This is because the higher the frame rate, the lower the possibility of motion sickness, so it is possible to return to the cutout process in the direction in which the face is currently facing with a short delay time.

一方、遅延切り出しを中止し、現在顔が向いている方向の切り出しに戻すと、映像シーンは急に切り替わることになる。このような映像シーンの急な切り替えは使用者が不自然に感じるので、フェードアウト、フェードイン、またはその他の映像効果を取り入れても構わない。 On the other hand, if the delayed clipping is canceled and the clipping is resumed in the direction in which the face is currently facing, the video scene will suddenly switch. Since such abrupt switching of video scenes is unnatural for users, fade-outs, fade-ins, or other video effects may be incorporated.

また、現在顔が向いている方向の切り出しが再開できるよう、顔が向いている方向の軌跡を保持しておく。 Also, the trajectory of the direction in which the face is currently facing is held so that the extraction of the direction in which the face is currently facing can be restarted.

ここで、保持される顔が向いてる方向の軌跡について、図25(a)を用いて使用者がチラ見中であると判定された場合を例に説明する。 Here, a case where it is determined that the user is glancing at the trajectory of the direction in which the held face faces will be described with reference to FIG. 25(a).

遅延切り出しを中止し、現在顔が向いている方向の切り出しに戻す処理は、前述した通り、遅延時間が所定値Thdelay以上となった場合も実行されるが、チラ見中の場合、つまり顔が特定方向を見た後すぐに元の方向を向いた場合にも実行される。 The process of canceling delayed clipping and returning to clipping in the direction in which the face is currently facing is executed even when the delay time exceeds the predetermined value Th delay , as described above. is also executed if it turns back immediately after looking in a particular direction.

図25(a)は、使用者がチラ見中である場合の顔が向いている方向の軌跡の例を示す図である。 FIG. 25(a) is a diagram showing an example of the trajectory of the direction in which the user's face is facing while glancing.

フレームfn-3の画像の中心である位置4101は、顔が動き始めたときの使用者の視野中心と一致する。その後、使用者の視野中心は、フレームfn-2,fn-1,fの夫々の画像の中心である位置4102,4103,4104へと動く。以下、このような使用者の視野中心の動きを顔の動きベクトルという。 Position 4101, the center of the image in frame f n−3 , coincides with the user's visual field center when the face begins to move. The user's visual field center then moves to positions 4102, 4103, 4104, which are the image centers of frames f n-2 , f n-1 , f n , respectively. Hereinafter, such a motion of the user's visual field center is referred to as a face motion vector.

使用者の視野中心は、その後、位置4104でしばらく留まった後、フレームfnx+1,fnx+2,fnx+3の夫々の画像の中心である位置4105,4106,4107へと動き、フレームfnx+3の画像の中心である位置4107で止まる。 The user's visual field center then stays for a while at position 4104 before moving to positions 4105, 4106, and 4107, which are the centers of the images of frames fnx +1 , fnx +2 , and fnx+ 3 , respectively, and of the image of frame fnx +3 . Stop at position 4107, which is the center.

すなわち、位置4101~4104の顔の動きベクトルと、位置4104~4107の顔の動きベクトルは逆方向となる。 That is, the face motion vector at positions 4101 to 4104 and the face motion vector at positions 4104 to 4107 are in opposite directions.

全体制御CPU101は、図25(a)に例示するような、顔の動きベクトルが逆の方向で一致するフレーム群を検知した場合、そのフレーム群をチラ見中のフレーム群と判定する。 When the general control CPU 101 detects a frame group in which the face motion vectors match in opposite directions, as illustrated in FIG.

この場合、全体制御CPU101は、顔が動き始めた位置4101から顔の動きベクトルが逆に動き始めた位置4104までは遅延切り出しを行う。位置4104は、使用者がチラ見して見たいと考えた被写体が映っている位置と考えられるためである。 In this case, the overall control CPU 101 performs delayed extraction from a position 4101 where the face starts to move to a position 4104 where the motion vector of the face starts to move in the opposite direction. This is because the position 4104 is considered to be the position where the subject that the user wants to glance at appears.

一方、位置4104まで遅延切り出しをした後は、全体制御CPU101は、顔の動きが止まった位置4107まで現在顔が向いている方向の切り出しを再開する。 On the other hand, after performing the delayed clipping up to the position 4104, the overall control CPU 101 resumes clipping in the direction the face is currently facing up to the position 4107 where the movement of the face has stopped.

さらに、全体制御CPU101は、使用者の顔が動いている際に、顔が向いている方向の視野の中央付近に存在する物体を検知し、その検知された物体が顔が向いている方向の視野の中央に居続ける場合、使用者は動体観察中であると判断する。この場合、本実施例では遅延切り出しを行わない。 Furthermore, when the user's face is moving, the overall control CPU 101 detects an object existing near the center of the visual field in the direction the face is facing, and detects the detected object in the direction the face is facing. If the user stays in the center of the field of view, it is determined that the user is observing a moving object. In this case, the present embodiment does not perform delayed clipping.

図25(b)は、使用者が動体観察中である場合の各フレームの画像の例を示す図である。 FIG. 25(b) is a diagram showing an example of an image of each frame when the user is observing a moving object.

フレームfn-1の画像4121の中心である位置は、顔が動き始めたときの使用者の視野中心と一致する。その後、使用者の視野中心は、フレームf,fn+1,fn+2,fn+3,fn+4の夫々の画像4122~4126の中心である位置に動く。 The position, which is the center of the image 4121 of frame f n−1 , coincides with the user's visual field center when the face starts to move. The user's visual field center then moves to a position that is the center of each of the images 4122-4126 of frames f n , f n+1 , f n+2 , f n+3 , and f n+4 .

それぞれのフレームの画像4121~4126の中央付近に同じ被写体である鳥が存在し続ける。 A bird, which is the same subject, continues to exist near the center of images 4121 to 4126 of each frame.

全体制御CPU101は、図25(b)に例示するような、画像の中央付近に同じ被写体が存在する連続するフレーム群を検知した場合、そのフレーム群を動体観察中のフレーム群と判定する。 When the overall control CPU 101 detects a continuous frame group in which the same subject exists near the center of the image, as illustrated in FIG. 25B, the CPU 101 determines the frame group to be a moving object observation frame group.

この場合、全体制御CPU101は、遅延切り出しは行わない。動体観察の際に遅延切り出しを行うと被写体が映像に映っていない可能性が高くなるためである。 In this case, the overall control CPU 101 does not perform delayed clipping. This is because there is a high possibility that the subject will not appear in the video if delayed clipping is performed when observing a moving object.

また、動体観察の際の使用者の速い顔の動きに応じて画像4121~4126が切り出された映像を鑑賞者が鑑賞すると映像酔いを引き起こす可能性がある。よって、全体制御CPU101は、動体観察中のフレーム群については、画像の切り出しを行わず、固体撮像素子42で撮像可能な画素領域の全体、つまり領域4000の画像を記録する。 In addition, if the viewer watches a video in which the images 4121 to 4126 are cut out according to the fast facial movement of the user when observing a moving object, it may cause motion sickness. Therefore, the overall control CPU 101 does not cut out images for the frame group during observation of the moving object, and records the entire pixel area imageable by the solid-state imaging device 42 , ie, the image of the area 4000 .

尚、上述した閾値ω0、所定時間、所定値Thdelayは不感帯と呼ばれる幅を持たせてもよい。 Note that the threshold value ω0, the predetermined time period, and the predetermined value Th_delay described above may have a width called a dead zone.

次に図26のフローチャートを用いて、本実施例に係る映像酔い防止処理について説明する。尚、本処理は、撮影部40による動画撮像中にステップS400でのフレーム撮影が行われる毎に実行される。 Next, motion sickness prevention processing according to this embodiment will be described with reference to the flowchart of FIG. 26 . It should be noted that this processing is executed each time frame shooting in step S400 is performed while the shooting unit 40 is shooting a moving image.

ステップS4201では、全体制御CPU101は、今回のフレーム撮影のために実行された顔方向検出処理で一次メモリ103に記録された顔方向(観察方向)を取得する。 In step S4201, the overall control CPU 101 acquires the face direction (observation direction) recorded in the primary memory 103 in the face direction detection processing executed for the current frame shooting.

ステップS4202では、全体制御CPU101は、今回のフレーム撮影のために実行された記録方向・範囲決定処理で一次メモリ103に記録された映像記録用枠の位置及びサイズ(切り出し範囲)を取得する。 In step S4202, the overall control CPU 101 acquires the position and size (cutout range) of the video recording frame recorded in the primary memory 103 in the recording direction/range determination processing executed for the current frame shooting.

ステップS4203では、全体制御CPU101(演算手段)は、ステップS4201で取得した今回のフレーム撮影時の顔方向、一次メモリ103に保持されている前回のフレーム撮影時の顔方向、及びフレームレートに基づき、顔の角速度ωを算出する。その後、全体制御CPU101は、顔が閾値ω0以上の角速度ωで動き始めたか否かを判定する。具体的には、使用者の顔が閾値ω0以上の角速度ωで、所定時間(0.2秒)以上動いたときに顔が閾値ω0以上の角速度ωで動き始めたと判断する。動き始めたと判定された場合はステップS4204に進み、そうでないと判定された場合はステップS4201に戻る。すなわち、使用者の顔が閾値ω0以上の角速度ωで動いた場合であっても、その時間が所定時間未満(第1の所定時間未満)である場合は、ステップS4201に戻る。また、一次メモリ103に前回のフレーム撮影時の顔方向が保持されておらず、ステップS4203において顔の角速度の算出ができない場合も、ステップS4201に戻る。 In step S4203, the overall control CPU 101 (computing means), based on the face direction at the time of the current frame shooting acquired at step S4201, the face direction at the time of the previous frame shooting held in the primary memory 103, and the frame rate, Calculate the angular velocity ω of the face. Thereafter, the overall control CPU 101 determines whether or not the face has started to move at an angular velocity ω equal to or greater than the threshold ω0. Specifically, when the user's face moves at an angular velocity ω equal to or greater than the threshold ω0 for a predetermined time (0.2 seconds) or longer, it is determined that the face has started to move at an angular velocity ω equal to or greater than the threshold ω0. If it is determined that the movement has started, the process advances to step S4204; otherwise, the process returns to step S4201. That is, even if the user's face moves at an angular velocity ω equal to or greater than the threshold ω0, if the time is less than the predetermined time (less than the first predetermined time), the process returns to step S4201. Also, if the primary memory 103 does not hold the face direction at the time of the previous frame shooting and the angular velocity of the face cannot be calculated in step S4203, the process returns to step S4201.

ステップS4204では、全体制御CPU101は、ステップS4203で算出された顔の角速度ωに基づき、顔が所定角度以上、動いたか否かを判定する。動いたと判定された場合はステップS4206に進み、そうでないと判定された場合はステップS4205に進む。尚、ステップS4204において、全体制御CPU101は、顔が、所定の角速度以上で所定時間(0.2秒)以上、動いたか否かを判定してもよい。 In step S4204, the overall control CPU 101 determines whether or not the face has moved by a predetermined angle or more based on the angular velocity ω of the face calculated in step S4203. If determined to have moved, the process advances to step S4206; otherwise, to step S4205. In step S4204, the overall control CPU 101 may determine whether or not the face has moved at a predetermined angular velocity or more for a predetermined period of time (0.2 seconds) or longer.

ステップS4205では、全体制御CPU101は、ステップS4203で算出された顔の角速度ωに基づき、顔の動きが止まったか否かを判定する。止まったと判定された場合はステップS4201に戻り、そうでないと判定された場合はステップS4204に戻る。 In step S4205, the overall control CPU 101 determines whether or not the movement of the face has stopped based on the angular velocity ω of the face calculated in step S4203. If it is determined that it has stopped, the process returns to step S4201, and if it is determined otherwise, the process returns to step S4204.

ステップS4206では、全体制御CPU101は、撮像している被写体が動いているか(使用者が動体観察中か)否かを判定する。動いていると判定された場合はステップS4207に進み、そうでないと判定された場合はステップS4208に進む。 In step S4206, the overall control CPU 101 determines whether or not the subject being imaged is moving (whether or not the user is observing a moving object). If it is determined that the object is moving, the process proceeds to step S4207; otherwise, the process proceeds to step S4208.

ステップS4207では、全体制御CPU101は、今回のフレームの記録範囲現像処理では、クロップ現像処理は行わず、固体撮像素子42の全体から取得された全領域RAWデータの現像処理を行う旨決定し、ステップS4205に進む。 In step S4207, the overall control CPU 101 determines that cropping development processing will not be performed in the recording area development processing of the current frame, and development processing will be performed on the entire area RAW data acquired from the entire solid-state imaging device 42. Proceed to S4205.

ステップS4208では、全体制御CPU101は、ステップS4201で取得した今回のフレーム撮影時の顔方向を一次メモリ103に記憶し、ステップS4209に進む。 In step S4208, the overall control CPU 101 stores in the primary memory 103 the face direction obtained in step S4201 at the time of frame shooting this time, and proceeds to step S4209.

ステップS4209では、全体制御CPU101(遅延手段)は、今回のフレームの記録範囲現像処理では、前回のフレームの顔方向から距離dだけずれた位置を中心とする切り出し範囲についてクロップ現像処理を行う(遅延切り出しを行う)旨決定する。その後、ステップS4210に進む。 In step S4209, the overall control CPU 101 (delaying means) performs crop development processing on the cutout range centered at a position shifted by distance d from the face direction of the previous frame in the recording range development processing of the current frame (delayed processing). cut out). After that, the process proceeds to step S4210.

ステップS4210では、全体制御CPU101は、一次メモリ103に記憶されている遅延時間の開始時刻t0がクリアされているか否かを判定する。クリアされていると判定された場合はステップS4211に進み、そうでないと判定された場合はステップS4212に進む。 In step S4210, overall control CPU 101 determines whether or not delay time start time t0 stored in primary memory 103 has been cleared. If it is determined to be cleared, the process proceeds to step S4211; otherwise, to step S4212.

ステップS4211では、全体制御CPU101は、現在時刻を一次メモリ103に開始時刻t0として記憶し、ステップS4212に進む。 In step S4211, overall control CPU 101 stores the current time in primary memory 103 as start time t0, and proceeds to step S4212.

ステップS4212では、全体制御CPU101は、ステップS4203で算出された顔の角速度ωに基づき、遅延時間が所定値Thdelayを経過する前の段階で顔の動きが止まったか否かを判定する。止まったと判定された場合はステップS4215に進み、そうでないと判定された場合は、ステップS4213に進む。 In step S4212, the overall control CPU 101 determines whether or not the movement of the face has stopped before the delay time reaches a predetermined value Th delay , based on the angular velocity ω of the face calculated in step S4203. If determined to have stopped, the process advances to step S4215; otherwise, to step S4213.

ステップS4213では、全体制御CPU101は、現在時刻を一次メモリ103に時刻tnとして記憶し、ステップS4214に進む。 In step S4213, overall control CPU 101 stores the current time in primary memory 103 as time tn, and proceeds to step S4214.

ステップS4214では、全体制御CPU101は、一次メモリ103に記憶された時刻tnと開始時刻t0の差分である遅延時間を計算し、遅延時間が所定時間Thdelay以上であるか否かを判定する。所定時間Thdelay以上である場合はステップS4215に進み、そうでない場合はステップS4206に戻る。 In step S4214, the overall control CPU 101 calculates the delay time, which is the difference between the time tn stored in the primary memory 103 and the start time t0, and determines whether or not the delay time is equal to or greater than a predetermined time Thdelay . If it is equal to or longer than the predetermined time Th delay , the process proceeds to step S4215; otherwise, the process returns to step S4206.

ステップS4215では、全体制御CPU101は、一次メモリ103に記憶された開始時刻t0をクリアし、ステップS4216に進む。 In step S4215, overall control CPU 101 clears start time t0 stored in primary memory 103, and proceeds to step S4216.

ステップS4216では、全体制御CPU101は、顔方向検出部20により検出された顔方向に基づいて、記録方向・画角決定部30で記録方向と画角を決定し、ステップS4217に進む。 In step S4216, the overall control CPU 101 determines the recording direction and the angle of view by the recording direction/angle of view determination unit 30 based on the face direction detected by the face direction detection unit 20, and proceeds to step S4217.

ステップS4217では、全体制御CPU101は、今回のフレームのメタデータにフラグを記録し、ステップS4201に戻る。ここでつけたメタデータのフラグは、実施例1のステップS1000で説明した二次記録の時に、上述したフェードイン・フェードアウトなどの映像効果(フェード効果)を付けるタイミングとして使用する。 In step S4217, overall control CPU 101 records a flag in the metadata of the current frame, and returns to step S4201. The metadata flag attached here is used as the timing for adding video effects (fade effects) such as the fade-in/fade-out described above at the time of secondary recording described in step S1000 of the first embodiment.

以上、本実施例では、顔の角速度ωが閾値ω0以上になった場合、顔の向いている方向のフレームをそのまま切り出すのではなく、顔の動きに応じて切り出すので、映像酔いを軽減できる効果がある。 As described above, in this embodiment, when the angular velocity ω of the face is equal to or greater than the threshold ω0, the frame in the direction in which the face is facing is not clipped as it is, but is clipped according to the movement of the face, thereby reducing motion sickness. There is

(実施例4)
実施例4では、使用者の顔の向きの移動速度に応じて映像の切り出し範囲を補正する方法について図27,図28を用いて説明する。
(Example 4)
In the fourth embodiment, a method of correcting the clipping range of the image according to the moving speed of the user's face will be described with reference to FIGS. 27 and 28. FIG.

基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例4のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the fourth embodiment, the same reference numerals are used for the configurations that are the same as the configuration of the camera system of the first embodiment, redundant explanations are omitted, and details of different configurations are added each time. to explain.

まず人が観察方向を変える動作について説明する。通常、人が視界の中心より外れた視界の端の方に関心ごとを見つけてそちらに観察方向を向ける場合、まず顔が動き、ある程度以上になると遅れて体が追従していく。 First, the operation of changing the observation direction by a person will be described. Normally, when a person finds an object of interest at the edge of the field of vision that is off the center of the field of vision and directs the direction of observation there, the face moves first, and after a certain amount, the body follows with a delay.

すなわち、このような場合、鎖骨前方にある撮影・検出部10(図10(a))上の撮像レンズ16の方向は、初動で顔のみが向きを変えているときには動かない。その後、使用者が体全体で向きを変えるようになった時に、カメラ本体1の撮像レンズ16の方向も動く。このような人体行動の特徴があることを踏まえて以下説明していく。 That is, in such a case, the direction of the imaging lens 16 on the imaging/detecting unit 10 (FIG. 10(a)) located in front of the clavicle does not move when only the face changes its orientation at the initial movement. After that, when the user turns his/her whole body, the direction of the imaging lens 16 of the camera body 1 also moves. Based on the fact that there are such characteristics of human behavior, the following description will be given.

また顔方向検出部20で顔方向を検出する場合、検出誤差によるばらつきが生じる。かかるばらつきが含まれた顔方向の検出結果に基づき映像の切り出し位置を算出すると、ステップS1000で二次記録された動画には一般的な動画の手振れのようなブレが生じて見栄えが悪くなる。そこで細かい検出の揺れを補正するために顔方向の検出結果にローパスフィルタをかけて細かいばらつきを除去する。 Further, when the face direction detection unit 20 detects the face direction, variations occur due to detection errors. If the clipping position of the video is calculated based on the detection result of the face direction including such variation, the moving image secondary-recorded in step S1000 will have a blur similar to general moving image shake, and the appearance will be poor. Therefore, in order to correct the shake of fine detection, a low-pass filter is applied to the detection result of the face direction to remove fine variations.

また公道を歩いているときの左右確認など、一瞬の顔の移動にも追従して顔方向を検出すると、ステップS1000で二次記録された動画は映像酔いしやすい動画となってしまう。そのため本実施例では、1秒乃至は2秒程度の一瞬の顔の移動に追従して検出された顔方向の微動成分も除去(平滑化)する処理を行う。これにより、ステップS1000で二次記録された動画を見栄えの良い動画とすることができる。 Also, if the direction of the face is detected by following a momentary movement of the face, such as when checking left and right while walking on a public road, the moving image secondary-recorded in step S1000 will easily cause motion sickness. Therefore, in the present embodiment, a process of removing (smoothing) the slight movement component in the direction of the face detected following a momentary movement of the face for about 1 or 2 seconds is performed. As a result, the moving image secondary-recorded in step S1000 can be made to look good.

次に、本実施例における切り出し範囲補正処理の概要を図27を用いて説明する。 Next, an outline of extraction range correction processing in this embodiment will be described with reference to FIG. 27 .

図27に示す各グラフの横軸は時間を表し、縦軸は夫々、実際の観察中心(図27(a))、顔方向(図27(b),(c))、撮像レンズ16の方向(図27(d))、及び切り出し位置(図27(e),(f))の角度を表す。尚、縦軸は上方向が右方向を示している。 The horizontal axis of each graph shown in FIG. 27 represents time, and the vertical axis represents the actual observation center (FIG. 27(a)), the face direction (FIGS. 27(b) and (c)), and the direction of the imaging lens 16, respectively. (FIG. 27(d)) and the angle of the cutout position (FIGS. 27(e) and (f)). Note that the upward direction of the vertical axis indicates the right direction.

図27(a)は、実際の観察中心(顔方向)の移動を示すグラフである。尚、図27(a)の縦軸の角度は、顔方向検出部20で検出された顔方向を示す角度ではなく、地面などの固定位置(地面基準)からの使用者の顔位置を表している。すなわち、図27(a)のグラフは、最初は使用者は正面を向いているが1秒付近から右を向き始めていくことを示している。 FIG. 27A is a graph showing the actual movement of the observation center (face direction). The angle on the vertical axis in FIG. 27(a) does not represent the face direction detected by the face direction detection unit 20, but represents the user's face position from a fixed position such as the ground (ground reference). there is That is, the graph of FIG. 27(a) shows that the user is facing forward at first, but starts to turn to the right from around 1 second.

図27(b)は、顔方向検出部20の検出結果(観察方向vi)を示すグラフである。図27(b)の検出結果を示す線がなめらかではないのは、上述した通り、検出結果には検出誤差によるばらつきがあるためである。従って、本実施例では、顔方向検出部20の検出結果にローパスフィルタをかける。 FIG. 27(b) is a graph showing the detection result (observation direction vi) of the face direction detection unit 20. As shown in FIG. The reason why the line indicating the detection result in FIG. 27(b) is not smooth is that the detection result varies due to the detection error, as described above. Therefore, in this embodiment, the detection result of the face direction detection unit 20 is subjected to a low-pass filter.

また、図27(b)においては検出されていないが、一瞬の顔の移動に追従して検出された顔方向の変化も除去(平滑化)する処理を行う。 In addition, although not detected in FIG. 27B, a process of removing (smoothing) changes in the direction of the face detected following a momentary movement of the face is also performed.

図27(c)は、図27(b)の顔方向検出部20の検出結果にローパスフィルタをかけて平滑化した場合を示すグラフである。図27(c)に示すように、図27(b)の検出結果を示す線は、ローパスフィルタをかけることでなめらかな線となる。しかしこのようなフィルタをかけることで、図27(c)では検出された顔方向の正面から右への移動が2秒付近から始まっており、図27(a)の場合とほぼ同時に係る移動が始まっている図27(b)よりも遅延(タイムラグ)が生じている。尚、図27(b),(c)の縦軸の角度は、図27(a)の地面基準とは異なり、撮像レンズ16の方向(カメラ本体1基準)からの角度である。 FIG. 27(c) is a graph showing a case where the detection result of the face direction detection unit 20 in FIG. 27(b) is smoothed by applying a low-pass filter. As shown in FIG. 27(c), the line indicating the detection result in FIG. 27(b) becomes a smooth line by applying a low-pass filter. However, by applying such a filter, in FIG. 27(c), the movement of the detected face direction from the front to the right starts from around 2 seconds, and the relevant movement occurs almost at the same time as in the case of FIG. 27(a). There is a delay (time lag) from the beginning in FIG. 27(b). 27(b) and 27(c) are angles from the direction of the imaging lens 16 (camera body 1 reference), unlike the ground reference in FIG. 27(a).

また図27(b)では、図27(a)と比べて4秒付近から傾きが緩やかになってきている。これは、図27(d)に示すように、4秒付近からカメラ本体1(撮像レンズ16の方向)が使用者の体と一緒に移動し始めたため、相対的に顔方向検出部20により検出された顔方向の移動速度が減速していることを意味している。 In addition, in FIG. 27(b), the slope becomes gentler from around 4 seconds as compared with FIG. 27(a). As shown in FIG. 27(d), the camera body 1 (in the direction of the image pickup lens 16) begins to move together with the user's body from around 4 seconds, so the face direction detection unit 20 relatively detects this. This means that the movement speed in the face direction is decelerating.

図27(e)に示すように、ローパスフィルタをかけて平滑した顔方向検出結果(図27(c))に、カメラ本体の移動量(図27(d))を足し合わせた位置を切り出し位置、すなわち、狙い視野125の中心となる観察方向として算出する方法が考えられる。しかし、この単純加算方法で切り出し位置を算出すると、クロップ位置は実際の観察中心の移動に追従しておらず、二次記録で出来上がった映像が、体の移動が開始された4.5秒付近からパンニングが急に加速したような映像となってしまう。 As shown in FIG. 27(e), the cutout position is obtained by adding the movement amount of the camera body (FIG. 27(d)) to the face direction detection result (FIG. 27(c)) smoothed with a low-pass filter. That is, a method of calculating the observation direction that is the center of the target visual field 125 is conceivable. However, when the cropping position is calculated by this simple addition method, the cropping position does not follow the actual movement of the observation center, and the image created by the secondary recording is around 4.5 seconds when the body movement starts. The image appears as if the panning suddenly accelerated from the beginning.

すなわち、実際の観察中心の移動に対する違和感をなくすには、図27(f)に示すようにパンニングが略一定となるよう切り出し位置(期待値)を算出することが好ましい。 That is, in order to eliminate the sense of incongruity caused by the actual movement of the observation center, it is preferable to calculate the cutout position (expected value) so that the panning is substantially constant as shown in FIG. 27(f).

そこで本実施例では、図27(e)のようにパンニングが急に加速したように見えないよう、切り出し位置を算出する。尚、図27のように切り出し位置の移動速度が0°/秒と10°/秒の2種類の場合、図27(c)の顔方向検出結果に上記タイムラグ分だけ前(本実施例では1秒前)の図27(d)のカメラ本体1の移動量を加算すれば、図27(f)の期待値を算出できる。但し、実際は、切り出し位置の移動速度は上記2種類のみ、すなわち、観察方向が急に加速したり、急に止まったりすることはなく、ゆっくりと減速が行われるが、上記算出方法では期待値がゆっくりとした減速カーブが描けない。よって、本実施例では、カメラ本体1の移動が止まった場合、観察方向の移動の開始から止まるまで、もしくは過去一定期間の切り出し位置の移動速度を数フレーム分に割り振ることで、期待値が減速カーブを描くようにする。 Therefore, in this embodiment, the cut-out position is calculated so that the panning does not appear to have suddenly accelerated as shown in FIG. 27(e). As shown in FIG. 27, when there are two kinds of moving speeds of the clipping position, 0°/second and 10°/second, the face direction detection result shown in FIG. 27(d), the expected value of FIG. 27(f) can be calculated. However, in reality, there are only two types of movement speeds for the cutout position, that is, the observation direction does not suddenly accelerate or suddenly stop, but slowly decelerates. A slow deceleration curve cannot be drawn. Therefore, in this embodiment, when the movement of the camera body 1 stops, the expected value is decelerated by allocating the moving speed of the clipping position from the start of the movement of the observation direction until it stops or from the past fixed period to several frames. Draw a curve.

以下、図28のフローチャートを用いて、本実施例における切り出し範囲補・BR>ウ処理を順に説明していく。 Hereinafter, the extraction range compensation/BR>c processing in this embodiment will be described in order using the flowchart of FIG.

以下、既述した実施例1~3と共通の部分に関しては説明を簡略化もしくは割愛して説明していく。 In the following, the description of the parts common to the above-described first to third embodiments will be simplified or omitted.

図28(a)は、本実施例に係る図7AのステップS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。 FIG. 28A is a flowchart of a subroutine of the recording direction/range determination process in step S300 of FIG. 7A according to this embodiment.

ステップS4000aでは、ステップS200の顔方向検出処理で取得した観察方向viにローパスフィルタをかけて平滑化を行う(平滑化手段)。図27(b)を用いて上述した通り、観察方向viは若干の検出誤差によるばらつきがあるためである。ローパスフィルタは過去数回、例えば5乃至10回分の単純移動平均をとる方法が簡便である。しかしこの時、平均をとる回数が増えれば増えるほど、顔の向きが移動した時の追従が遅れてしまう。また右を向いた後すぐに左に向きを変えるような場合、使用者が最も右に向いたときの観察方向viを検出しきれないという問題もある。 In step S4000a, smoothing is performed by applying a low-pass filter to the viewing direction vi acquired in the face direction detection processing in step S200 (smoothing means). This is because, as described above with reference to FIG. 27(b), the viewing direction vi varies slightly due to detection errors. For the low-pass filter, it is convenient to take a simple moving average of the past several times, for example, 5 to 10 times. However, at this time, as the number of times of averaging increases, the follow-up when the face direction moves is delayed. In addition, when the user immediately turns to the left after turning to the right, there is also a problem that the viewing direction vi when the user turns to the right most cannot be detected.

さらに検出誤差の混入具合は検出方法によって異なるため、平滑化の度合いは検出方法によって適宜変更することも好ましい。上下方向と左右方向でローパスフィルタのかけ方を異ならせることも可能である。 Furthermore, since the degree of detection error mixture varies depending on the detection method, it is also preferable to appropriately change the degree of smoothing according to the detection method. It is also possible to apply a low-pass filter differently in the vertical direction and in the horizontal direction.

また上述したとおり、一瞬の顔の動きは使用者の体験したことを映像として残すためには記録する必要がない場合が多い。例えば上述した歩行中の左右の安全確認のために仕方なく顔を動かすことなどがあげられる。そのような瞬間に取り込まれる画像は、記録する必要がない。よって、本実施例では、2秒程度で略元の方向に戻った場合に取得された観察方向viもステップS4000aにおいて平滑化する。 Also, as described above, there are many cases in which it is not necessary to record a momentary facial movement in order to record what the user has experienced as a video. For example, the face is reluctantly moved to confirm left and right safety while walking as described above. Images captured at such moments need not be recorded. Therefore, in this embodiment, the observation direction vi acquired when the direction returns to the original direction in about 2 seconds is also smoothed in step S4000a.

さらに左右方向や下方向は安全確認する必要が多いが、上方向は安全確認する必要は少ないため、上方向にはローパスフィルタをかけないようにしてもよい。 Further, it is often necessary to confirm safety in the horizontal direction and downward direction, but there is little need to confirm safety in the upward direction. Therefore, the low-pass filter may not be applied in the upward direction.

ステップS301~S304までの処理(図7D)により切り出し範囲を決定すると、ステップS4000に進み、全体制御CPU101(第2のキャリブレーション手段)は切り出し範囲補正処理を実行する。 After the extraction range is determined by the processing of steps S301 to S304 (FIG. 7D), the process advances to step S4000, and the overall control CPU 101 (second calibration means) executes extraction range correction processing.

その後、ステップS305で補正後の切り出し範囲を記録した後、本サブルーチンを抜ける。切り出し範囲補正処理については、図28(b)のフローチャートを用いて説明する。 Thereafter, after recording the corrected cutout range in step S305, this subroutine is exited. The clipping range correction processing will be described with reference to the flowchart of FIG. 28(b).

図28(b)は、ステップS4000の切り出し範囲補正処理のフローチャートである。 FIG. 28(b) is a flow chart of the extraction range correction processing in step S4000.

図28(b)においてまず、ステップS4001で全体制御CPU101(移動速度算出手段)は角速度センサ107からジャイロ情報、すなわち今回のフレームでのカメラ本体1の動き(ジャイロ移動量)を取得する。 In FIG. 28B, first, in step S4001, the overall control CPU 101 (movement speed calculation means) acquires gyro information from the angular velocity sensor 107, that is, the movement of the camera body 1 in the current frame (gyro movement amount).

尚、本実施例では角速度センサ107を用いたが、カメラ本体1の動きが検出できればこれに限定されない。例えば、不図示の磁場(磁界)の大きさ・方向を計測する磁気センサを用いてもよいし、加速度を検出する加速度センサ108を用いてもよい。さらには、特徴点を抽出しその特徴点がどの程度移動したかを計算することで移動ベクトルを検出し、カメラ本体1の移動量を算出する方法でもよい。特徴点の抽出は既知の方法が採用できる。一例をあげると2枚の画像の輝度情報のみを抽出した画像にバンドパスフィルターをかけてエッジを抽出し、複数枚のエッジ画像をずらした状態で減算し、差分が少なくなる位置を計算することで移動量を算出できる。この方法は計算量が増えるが、角速度センサ107等のハードが不要となるためカメラ本体1の軽量化が可能であるため好ましい様態の一つである。 Although the angular velocity sensor 107 is used in this embodiment, it is not limited to this as long as the movement of the camera body 1 can be detected. For example, a magnetic sensor (not shown) that measures the magnitude and direction of a magnetic field (magnetic field) may be used, or an acceleration sensor 108 that detects acceleration may be used. Furthermore, a method of detecting a movement vector by extracting a feature point and calculating how much the feature point has moved may be used to calculate the amount of movement of the camera body 1 . A known method can be adopted for extracting feature points. One example is to apply a band-pass filter to an image obtained by extracting only the luminance information of two images to extract the edge, subtract the multiple edge images in a shifted state, and calculate the position where the difference is small. can be used to calculate the amount of movement. Although this method increases the amount of calculation, it is one of the preferred modes because hardware such as the angular velocity sensor 107 is not required, and the weight of the camera body 1 can be reduced.

以下は、角速度センサ107からジャイロ情報を取得する場合を例として説明を続ける。 In the following, the case where gyro information is acquired from the angular velocity sensor 107 will be described as an example.

ステップS4002では、ステップS4001で取得したジャイロ情報と過去に取得したジャイロ情報からカメラ本体1の移動速度(ジャイロ移動速度)を算出する。 In step S4002, the movement speed of the camera body 1 (gyro movement speed) is calculated from the gyro information acquired in step S4001 and the gyro information acquired in the past.

ステップS4003では、ステップS4002で算出されたジャイロ移動速度が減速しているかを判定する。移動速度が減速していない場合(ステップS4003でNO)はステップS4004へ、そうでない場合はステップS4006へ進む。 In step S4003, it is determined whether the gyro movement speed calculated in step S4002 is decelerating. If the moving speed has not decelerated (NO in step S4003), the process proceeds to step S4004; otherwise, the process proceeds to step S4006.

ステップS4004では、全体制御CPU101(第二のキャリブレーション手段・観察方向補正手段)は、ステップS304で決定された切り出し位置と過去に取得した切り出し位置から、切り出し位置の移動速度を算出する。次に全体制御CPU101は、算出された切り出し位置の移動速度から、ローパスフィルタをかけることで生じるタイムラグ分だけ前に取得したジャイロ移動速度を減算して得られた減算量を取得する。 In step S4004, the overall control CPU 101 (second calibration means/observation direction correction means) calculates the movement speed of the cutout position from the cutout position determined in step S304 and the cutout positions obtained in the past. Next, the overall control CPU 101 obtains a subtraction amount obtained by subtracting the gyro movement speed obtained earlier by the time lag caused by applying the low-pass filter from the calculated movement speed of the clipping position.

ステップS4005では、全体制御CPU101は、ステップS4004で取得した切り出し位置の移動速度及び減算量を一次メモリ103に記憶し、本サブルーチンを抜ける。 In step S4005, the overall control CPU 101 stores in the primary memory 103 the moving speed of the clipping position and the amount of subtraction obtained in step S4004, and exits this subroutine.

ステップS4006では、全体制御CPU101は、一次メモリ103に記憶されている減算量の合計を、同じく一次メモリ103に記憶されている各切り出し位置の過去一定期間の移動速度の変化が一定となるように割り振って期待値を算出し、本サブルーチンを抜ける。過去一定期間とは、実際に切り出し位置が移動し始めてから現在までの期間や、角速度センサ107がカメラ本体1の動きを検出してから現在までの期間でもよい。また処理を単純化するために0.5秒乃至3秒程度と決まった期間としてもよい。尚、上記過去一定期間より以前の期待値は、ステップS4004で取得した切り出し位置の移動速度に設定される。 In step S4006, the overall control CPU 101 calculates the sum of the subtraction amounts stored in the primary memory 103 so that the change in the movement speed of each clipping position also stored in the primary memory 103 in the past fixed period is constant. Allocate, calculate the expected value, and exit this subroutine. The fixed past period may be a period from when the cutout position actually started to move to the present, or a period from when the angular velocity sensor 107 detects the movement of the camera body 1 to the present. Also, in order to simplify the process, the period may be fixed at about 0.5 seconds to 3 seconds. Note that the expected value before the certain past period is set to the movement speed of the clipping position acquired in step S4004.

以下に示す表1は、図27(a)~(f)でグラフ化されたデータの変位(速度)を示す。すなわち、ステップS304で決定された切り出し位置の移動速度が、表1の(c)に示され、ステップS4002で算出されるジャイロ移動速度が、表1の(d)に示される。また、ステップS4006で算出される期待値が、表1の(e)に示される。 Table 1, shown below, shows the displacement (velocity) of the data graphed in FIGS. 27(a)-(f). That is, the moving speed of the cutting position determined in step S304 is shown in (c) of Table 1, and the gyro moving speed calculated in step S4002 is shown in (d) of Table 1. Also, the expected value calculated in step S4006 is shown in Table 1 (e).

Figure 2022140328000003
Figure 2022140328000003

図28(b)の切り出し範囲補正処理のサブルーチンは、表1に示すように、使用者が最初は正面で静止し徐々に右を見ていく場合を例にあげて説明する。 As shown in Table 1, the subroutine of the clipping range correction process in FIG.

最初、使用者は前(正面)を見ているため、ステップS4002で算出されたジャイロ移動速度はほぼ0°/秒となる。すなわちステップS4003ではジャイロ移動速度は減速していないと判断し、ステップS4004へと遷移する。この場合、顔の位置も変わらないため、切り出し位置の移動速度も0°/秒となる。また、ステップS4004で算出される減算量も0°/秒となる。 At first, the user is looking forward (front), so the gyro movement speed calculated in step S4002 is approximately 0°/sec. That is, in step S4003, it is determined that the gyro movement speed is not decelerated, and the process proceeds to step S4004. In this case, since the position of the face does not change, the moving speed of the clipping position is also 0°/sec. Also, the subtraction amount calculated in step S4004 is 0°/sec.

1秒くらいから、使用者は右を向き始めるが、ローパスフィルタによるタイムラグのため、図27(c)で示すように、切り出し位置の移動速度はまだ0°/秒となる。一方、図27(d)で示すように、カメラ本体1はまだ移動していない、すなわちジャイロ移動速度もほぼ0°/秒である。よって、まだ使用者が正面で静止している時と同様、ステップS4004で算出される減算量も0°/秒となる。 After about 1 second, the user starts to turn to the right, but due to the time lag caused by the low-pass filter, the movement speed of the cutout position is still 0°/second, as shown in FIG. 27(c). On the other hand, as shown in FIG. 27(d), the camera body 1 has not yet moved, that is, the gyro movement speed is also approximately 0°/sec. Therefore, the amount of subtraction calculated in step S4004 is also 0°/sec, like when the user is still standing still in front.

使用者がさらに右を向き、2秒くらいになると、図27(c)で示すように、切り出し位置の移動速度は10°/秒となる。一方、図27(d)で示すように、カメラ本体1はまだ移動していない、すなわちジャイロ移動速度はまだほぼ0°/秒である。よって、ステップS4004で算出される減算量は10°/秒となる。 When the user turns to the right further and after about 2 seconds, as shown in FIG. On the other hand, as shown in FIG. 27(d), the camera body 1 has not yet moved, that is, the gyro movement speed is still approximately 0°/sec. Therefore, the subtraction amount calculated in step S4004 is 10°/sec.

使用者がさらに右を向き、4秒くらいになると、使用者の体も右を向き始める。すなわち、図27(d)で示すように、カメラ本体1の向きが変わるためジャイロ移動速度は10°/秒となる。体が回転し始めた分、図27(b)で示すように、実際の顔の角速度は、カメラ本体1と顔方向の相対速度分だけ減速するが、ローパスフィルタによるタイムラグのため、図27(c)で示す切り出し位置の移動速度はこの時点ではまだ10°/秒である。従って、このタイムラグを考慮し、ステップS4004で算出される減算量は、10°/秒となる。 The user turns to the right further, and after about 4 seconds, the user's body also begins to turn to the right. That is, as shown in FIG. 27(d), the orientation of the camera body 1 changes, so the gyro movement speed is 10°/sec. As the body begins to rotate, the actual angular velocity of the face decelerates by the relative velocity between the camera body 1 and the direction of the face, as shown in FIG. 27(b). The movement speed of the cutout position shown in c) is still 10°/sec at this time. Therefore, considering this time lag, the subtraction amount calculated in step S4004 is 10°/sec.

使用者がさらに右を向き、5秒くらいからは、ジャイロ移動速度は引き続き10°/秒(図27(d))であるが、図27(c)で示す切り出し位置の移動速度は、減速して0°/秒となる。従って、ステップS4004で算出される減算量は、-10°/秒となる。 After about 5 seconds when the user turns further to the right, the gyro movement speed continues to be 10°/sec (Fig. 27(d)), but the movement speed of the cutting position shown in Fig. 27(c) slows down. 0°/sec. Therefore, the subtraction amount calculated in step S4004 is -10°/sec.

図27においては不図示であるが、使用者が6秒くらいで右を向く動作を終了すると、ジャイロ移動速度が0°/秒となり、この場合に初めてステップS4006に進む。この場合、これまで算出され、一次メモリ103に記憶された減算量の合計は+10°/秒となる。この減算量の合計を、一次メモリ103に記憶されている各切り出し位置の過去一定期間の移動速度の変化が一定となるように割り振って期待値を算出する。ここでは、図27(c)で示す切り出し位置の移動速度は、加速し始めてから現在までの期間(2~6秒)までに、表1に示すように、10°/秒、10°/秒、10°/秒、0°/秒である。よって、この期間中の各切り出し位置の移動速度の変化を一定(ここでは変化なし)とすべく、2~6秒の期間の期待値はすべて10°/秒に設定される。 Although not shown in FIG. 27, when the user finishes turning to the right in about 6 seconds, the gyro movement speed becomes 0°/second, and in this case the process proceeds to step S4006. In this case, the sum of the subtraction amounts calculated so far and stored in the primary memory 103 is +10°/sec. The expected value is calculated by allocating the sum of this subtraction amount so that the change in the movement speed of each clipping position stored in the primary memory 103 in the past fixed period is constant. Here, the movement speed of the cutting position shown in FIG. , 10°/sec and 0°/sec. Therefore, all the expected values for the period of 2 to 6 seconds are set to 10°/second in order to keep the change in the moving speed of each cutout position constant (here, no change) during this period.

本実施例では、説明を簡略化するために1秒おきで説明を行ったが、通常、動画撮像のフレームレートは24~60fpsである。一方、顔方向検出やジャイロの検出は1秒間に60回も行う必要もないことが多いため、顔方向検出処理や切り出し範囲補正処理を行うタイミングは、撮像のタイミングと変えることも好ましい。例えば撮像は60fpsで行うが、顔方向検出処理や切り出し範囲補正処理を行うタイミングは10fpsで行っても問題なく、その用途や消費電力などを考慮し、適宜変更可能である。 In the present embodiment, for the sake of simplification of explanation, the explanation is given every second, but usually the frame rate of moving image pickup is 24 to 60 fps. On the other hand, face orientation detection and gyro detection often do not need to be performed 60 times per second, so it is preferable to change the timing of face orientation detection processing and clipping range correction processing from the timing of imaging. For example, imaging is performed at 60 fps, but the timing of performing face direction detection processing and clipping range correction processing may be performed at 10 fps without any problem, and can be changed as appropriate in consideration of usage, power consumption, and the like.

以上説明してきたように本実施例では、大きく観察方向が動いたときに顔の動きと体(カメラ本体)の動きが組み合わさる時点で、動画としての視野移動速度が変わり見栄えの悪い動画とならないよう、観察方向の移動速度を一定にすることが可能な例を示した。 As described above, in this embodiment, when the observation direction is greatly moved, the moving speed of the field of view as a moving image changes at the point when the movement of the face and the movement of the body (camera body) are combined. Thus, an example is shown in which the moving speed in the observation direction can be made constant.

尚、本実施例では、超広角画像を観察方向に応じてクロップする例を示したがこれに限定されない。例えば、全体制御CPU101(撮像方向変更手段)が、撮影部40の撮像方向を観察方向に応じて変更するようにしてもよい。但しこの場合、撮影部40の撮像方向、具体的には撮像レンズ16及び固体撮像素子42の向きをヨー方向、ピッチ方向に不図示の方法で機械的に駆動させる機構(駆動手段)をカメラ本体1に設ける必要がある。 In this embodiment, an example of cropping an ultra-wide-angle image according to the viewing direction has been described, but the present invention is not limited to this. For example, the overall control CPU 101 (imaging direction changing means) may change the imaging direction of the imaging section 40 according to the observation direction. However, in this case, a mechanism (driving means) for mechanically driving the imaging direction of the imaging unit 40, specifically, the orientations of the imaging lens 16 and the solid-state imaging device 42 in the yaw direction and the pitch direction by a method not shown is provided on the camera body. must be set to 1.

また本実施例では、顔方向検出結果の平滑化を例に示したが、全体制御CPU101(防振手段)が実施例1で説明した防振制御を行う場合も、顔方向への追従が遅延するため同様の処理をすることが好ましい。 In this embodiment, smoothing of the face direction detection result is shown as an example, but when the general control CPU 101 (anti-vibration means) performs the anti-vibration control described in the first embodiment, tracking in the face direction is delayed. Therefore, it is preferable to perform similar processing.

(実施例5)
実施例5では、使用者の目の位置と撮影・検出部10の装着位置との位置差による視差を原因とする、使用者の視界と二次記録された映像(以下「記録映像」という)の差異を低減する方法について図29~34を用いて説明する。
(Example 5)
In the fifth embodiment, the visual field of the user and the secondary recorded video (hereinafter referred to as "recorded video") are caused by the parallax due to the positional difference between the position of the user's eyes and the mounting position of the photographing/detecting unit 10. A method for reducing the difference in is described with reference to FIGS.

基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例5のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the fifth embodiment, the same reference numerals are used for the configurations that are the same as those of the camera system of the first embodiment, and redundant explanations are omitted, and details of different configurations are added each time. to explain.

まず、理解を助けるために、実施例1で発生する使用者の視界と記録映像の差異について説明する。 First, in order to facilitate understanding, the difference between the user's field of view and the recorded image that occurs in the first embodiment will be described.

図29は、実施例1における、近距離の被写体を観察対象5020とした場合の使用者5010の視界と狙い視野の関係を説明するための模式図である。 FIG. 29 is a schematic diagram for explaining the relationship between the field of view of the user 5010 and the target field of view when the object 5020 at a short distance is the object of observation in the first embodiment.

図29(a)は、固体撮像素子42に映った観察対象5020を含む映像5900を示す模式図であり、図29(b)は、使用者5010と観察対象5020との位置関係を示す模式図である。 FIG. 29(a) is a schematic diagram showing an image 5900 including an observation target 5020 reflected on the solid-state imaging device 42, and FIG. 29(b) is a schematic diagram showing the positional relationship between the user 5010 and the observation target 5020. is.

図29(b)に示すように、観察対象5020は、使用者の目5011の高さより下にある場合、使用者5010の顔方向5015は下を向く。この時使用者5010の視界には不図示の床などを背景とした観察対象5020が映っている。 As shown in FIG. 29B, when the observation target 5020 is below the height of the user's eyes 5011, the face direction 5015 of the user 5010 faces downward. At this time, an observation target 5020 against a background such as a floor (not shown) appears in the field of view of the user 5010 .

実施例1の場合、顔方向検出部20によって検出された使用者の顔方向5015と平行な観察方向5040(図29(b))が記録方向として設定される。このため、図29(b)に示すように近距離の被写体が観察対象5020である場合、観察対象5020を含まない領域が狙い視野5045に設定されてしまうという問題が生じる。 In the case of the first embodiment, an observation direction 5040 (FIG. 29B) parallel to the user's face direction 5015 detected by the face direction detection unit 20 is set as the recording direction. Therefore, as shown in FIG. 29B, when the subject at a short distance is the observation target 5020, there arises a problem that an area not including the observation target 5020 is set as the target visual field 5045. FIG.

このような場合、使用者5010の視界に映る背景(不図示の床など)と撮像・検出ユニット10が捉える背景(不図示の天井など)が異なったとしても、記録方向は、観察方向5040ではなく、観察対象5020を含む領域5035が狙い視野となる方向5030に設定するべきである。 In such a case, even if the background reflected in the field of view of the user 5010 (floor, not shown) is different from the background captured by the imaging/detection unit 10 (ceiling, not shown), the recording direction is the observation direction 5040. Instead, an area 5035 including an observation target 5020 should be set in a direction 5030 that is the target field of view.

上記問題は、使用者5010の目5011の位置と撮影・検出部10の装着位置との位置差による視差が原因である。従って、本実施例では、使用者5010の顔方向に基づき設定される記録方向を視差に応じて適切に調整する視差補正モード処理を実行する。 The above problem is caused by parallax due to the positional difference between the position of the eye 5011 of the user 5010 and the mounting position of the photographing/detecting unit 10 . Therefore, in this embodiment, parallax correction mode processing is executed to appropriately adjust the recording direction set based on the face direction of the user 5010 according to the parallax.

図31は、本実施例に係るカメラ本体1のハードウェア構成を示すブロック図である。 FIG. 31 is a block diagram showing the hardware configuration of the camera body 1 according to this embodiment.

本実施例に係るカメラ本体1のハードウェア構成は、図5に示す実施例1のカメラ本体1とは測距センサ5100がある点でのみ異なる。尚、カメラ本体1における測距センサ5100の配置位置については特に限定されないが、本実施例では、図30に示すように、ストップスイッチ15の外縁部に測距センサ5100は設けられる。 The hardware configuration of the camera body 1 according to this embodiment differs from that of the camera body 1 according to Embodiment 1 shown in FIG. Although the arrangement position of the distance measuring sensor 5100 in the camera body 1 is not particularly limited, in this embodiment, the distance measuring sensor 5100 is provided on the outer edge of the stop switch 15 as shown in FIG.

測距センサ5100は、物体との距離を測定するセンサである。尚、測距センサ5100の構成は特に限定されない。この例では、測距センサ5100は、赤外線、レーザー、ミリ波などを物体に投射し、その反射によって物体との距離を測定するアクティブタイプのセンサである。また、測距センサは、撮像レンズ16を透過した光線の位相差を元に物体との距離を測定するパッシブタイプのセンサでも良い。 Distance sensor 5100 is a sensor that measures the distance to an object. Note that the configuration of the ranging sensor 5100 is not particularly limited. In this example, the ranging sensor 5100 is an active type sensor that projects infrared rays, lasers, millimeter waves, or the like onto an object and measures the distance to the object from the reflection. Also, the distance measuring sensor may be a passive type sensor that measures the distance to an object based on the phase difference of the light rays that have passed through the imaging lens 16 .

測距センサ5100は、全体制御CPU101に接続され、全体制御CPU101によって制御される。 The distance measurement sensor 5100 is connected to the overall control CPU 101 and controlled by the overall control CPU 101 .

図32は、本実施例における視差補正モード処理を含むキャリブレーション時の使用者とキャリブレータ850と狙い視野5080の関係の模式図である。 FIG. 32 is a schematic diagram of the relationship between the user, the calibrator 850, and the target visual field 5080 at the time of calibration including parallax correction mode processing in this embodiment.

図32(a)は、固体撮像素子42に映ったキャリブレータ850を含む映像5900を示す模式図であり、図32(b)は、使用者5010とキャリブレータ850との位置関係を示す模式図である。 FIG. 32(a) is a schematic diagram showing an image 5900 including the calibrator 850 projected on the solid-state imaging device 42, and FIG. 32(b) is a schematic diagram showing the positional relationship between the user 5010 and the calibrator 850. .

図32(a)における狙い視野5080は、後述の視差補正処理を含むキャリブレーションが未実施であって、且つ顔方向検出部20によって検出された顔方向5015が正面を向く場合の狙い視野である。 A target field of view 5080 in FIG. 32A is a target field of view when calibration including parallax correction processing described later has not been performed and the face direction 5015 detected by the face direction detection unit 20 faces the front. .

一方、図32(a)における狙い視野5090は、後述の視差補正処理を含むキャリブレーションを実施済みであって、且つ前記顔方向検出部20によって検出された顔方向5015が正面を向く場合の狙い視野である。 On the other hand, the target field of view 5090 in FIG. 32( a ) is the target when calibration including parallax correction processing described later has been performed and the face direction 5015 detected by the face direction detection unit 20 faces the front. field of view.

図33Aは、本実施例に係る図7AのステップS100の準備処理の一部である視差補正モード処理のフローチャートである。以下、図32(a),(b)も用いて、本処理の詳細を説明する。 FIG. 33A is a flowchart of parallax correction mode processing that is part of the preparation processing in step S100 of FIG. 7A according to this embodiment. Details of this process will be described below with reference to FIGS.

本処理に係る図7AのステップS100の準備動作処理において、キャリブレータ850への使用者5010の操作によって視差補正モードが起動すると(ステップS5101)、表示装置制御部801が位置決め指標851を表示する(ステップS5102)。 In the preparatory operation process of step S100 in FIG. 7A related to this process, when the parallax correction mode is activated by the user 5010 operating the calibrator 850 (step S5101), the display device control unit 801 displays the positioning index 851 (step S5102).

続いて表示装置制御部801が、使用者に対してキャリブレータ850をかざすべき位置(指定位置)を指示する。具体的には、表示装置制御部801が、図22Aと同様の指示表示855を行うことで、位置決め指標851を目線の高さで正面にかざすように使用者5010に対して指示する(ステップS5103)。 Subsequently, the display device control unit 801 instructs the user on the position (specified position) where the calibrator 850 should be held. Specifically, the display device control unit 801 instructs the user 5010 to hold the positioning indicator 851 in front of him at eye level by displaying an instruction display 855 similar to that in FIG. 22A (step S5103). ).

使用者5010は、指示表示855が行われると、ステップS5103で指示された指定位置にキャリブレータ850をかざし、且つ顔方向5015を位置決め指標851の方向(正面)に向ける。このとき、使用者5010、位置決め指標851、撮影・検出部10が、図32(b)のような位置関係になる。 When the instruction display 855 is performed, the user 5010 holds the calibrator 850 over the specified position instructed in step S5103 and directs the face direction 5015 toward the positioning index 851 (front). At this time, the user 5010, the positioning index 851, and the photographing/detecting section 10 are in a positional relationship as shown in FIG. 32(b).

その後、表示装置制御部801は、使用者が位置決め指標中心852を視野中心で見たと判定すると、撮影・検出部10と位置決め指標851との距離5050(図32(b))を測距センサ5100によって測定する(ステップS5104)。 After that, when the display device control unit 801 determines that the user has viewed the positioning index center 852 in the center of the field of view, the distance 5050 (FIG. 32(b)) between the photographing/detecting unit 10 and the positioning index 851 is (step S5104).

つづいて、全体制御CPU101は、角速度センサ107(姿勢検出手段)によって撮影・検出部10の水平軸5060を検出する(ステップS5105)。これにより、固体撮像素子42に映った映像5900(図32(a))の水平位置5065が特定される。 Subsequently, the overall control CPU 101 detects the horizontal axis 5060 of the photographing/detecting unit 10 by the angular velocity sensor 107 (attitude detecting means) (step S5105). Thereby, the horizontal position 5065 of the image 5900 (FIG. 32(a)) projected on the solid-state imaging device 42 is specified.

また、ステップS5105では、全体制御CPU101は、映像5900上での位置決め指標851の中心と水平位置5065との距離5855(図32(a))を取得する。その後、全体制御CPU101(角度算出手段)は、水平軸5060と、撮影・検出部10からみた位置決め指標851の方向とのなす角度5055(図32(b))を算出する。この角度5055は、距離5855、及び映像5900上のあるポイントとそのポイントに結像した光の入射角度の関係についての情報を用いて算出される。この情報はメモリ(例えば内蔵不揮発性メモリ102)に保存されている。 Also, in step S5105, the overall control CPU 101 acquires the distance 5855 between the center of the positioning index 851 on the image 5900 and the horizontal position 5065 (FIG. 32(a)). After that, the overall control CPU 101 (angle calculating means) calculates an angle 5055 (FIG. 32(b)) formed between the horizontal axis 5060 and the direction of the positioning index 851 viewed from the imaging/detecting section 10. FIG. This angle 5055 is calculated using the distance 5855 and information about the relationship between a point on the image 5900 and the angle of incidence of the light imaged at that point. This information is stored in memory (eg, internal non-volatile memory 102).

その後、全体制御CPU101(垂直距離算出手段)は、距離5050とステップS5105で算出された角度5055を用いて、撮影・検出部10と使用者5010の目5011の垂直距離5070を算出し(ステップS5106)、本サブルーチンを抜ける。 After that, the overall control CPU 101 (vertical distance calculation means) calculates a vertical distance 5070 between the photographing/detecting unit 10 and the eye 5011 of the user 5010 using the distance 5050 and the angle 5055 calculated in step S5105 (step S5106). ), exiting this subroutine.

ここでは、実施例2とは異なる方法で撮影・検出部10と使用者5010の目5011との垂直距離5070を測定する方法を説明したが、これに限定されない。例えば、実施例2で説明した方法で撮影・検出部10と使用者5010の目5011との垂直距離5070を測定しても良いし、使用者5010に直接、垂直距離5070の値を入力させても良い。 Here, a method of measuring the vertical distance 5070 between the photographing/detecting unit 10 and the eye 5011 of the user 5010 by a method different from that of the second embodiment has been described, but the present invention is not limited to this. For example, the vertical distance 5070 between the photographing/detecting unit 10 and the eye 5011 of the user 5010 may be measured by the method described in the second embodiment, or the user 5010 may directly input the value of the vertical distance 5070. Also good.

本実施例における視差補正モード処理を含むキャリブレーション処理は、実施例2において実行される図21のステップS3101~S3111の処理と基本的に同じであるため説明を省略する。 The calibration processing including the parallax correction mode processing in this embodiment is basically the same as the processing in steps S3101 to S3111 of FIG.

但し、ステップS3110では実施例2で説明した処理に加え、図33Aの視差補正モード処理で算出された垂直距離5070(図32(b))に基づく視差補正を行う。すなわち、無限遠において使用者5010の視界と狙い視野125が一致するようなキャリブレーションを実施する。 However, in step S3110, in addition to the processing described in the second embodiment, parallax correction is performed based on the vertical distance 5070 (FIG. 32(b)) calculated by the parallax correction mode processing of FIG. 33A. That is, calibration is performed so that the field of view of the user 5010 and the target field of view 125 match at infinity.

図33Bは、本実施例に係る図7Aで説明したS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。本処理を、以下、図34も参照して説明する。尚、図33Bにおいて図7Dと重複するステップについては同一の符号を付し、重複した説明は省略する。 FIG. 33B is a flowchart of a subroutine of the recording direction/range determination processing of S300 described in FIG. 7A according to this embodiment. This process will be described below with reference to FIG. 34 as well. In addition, in FIG. 33B, the same reference numerals are given to the steps that overlap with those in FIG. 7D, and overlapping explanations will be omitted.

図33Bにおいて、まず、全体制御CPU101は、測距センサ5100(測距手段)によって撮影可能範囲(撮像領域)の距離情報を取得する(ステップS5301)。 In FIG. 33B, first, the overall control CPU 101 acquires distance information of the photographable range (imaging area) by the distance measuring sensor 5100 (distance measuring means) (step S5301).

次に全体制御CPU101(作成手段)は、ステップS5301で得た距離情報(測距センサ5100による測定結果)を基にデフォーカスマップ5950(図34(a);距離マップ情報)を作成する(ステップS5302)。 Next, the overall control CPU 101 (creating means) creates a defocus map 5950 (Fig. 34(a); distance map information) based on the distance information (measurement result by the distance measuring sensor 5100) obtained in step S5301 (step S5302).

図34(a)のデフォーカスマップ5950は、図34(c)に示す、室内に観察対象5020が浮かんでいる状況を撮像した場合に作成されたデフォーカスマップを表している。ここでは、デフォーカスマップ5950中の距離情報をわかりやすく示すために撮影・検出部10からの距離の近い側から6つの距離エリア(1)~(6)に段階分けして表現している。しかしながら、実際には無段階でデフォーカスマップを作っても良い。 A defocus map 5950 in FIG. 34( a ) represents a defocus map created when capturing a situation in which an observation target 5020 is floating in a room as shown in FIG. 34( c ). Here, in order to clearly show the distance information in the defocus map 5950, it is divided into six distance areas (1) to (6) from the shortest distance from the photographing/detecting unit 10 and expressed. However, in practice, the defocus map may be created steplessly.

続いて、全体制御CPU101は、デフォーカスマップ5950、顔方向5015、及び垂直距離5070(図32(b))から、撮影・検出部10から見た観察対象5020の方向を算出する(ステップS5303)。すなわち、顔方向に基づき設定された観察方向に対して視差補正がなされる。 Subsequently, the overall control CPU 101 calculates the direction of the observation target 5020 viewed from the photographing/detecting unit 10 from the defocus map 5950, the face direction 5015, and the vertical distance 5070 (FIG. 32(b)) (step S5303). . That is, parallax correction is performed with respect to the observation direction set based on the face direction.

その後、図7DのステップS301~S305の処理を行い、本サブルーチンを抜ける。 After that, the process of steps S301 to S305 in FIG. 7D is performed, and this subroutine is exited.

このように作成されたデフォーカスマップ5950と顔方向5015の検出結果を用いることで、撮影・検出部10から見た観察対象5020の方向を算出することが可能となる。尚、図29を用いて説明した視差があるため、デフォーカスマップ5950の作成なしに測距センサ5100で観察対象5020との距離だけを測定することはできない。 By using the defocus map 5950 created in this way and the detection result of the face direction 5015, it is possible to calculate the direction of the observation target 5020 as viewed from the photographing/detecting unit 10. FIG. It should be noted that, due to the parallax described with reference to FIG. 29 , it is not possible to measure only the distance to the observation target 5020 with the distance measuring sensor 5100 without creating the defocus map 5950 .

本実施例で説明した視差の影響の度合いは、使用者5010と観察対象の距離によって異なる。すなわち、使用者5010との距離がある程度離れた観察対象においては、視差の影響は無視できるため、実施例1での記録方向・範囲決定処理においても観察対象を含む狙い視野で映像を切り取って記録することが可能となる。例えば、使用者5010が使用者5010とある程度以上離れた中距離エリア(5)に位置する観察対象5021(図34(c))を観察した場合、ステップS5303で記録方向の視差補正を実施しなくても良い。それは顔方向検出部20によって検出される顔方向5016に基づき類推される記録方向5041(観察方向)に応じて設定される狙い視野5043(図34(b))には、観察対象5021も含まれるからである。 The degree of influence of parallax described in this embodiment varies depending on the distance between the user 5010 and the observation target. That is, since the effect of parallax can be ignored for an observation target that is some distance away from the user 5010, even in the recording direction/range determination processing in the first embodiment, the video is clipped and recorded in the target field of view including the observation target. It becomes possible to For example, when the user 5010 observes the observation target 5021 (FIG. 34(c)) located in the medium distance area (5) which is at least a certain distance from the user 5010, parallax correction in the recording direction is not performed in step S5303. can be The target visual field 5043 (FIG. 34(b)) set according to the recording direction 5041 (observation direction) inferred based on the face direction 5016 detected by the face direction detection unit 20 also includes the observation target 5021. It is from.

一方、本実施例によれば、使用者5010の観察対象を狙い視野内に収めることが可能な使用者と観察対象との距離範囲を、実施例1より至近側まで拡大することが可能となる。例えば、使用者5010からの距離が近い至近距離エリア(1)に位置する観察対象5020(図34(a))を使用者5010が観察しているとする。この場合、実施例1では、顔方向検出部20によって検出される顔方向5015に基づいて観察方向5040(記録方向)が類推される。この観察方向5040に応じて設定される狙い視野5042(図34(b))には、観察対象5020が含まれない。しかし、本実施例では、図33BのステップS5303で観察方向5040に対する視差補正がなされ、この視差補正後の記録方向に応じて観察対象5020を含む狙い視野5036が設定される。このため、観察対象5020のように、視差の影響を無視できない程度に使用者5010との距離が至近距離である観察対象を良好に撮像できるようになる。 On the other hand, according to the present embodiment, the distance range between the user 5010 and the observation target in which the observation target of the user 5010 can be included in the target visual field can be expanded to the near side compared to the first embodiment. . For example, assume that the user 5010 is observing an observation target 5020 (FIG. 34(a)) located in the close range area (1), which is close to the user 5010. FIG. In this case, in the first embodiment, the observation direction 5040 (recording direction) is analogized based on the face direction 5015 detected by the face direction detection unit 20 . The target field of view 5042 (FIG. 34(b)) set according to this observation direction 5040 does not include the observation target 5020 . However, in this embodiment, parallax correction is performed with respect to the observation direction 5040 in step S5303 of FIG. 33B, and a target visual field 5036 including the observation target 5020 is set according to the recording direction after this parallax correction. Therefore, an observation target, such as the observation target 5020, which is so close to the user 5010 that the influence of parallax cannot be ignored can be captured satisfactorily.

また、本実施例によれば、中距離エリア(5)に位置する観察対象を狙い視野のより中心に記録することが可能となる。例えば、使用者5010が中距離エリア(5)に位置する観察対象5021(図34(a))を観察している際に、実施例1のように記録方向5041の視差補正を実施しないと、観察対象5021が上端に位置する狙い視野5043が設定される。一方、本実施例では、図33BのステップS5303で記録方向5041に対する視差補正がなされ、この視差補正後の記録方向に応じて、観察対象5021が中心に位置する記録領域5037が生成される。 Further, according to this embodiment, it is possible to record the observation object located in the middle distance area (5) in the center of the target field of view. For example, when the user 5010 is observing the observation target 5021 (FIG. 34A) located in the middle distance area (5), if the parallax correction in the recording direction 5041 is not performed as in the first embodiment, A target visual field 5043 is set in which the observation target 5021 is positioned at the upper end. On the other hand, in this embodiment, parallax correction is performed with respect to the recording direction 5041 in step S5303 of FIG. 33B, and a recording area 5037 in which the observation target 5021 is positioned at the center is generated according to the recording direction after this parallax correction.

このように本実施例の視差補正を実施した方が、実施例1と比べてより切り取られた映像の中心に観察対象をとらえることが可能となる。 By performing the parallax correction of the present embodiment in this way, it is possible to capture the observation target at the center of the clipped image more than in the first embodiment.

本実施例では、キャリブレーションにおいても視差補正を実施し、無限遠で使用者の視界と記録領域が一致するようにした後、撮像時に使用者と観測対象との距離が近い程補正前後での記録方向のずれが大きくなる視差補正を実施した。しかし、有限の位置、例えば、実施例2のキャリブレーション処理における使用者に対するキャリブレータ850の位置より遠距離の被写体や近距離の被写体について本実施例の視差補正を実施するようにしても良い。 In this embodiment, parallax correction is also performed during calibration, and after making the user's field of view and the recording area match at infinity, the closer the distance between the user and the observation target at the time of imaging, the more before and after correction. Parallax correction was performed to increase the deviation in the recording direction. However, the parallax correction of this embodiment may be performed for a finite position, for example, a subject at a far distance or a short distance from the position of the calibrator 850 with respect to the user in the calibration processing of the second embodiment.

(実施例6)
実施例6では、観察方向の算出に失敗した場合における切り出し範囲の決定方法について図35、図36A、及び図36Bを用いて説明する。
(Example 6)
In Example 6, a method for determining a cutout range when calculation of the viewing direction fails will be described with reference to FIGS. 35, 36A, and 36B.

基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例6のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of Example 6, the same reference numerals are used for the same configurations as those of the camera system of Example 1, and overlapping descriptions are omitted, and details of different configurations are added each time. to explain.

実施例1では、図7Aに示す様に、ステップS200で顔方向検出部20において検出された顔方向から算出される観察方向に基づき、ステップS300で記録方向・範囲決定処理で狙い視野を設定している。しかし、顔方向検出部20が襟や髪などの障害物によっておおわれてしまったり、顔方向検出部20が故障したり、顔方向検出部20が使用者から離れてしまったりする場合がある。このような場合、使用者の顔方向を取得できなくなり、使用者が撮像したかった狙い視野の映像を撮像できなくなってしまう。 In the first embodiment, as shown in FIG. 7A, the target visual field is set in the recording direction/range determination process in step S300 based on the observation direction calculated from the face direction detected by the face direction detection unit 20 in step S200. ing. However, there are cases where the face direction detection section 20 is covered by an obstacle such as a collar or hair, the face direction detection section 20 breaks down, or the face direction detection section 20 moves away from the user. In such a case, the face direction of the user cannot be acquired, and the image of the target field of view that the user wants to capture cannot be captured.

特許文献1では、使用者を撮像する第2のカメラが使用者を検出できなかった場合、それまでの使用者の観察情報などの履歴に使用者を検出できなかったことは保存せず、再度使用者の検出が行われる。また、顔方向に追従して撮像をする場合、顔方向の検知に失敗した場合には状況に応じて撮像方向を決定することで、使用者の意図から大きく外れない映像を撮像する。 In Patent Document 1, when a second camera that captures an image of a user fails to detect the user, the fact that the user has not been detected is not stored in the history of the user's observation information up to that point, and the user is not detected again. User detection is performed. In addition, when capturing an image following the direction of the face, if the detection of the direction of the face fails, the image capturing direction is determined according to the situation, thereby capturing an image that does not greatly deviate from the user's intention.

これに対して本実施例では、使用者の顔方向が検出可能な状態であれば、実施例1と同様、顔方向検出部20で顔方向を検出し、これに基づき算出された観察方向に基づく記録方向の狙い視野の映像を撮像する。一方、使用者の顔方向が検出できない状態であり、使用者の観察方向の算出ができない場合には、使用者の意図をくみ取った狙い視野の映像を撮像する。すなわち、本実施例では、ステップS200で顔方向検出処理が終了すると、ステップS300で記録方向・範囲決定処理を実行する前に、観察方向決定処理を実行する。この処理では、顔方向検出部20が使用者の顔方向の検出に失敗した場合、状況に応じて使用者の意図を判定して、観察方向を推定する。すなわち、顔方向から算出される観察方向以外の情報に基づく記録方向の狙い視野の映像を撮像する。 On the other hand, in the present embodiment, if the user's face direction can be detected, the face direction detection unit 20 detects the face direction as in the first embodiment, and the observation direction calculated based on this is detected. The image of the target field of view in the recording direction based on is captured. On the other hand, when the user's face direction cannot be detected and the user's viewing direction cannot be calculated, an image of a target field of view that captures the user's intention is picked up. That is, in this embodiment, after the face direction detection process ends in step S200, the viewing direction determination process is executed before the recording direction/range determination process is executed in step S300. In this process, when the face direction detection unit 20 fails to detect the user's face direction, the user's intention is determined according to the situation, and the viewing direction is estimated. That is, the image of the target field of view in the recording direction is captured based on information other than the observation direction calculated from the face direction.

図35は、全体制御CPU101により実行される、本実施例に係る観察方向決定処理のフローチャートである。以下本処理を図36A、図36Bを用いて説明する。 FIG. 35 is a flow chart of viewing direction determination processing according to this embodiment, which is executed by the overall control CPU 101 . This processing will be described below with reference to FIGS. 36A and 36B.

まずステップS6001で、顔方向検出部20において顔方向の取得ができたかどうか判断する。顔方向が取得できた場合はステップS6004に進み、全体制御CPU101(モード移行手段)は、本処理のモードを顔方向モード(第1の撮像モード)に切り替え、実施例1に示す方法で顔方向から算出された観察方向を記録方向に決定する。その後、本サブルーチンを抜ける。 First, in step S6001, it is determined whether or not the face direction detection unit 20 has acquired the face direction. If the face direction has been acquired, the process advances to step S6004, and the overall control CPU 101 (mode switching means) switches the mode of this processing to the face direction mode (first imaging mode), and determines the face direction by the method described in the first embodiment. is determined as the recording direction. After that, exit from this subroutine.

一方、顔方向を取得できなかった場合(ステップS6001でNO)、全体制御CPU101(モード移行手段)は、他のモードに移行すべくステップS6002に進み、過去に追尾していた被写体があるか否かを判定する。 On the other hand, if the face direction could not be acquired (NO in step S6001), the overall control CPU 101 (mode transition means) advances to step S6002 to transition to another mode, and determines whether there is an object tracked in the past. determine whether

ここで、フレーム毎の使用者の観察方向検出状態と、撮影映像の関係を示す図36Aを用いて、ステップS6002の判定処理を説明する。 Here, the determination processing in step S6002 will be described with reference to FIG. 36A showing the relationship between the observation direction detection state of the user for each frame and the captured image.

図36Aにおいて、nは映像のコマ番号、θは使用者の顔の水平方向の移動角度、ユーザ状態は各コマにおける使用者と観察対象の位置関係を示す。また、全体映像は、各コマにおいて撮影部40が撮像した超広角映像を示し、撮影映像は各コマにおいて二次記録された画像を示し、全体映像の破線のエリアに相当する。 In FIG. 36A, n is the frame number of the image, θ is the horizontal movement angle of the user's face, and the user state is the positional relationship between the user and the observation target in each frame. Also, the overall image indicates a super-wide-angle image captured by the imaging unit 40 in each frame, and the captured image indicates an image secondary-recorded in each frame, and corresponds to the area indicated by the dashed line in the overall image.

図36Aでは、ユーザ状態の各画面に示すように、使用者は、画面下位置にある「□」で示す物体を観察対象として観察しており、n=5つまり5コマ目で使用者の観察方向を検知できなかった場合を例示している。 In FIG. 36A, as shown in each user state screen, the user is observing an object indicated by "□" at the bottom of the screen as an observation target, and n=5, that is, the user's observation in the fifth frame. A case where the direction could not be detected is exemplified.

本実施例では現在のフレームを基準としてそれよりも過去の4フレーム分を所定期間とする。この所定期間の間に3回以上同一と判定できる被写体が撮影映像内に含まれていた場合、過去に追尾していた被写体があると判断する。 In this embodiment, the current frame is used as a reference, and the past four frames are set as the predetermined period. If an object that can be determined to be the same three or more times during this predetermined period is included in the captured image, it is determined that there is an object that has been tracked in the past.

図36Aで示す通り、n=1~4において、移動角度θは+10°づつ変化しているのにかかわらず、同一被写体とは判定できる四角形「□」で示す物体が撮影映像内に含まれている。そのため、n=5では、過去に追尾していた被写体があると判定する。 As shown in FIG. 36A, when n=1 to 4, although the movement angle θ changes by +10°, the captured image does not include objects indicated by squares that can be determined to be the same subject. there is Therefore, when n=5, it is determined that there is an object that has been tracked in the past.

尚、ステップS6002の判定基準は、顔方向の検出周期や顔方向検出部20の精度にあわせて変更してよい。 Note that the determination criteria in step S<b>6002 may be changed according to the face direction detection period and the accuracy of the face direction detection unit 20 .

図35に戻り、過去の所定時間内に追尾していた被写体(同一被写体))があると判定された場合(ステップS6002でYES)、ステップS6005に進む。 Returning to FIG. 35, if it is determined that there is an object (the same object) that has been tracked within the past predetermined time (YES in step S6002), the process proceeds to step S6005.

ステップS6005では、本処理のモードを、事前被写体方向を記録方向とする事前被写体追尾モード(第2の撮像モード)に切り替え、被写体を追尾するように記録方向を決定した後にステップS6008に進む。このように、本実施例では、顔方向を検知できなくなっても、過去に追尾していた被写体がある場合、事前被写体追尾モードに移行して記録方向を決定するため、直前の使用者の意図を映像に反映することができる。尚、全体制御CPU101(被写体認識手段)による撮影映像内の被写体の認識手法や被写体追尾検知手法については公知であるため、詳細な説明は省略する。 In step S6005, the mode of this processing is switched to a pre-subject tracking mode (second imaging mode) in which the pre-subject direction is the recording direction, and after determining the recording direction so as to track the subject, the process advances to step S6008. As described above, in this embodiment, even if the face direction cannot be detected, if there is a subject that has been tracked in the past, the recording direction is determined by shifting to the pre-subject tracking mode. can be reflected in the video. Since the method of recognizing the subject in the captured image and the method of subject tracking detection by the overall control CPU 101 (subject recognition means) are well known, detailed description thereof will be omitted.

一方、過去に追尾していた被写体がないと判定された場合(ステップS6002でNO)、ステップS6003に進む。 On the other hand, if it is determined that there is no previously tracked subject (NO in step S6002), the process advances to step S6003.

ステップS6003では、事前に内蔵不揮発性メモリ(被写体登録手段)に登録した被写体が最新の撮影映像において検出されたか判定する。 In step S6003, it is determined whether or not the subject registered in advance in the built-in non-volatile memory (subject registration means) has been detected in the latest captured image.

本実施例では、被写体の事前登録は、表示装置800内に保存された画像から、撮像したい人物が写っている画像を使用者が指定し、選択された人物の特徴を表示装置制御部801が認識し、それをカメラ本体1内の全体制御CPU101に送信することで行う。尚、ステップS6003で検出する被写体はこれに限定されず、例えば、読み出し完了タイミングやほかの検知タイミングで取得した撮影映像に含まれる被写体であってもよい。また、事前に登録された被写体と、最新の撮影映像上の被写体が一致するかは、パターンマッチング手法にて判定する。パターンマッチング手法については公知であるため、詳細な説明は省略する。 In this embodiment, the pre-registration of the subject is performed by the user specifying an image containing a person to be captured from among the images stored in the display device 800, and the display device control unit 801 identifying the characteristics of the selected person. This is done by recognizing and transmitting it to the overall control CPU 101 in the camera body 1 . Note that the subject detected in step S6003 is not limited to this, and may be, for example, a subject included in a captured image acquired at the readout completion timing or other detection timing. A pattern matching method is used to determine whether the pre-registered subject matches the subject on the latest captured image. Since the pattern matching method is publicly known, detailed description thereof will be omitted.

事前に登録した被写体が最新の撮影映像で検出されたと判定された場合は(ステップS6003でYES)、ステップS6006に進む。 If it is determined that the pre-registered subject has been detected in the latest shot video (YES in step S6003), the process advances to step S6006.

ステップS6006では、本処理のモードをステップS6003で検出された被写体の方向を記録方向とする登録被写体モード(第3の撮像モード)に切り替え、登録被写体を追尾するように記録方向を決定した後ステップS6008に進む。 In step S6006, the mode of this processing is switched to a registered subject mode (third imaging mode) in which the recording direction is the direction of the subject detected in step S6003, and the recording direction is determined so as to track the registered subject. Proceed to S6008.

一方、事前に登録された被写体が最新の撮影映像で検出されなかったと判定された場合(ステップS6003でNO)、観察対象とすべき被写体の推定ができなかったと判断し、ステップS6007に進む。 On the other hand, if it is determined that the pre-registered subject has not been detected in the latest captured image (NO in step S6003), it is determined that the subject to be observed cannot be estimated, and the process advances to step S6007.

ステップS6007では、全体制御CPU101(画角変更手段)は、本処理のモードを、顔方向の検出に失敗する以前の記録方向を据え置く一方、撮像する画角を規定画角と比較し広角に変更する、被写体ロストモード(第4の撮像モード)に切り替える。その後、ステップS6008に進む。尚、被写体ロストモードにおける記録方向は、顔方向の検出に失敗する以前の観察方向の変化量で継続して移動させるようにしてもよい。 In step S6007, the overall control CPU 101 (angle of view changing means) sets the mode of this processing to the recording direction before the detection of the face direction fails, while comparing the angle of view to be imaged with the specified angle of view and changes it to a wide angle. Then, switch to the subject lost mode (fourth imaging mode). After that, the process proceeds to step S6008. Note that the recording direction in the subject lost mode may be continuously moved by the amount of change in the viewing direction before the detection of the face direction fails.

ここで、被写体ロストモードとなるステップS6007に進む場合について、図36Bを用いて説明する。 Here, the case where the process proceeds to step S6007 in which the subject is lost mode will be described with reference to FIG. 36B.

図36Bでは、n=5つまり5コマ目で使用者の観察方向を検知できなかった場合を例として説明する。 In FIG. 36B, a case where n=5, that is, the user's viewing direction could not be detected in the fifth frame will be described as an example.

図36Bの例では、n=1~4までにおいて主要な被写体が見つかっておらず、また、事前登録した被写体もn=5での撮影映像において見つかっていない。そのため、n=5の観察方向はn=1~4までの移動方向である全面映像上の右方向に慣性を付けて遷移させる。また、全面映像から切り出す画角を広角に変更する。 In the example of FIG. 36B, the main subject has not been found for n=1 to 4, and the pre-registered subject has not been found for the captured image for n=5. Therefore, the observation direction of n=5 is shifted to the right direction on the full-screen image, which is the movement direction of n=1 to 4, with inertia. In addition, the angle of view to be cut out from the full screen image is changed to a wide angle.

ステップS6008では、ステップS6005~S6007のいずれかで顔方向以外の方向から記録方向を決定した場合、全体制御CPU101(通知手段)は、顔方向の検知に失敗した旨を示すエラー(検知エラー)を使用者に通知する。その後、本サブルーチンを抜ける。本実施例では図5の振動体106を用いて使用者に警告を出す。但し、ステップS6008における通知方法は本実施例の方法に制限されず、LED17を用いた警告や、表示装置800等のカメラ本体1と連携する端末による表示など、他の通知方法を用いてもよい。 In step S6008, if the recording direction is determined from a direction other than the face direction in any one of steps S6005 to S6007, the general control CPU 101 (notification means) displays an error (detection error) indicating that face direction detection has failed. Notify users. After that, exit from this subroutine. In this embodiment, the vibrator 106 of FIG. 5 is used to warn the user. However, the notification method in step S6008 is not limited to the method of this embodiment, and other notification methods such as a warning using the LED 17 or display by a terminal that cooperates with the camera body 1 such as the display device 800 may be used. .

以上のように、本実施例では、顔方向が検出できなかった場合に、その状況に応じて記録方向や画角を変更するため、使用者が本来撮像したかった狙い視野の映像の撮り逃しを避けることができる。 As described above, in this embodiment, when the face direction cannot be detected, the recording direction and the angle of view are changed according to the situation. can be avoided.

すなわち、本実施例では、顔方向が検出できなかった場合であって、過去に追尾していた被写体や事前登録されている被写体を検知できた場合は、その被写体に追従する。一方、かかる被写体を検知できなかった場合は撮り逃しを防止すると共に被写体の再検知がしやすくするため、画角を規定の画角より広角に変更する。 That is, in the present embodiment, when the face direction cannot be detected, but the subject tracked in the past or the pre-registered subject can be detected, the subject is tracked. On the other hand, if such a subject cannot be detected, the angle of view is changed from the specified angle of view to a wider angle in order to prevent missing shots and facilitate re-detection of the subject.

これにより、顔方向の検出に失敗したことにより使用者の意図しない映像が撮像されることを防止することができる。 As a result, it is possible to prevent an image not intended by the user from being picked up due to failure in detection of the face direction.

尚、ステップS6001~S6008の処理は毎フレーム実施されるが、各モードに遷移後も顔方向検出部20から顔方向が取得されたか等のモード判定情報に基づき、モードを遷移できる。例えば、本実施例では被写体ロストモードにより画角を広くした結果、事前登録された被写体が検知された場合、検知した被写体の方向を観察方向とする登録被写体追尾モードに移行する。この場合、広げた画角を規定の画角に戻す。 Although the processing of steps S6001 to S6008 is performed for each frame, the mode can be changed based on the mode determination information such as whether the face direction is acquired from the face direction detection unit 20 even after the mode is changed. For example, in this embodiment, when a preregistered subject is detected as a result of widening the angle of view in the subject lost mode, the mode shifts to the registered subject tracking mode in which the direction of the detected subject is the observation direction. In this case, the widened angle of view is returned to the specified angle of view.

また、本実施例では1回の判定でモードを変更したが、フレームレートや顔方向の検知能力に応じて複数回の結果に基づいてモードを移行してもよい。 Also, in this embodiment, the mode is changed by one determination, but the mode may be changed based on the results of a plurality of times according to the frame rate and the detection capability of the face direction.

(実施例7)
実施例7では、顔方向検出の精度(信頼度)に応じて観察方向を決定する方法について図37~図40を用いて説明する。
(Example 7)
In the seventh embodiment, a method of determining the observation direction according to the accuracy (reliability) of face direction detection will be described with reference to FIGS. 37 to 40. FIG.

基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例7のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the seventh embodiment, the same reference numerals are used for the configurations that are the same as those of the camera system of the first embodiment, redundant descriptions are omitted, and details of different configurations are added each time. to explain.

実施例6では、顔方向が検出できたか否かに応じて観察方向を決定するモードを切り替えて、使用者の意図しない記録方向での撮像を防止した。一方、特許文献1のように使用者の顔方向を常に安定的に検知できない場合、使用者の意図しない画角での撮像となることがある。ここで常に顔方向を安定して検知できない例としては、図1Bに示すように鎖骨前部にカメラ本体1の撮影・検出部10が装着されている場合、襟や髪などの影響で顔方向の検出精度が落ちる場合が挙げられる。 In the sixth embodiment, the mode for determining the viewing direction is switched depending on whether or not the face direction has been detected, thereby preventing imaging in a recording direction unintended by the user. On the other hand, when the direction of the user's face cannot always be stably detected as in Patent Document 1, the image may be captured at an angle of view not intended by the user. Here, as an example where the face direction cannot be stably detected at all times, as shown in FIG. There is a case where the detection accuracy of is lowered.

図37に示すように、使用者が正面方向を向いている場合(図37(a))よりも、右方向を向いている場合(図37(b),(c))に、顎や頬が体や肩に隠れてしまう領域が多くなる。すなわち、顔方向によっては、顔方向の検知に使用できる顔領域が狭くなり、その検知精度が落ちる可能性が高くなるという特性がカメラ本体1にはある。この特性は使用者によるカメラ本体1の装着位置に大きく依存する。 As shown in FIG. 37, when the user faces the right direction (FIGS. 37B and 37C), the chin and cheek There are more areas that are hidden by the body and shoulders. That is, the camera body 1 has the characteristic that the face area that can be used for detecting the face direction is narrowed depending on the face direction, and the detection accuracy is likely to be lowered. This characteristic greatly depends on the mounting position of the camera body 1 by the user.

そこで本実施例では、カメラ本体1の装着位置や顔方向の検知結果に応じて、顔方向の検知精度(信頼度)を算出し、信頼度が高い場合は顔方向を多く観察方向に反映させ、信頼度が低い場合はそれ以外の情報を多く観察方向に反映させる。これにより、使用者の意図をくみ取り撮像することができる。 Therefore, in this embodiment, the detection accuracy (reliability) of the face direction is calculated according to the mounting position of the camera body 1 and the detection result of the face direction, and when the reliability is high, more face directions are reflected in the observation direction. If the reliability is low, more information other than that is reflected in the viewing direction. As a result, the intention of the user can be picked up and captured.

図38は、図35のステップS6004の処理の代わりに行われる、本実施例に係る、顔方向取得時の観察方向決定処理のフローチャートである。本処理は、全体制御CPU101(観察方向決定手段)により実行される。 FIG. 38 is a flow chart of observation direction determination processing when obtaining a face direction according to this embodiment, which is performed instead of the processing in step S6004 of FIG. This processing is executed by the general control CPU 101 (observation direction determining means).

まず、ステップS7001にて、全体制御CPU101(第1の観察方向算出手段、信頼度算出手段)は、顔方向検出部20でnフレーム目の撮像の際に取得した顔方向θ(第1の観察方向)に基づき顔方向信頼性Tを算出する。 First, in step S7001, the overall control CPU 101 (first observation direction calculation means, reliability calculation means) detects the face direction θ n (first (observation direction) to calculate face direction reliability Tn .

顔方向信頼性Tは、以下のように算出される。 The face direction reliability Tn is calculated as follows.

まず、顔方向θを顔方向θyaw,θpitch,θrollの3つの成分に分ける。ここで、顔方向θyawは顔を左右に動かす回転成分、顔方向θpitchは顔を上下に動かす回転成分、顔方向θrollは首をかしげるように動かす回転成分を示す。 First, face direction θ n is divided into three components of face direction θ yaw , θ pitch and θ roll . Here, the face direction θ yaw indicates a rotation component for moving the face left and right, the face direction θ pitch indicates a rotation component for moving the face up and down, and the face direction θ roll indicates a rotation component for tilting the head.

本実施例では使用者の鎖骨部にカメラ本体1を装着し顔下部から顔方向を検知することを想定しているためTn(0≦Tn≦1)は以下の式701で求められる。 In this embodiment, it is assumed that the camera body 1 is attached to the user's clavicle and the face direction is detected from the lower part of the face.

Figure 2022140328000004
Figure 2022140328000004

図39は、顔方向θyawと顔方向信頼性Tの値の変化を示しており、顔方向θyawが正面から大きく変化するほど、顔方向信頼性Tが低下することを示している。 FIG. 39 shows changes in the values of face direction θ yaw and face direction reliability T n , and shows that the more the face direction θ yaw changes from the front, the more the face direction reliability T n decreases. .

尚、本実施例は式701を用いて顔方向信頼性Tを算出したが、顔方向検出部20による顔方向の検知精度や検出のフレームレートなどに応じて、過去に算出された顔方向信頼性を重みづけして算出したものを加重平均して用いることもできる。また、Tの算出の際、パターンマッチングの精度、装着位置等を重みづけするようにしてもよい。 In this embodiment, the face direction reliability T n is calculated using the expression 701. However, depending on the detection accuracy of the face direction by the face direction detection unit 20 and the detection frame rate, the previously calculated face direction reliability Tn may be calculated. It is also possible to use the weighted average of the values calculated by weighting the reliability. Further, when calculating Tn , the accuracy of pattern matching, the mounting position, etc. may be weighted.

また、本実施例では、式701によって観察方向を予測する顔方向信頼性を算出した。しかし、顔方向信頼性の算出方法については、これに限定されない。例えば、実施例2のキャリブレーションにより推定できる装着位置に応じて調整された顔方向信頼性を用いるようにしてもよい。また、キャリブレーション時に検出精度が低いと判断された場合には、その精度に応じて顔方向信頼性を変更してもよい。さらに、機械学習を用いて顔方向を検出する場合、その適合率を顔方向信頼性に反映させるようにしてもよい。 In addition, in this embodiment, the facial orientation reliability for predicting the viewing direction is calculated by Equation 701. FIG. However, the method for calculating face direction reliability is not limited to this. For example, the face direction reliability adjusted according to the mounting position that can be estimated by the calibration of the second embodiment may be used. Further, when detection accuracy is determined to be low during calibration, face direction reliability may be changed according to the accuracy. Furthermore, when machine learning is used to detect the face direction, the matching rate may be reflected in the face direction reliability.

ステップS7002にて、全体制御CPU101は、顔の動きの角速度ωnを求める。具体的には、顔方向検出部20からnフレーム目の撮像の際に取得した顔方向θと顔方向取得時刻tと、一次メモリ103に保存された1フレーム前の顔方向θn-1とその取得時刻tn-1から角速度ωnを下記の式702で求める。 In step S7002, the overall control CPU 101 obtains the angular velocity ω n of the movement of the face. Specifically, the face direction θ n and the face direction acquisition time t n acquired from the face direction detection unit 20 at the time of the nth frame imaging, and the face direction θ n− of the previous frame stored in the primary memory 103 are 1 and its acquisition time t n−1 , the angular velocity ω n is obtained by the following equation 702.

Figure 2022140328000005
Figure 2022140328000005

本実施例では角速度ωnを現在のフレームと1フレーム前の情報を用いて算出したが、フレームレート等に応じて過去の情報を一つ以上用いて角速度を求めてもよい。 In this embodiment, the angular velocity ω n is calculated using the information of the current frame and one frame before, but the angular velocity may be calculated using one or more pieces of past information depending on the frame rate or the like.

ステップS7003にて、全体制御CPU101(観察方向予測手段)は、一次メモリ103に保存された過去の顔方向の遷移から現在の顔方向の予測を行う。本実施例では現在のフレームを基準としてそれよりも過去の4フレーム分を所定期間とし、当該4フレームの間に3回以上同一と判定できる一定方向に顔方向が変位しつづけていた場合、過去の顔方向及び角速度から観察方向の予測ができると判断する。また、この予測を行う場合、過去の4フレームから得られた角速度の加重平均である予測角速度ωaveを下記の式703で算出し、予測顔方向θave(第2の観察方向)を下記の式704で算出する。式703,704の演算は、夫々図40(a1),(a2)に示す処理に対応する。 In step S<b>7003 , the overall control CPU 101 (observation direction prediction means) predicts the current face direction from the past face direction transitions stored in the primary memory 103 . In this embodiment, with the current frame as a reference, the past four frames are set as a predetermined period. It is judged that the observation direction can be predicted from the face direction and angular velocity of the face. When performing this prediction, the predicted angular velocity ω ave that is the weighted average of the angular velocities obtained from the past four frames is calculated by the following equation 703, and the predicted face direction θ ave (second viewing direction) is calculated as follows: It is calculated by the expression 704. The operations of equations 703 and 704 correspond to the processes shown in FIGS. 40(a1) and (a2), respectively.

尚、フレームレートや顔方向検出部20の検出精度に合わせて、ステップS7003で用いる所定期間の長さや加重平均のかけ方を変化させてよい。 It should be noted that the length of the predetermined period used in step S7003 and the weighted average method may be changed according to the frame rate and the detection accuracy of the face direction detection unit 20. FIG.

Figure 2022140328000006
Figure 2022140328000006

ステップS7004にて、全体制御CPU101は、一次メモリ103に保存された情報のうち、顔方向検出部20からの情報以外の内部情報を用いて観察方向の予測を行う。具体的には、本実施例では、被写体検出履歴から現在被写体を追尾している状態か判定を行う。追尾していると判定した場合、被写体の動きに基づく予測観察方向θsub(第2の観察方向)を算出する。本実施例では、現在のフレームを基準としてそれよりも過去の4フレーム分を所定期間とし、当該4フレームの撮影映像から3回以上同一と判定できる被写体(同一被写体)が検知された場合、被写体を追尾している状態であるとする。被写体追尾判定は、全体制御CPU101による検知周期や検知精度にあわせて判定基準を変更してよい。尚、被写体追尾検知手法については公知であるため、詳細な説明は省略する。 In step S<b>7004 , the overall control CPU 101 predicts the observation direction using the internal information other than the information from the face direction detection unit 20 among the information stored in the primary memory 103 . Specifically, in this embodiment, it is determined from the subject detection history whether the subject is currently being tracked. If it is determined that the object is being tracked, a predicted observation direction θ sub (second observation direction) based on the movement of the subject is calculated. In this embodiment, the current frame is used as a reference, and the past four frames are set as a predetermined period. is being tracked. The subject tracking determination may be made by changing the determination criteria according to the detection cycle and detection accuracy of the overall control CPU 101 . Since the subject tracking detection method is well known, detailed description thereof will be omitted.

尚、本実施例ではステップS7004の観察方向の予測に用いる内部情報は、被写体検出履歴であったがこれに限定されない。例えば、カメラ本体1の装着位置や性能に応じて、撮影部40に映りこんだ使用者の顔情報や、角速度センサ107及び加速度センサ108で検出されたカメラ本体1の移動や姿勢に関する情報を用いて、観察方向の予測を行ってもよい。また、実施例6のステップS6006のように、事前に登録された被写体がある場合、全体制御CPU101(第3の観察方向予測手段)は、最新の撮影映像上の事前に登録された被写体の方向を予測観察方向θsubとして求めてもよい。 In this embodiment, the internal information used for predicting the observation direction in step S7004 is the subject detection history, but the present invention is not limited to this. For example, according to the mounting position and performance of the camera body 1, information about the user's face reflected in the photographing unit 40 and information about the movement and posture of the camera body 1 detected by the angular velocity sensor 107 and the acceleration sensor 108 are used. to predict the viewing direction. Also, as in step S6006 of the sixth embodiment, if there is a pre-registered subject, the overall control CPU 101 (third observation direction prediction means) may be obtained as the predicted viewing direction θ sub .

ステップS7005にて、全体制御CPU101は、顔方向検出関連情報を履歴として一次メモリ103に保存する。ここで、顔方向検出関連情報は、ステップS7002で生成した顔の動きの角速度ωnと、ステップS7001にて算出した顔方向信頼性T、顔方向検出部20により検出された顔方向θ、顔方向取得時刻t、及びこれら各情報の生成時点を示す情報からなる。 In step S7005, overall control CPU 101 stores face direction detection-related information in primary memory 103 as a history. Here, the face direction detection related information includes the angular velocity ω n of the face movement generated in step S7002, the face direction reliability T n calculated in step S7001, and the face direction θ n detected by the face direction detection unit 20. , face direction acquisition time t n , and information indicating the generation time point of each of these information.

ステップS7006にて、全体制御CPU101は、ステップS7001で算出した顔方向信頼性Tが所定値以上か判定する。顔方向信頼性Tが所定値以上だった場合、顔方向の信頼性が高いと判断し、ステップS7009に進む。 In step S7006, the overall control CPU 101 determines whether or not the face direction reliability Tn calculated in step S7001 is equal to or greater than a predetermined value. If the face orientation reliability Tn is equal to or greater than the predetermined value, it is determined that the reliability of the face orientation is high, and the process advances to step S7009 .

ステップS7009では、全体制御CPU101は、顔方向を現在の観察方向θ’に決定してステップS7013に進む。 In step S7009, the general control CPU 101 determines the face direction to be the current viewing direction θ'n , and proceeds to step S7013.

一方、ステップS7001で算出した顔方向信頼性Tが所定値未満だった場合は(ステップS7006でNO)、ステップS7007に進む。 On the other hand, if the face orientation reliability Tn calculated in step S7001 is less than the predetermined value (NO in step S7006), the process proceeds to step S7007.

ステップS7007ではステップS7003にて予測顔方向θaveの推定ができ、かつ|θ-θave|が所定の角度以内であるという条件を満たした場合ステップS7010に進む。本実施例では所定の角度をπ/8として判定を行う。 In step S7007, if the predicted face direction θ ave can be estimated in step S7003 and |θ n −θ ave | is within a predetermined angle, the process advances to step S7010. In this embodiment, the determination is made with the predetermined angle set to π/8.

ステップS7010では、全体制御CPU101(第1の観察方向予測手段)は、θとθaveと顔方向信頼性Tを用いて現在の観察方向θ’を決定する。本実施例では現在の観察方向θ’′を下記の式705で求め、ステップS7013に進む。式705の演算は、図40の(b)に示す処理に該当する。図39で示す通り、顔方向θyawの角度の絶対値が小さいほど顔方向信頼性Tが大きくなる、したがって、顔方向θyawの角度の絶対値が小さい場合には、現在の観察方向θ’には、式705に示すように顔方向θが多く反映される。一方、顔方向θyawの角度の絶対値が大きい場合には、現在の観察方向θ’には、式705に示すように顔方向θyaw以外の他情報(予測顔方向θave)が多く反映される。 In step S7010 , the overall control CPU 101 (first viewing direction prediction means) determines the current viewing direction θ'n using θn , θave , and face direction reliability Tn. In this embodiment, the current observation direction θ' n ' is obtained by the following equation 705, and the process proceeds to step S7013. The calculation of expression 705 corresponds to the processing shown in FIG. 40(b). As shown in FIG. 39, the smaller the absolute value of the face direction θ yaw angle, the greater the face direction reliability Tn . ' n largely reflects the face direction θ n as shown in equation 705 . On the other hand, when the absolute value of the angle of the face direction θ yaw is large, the current observation direction θ′ n contains a lot of other information (predicted face direction θ ave ) other than the face direction θ yaw as shown in Equation 705. reflected.

Figure 2022140328000007
Figure 2022140328000007

ステップS7007にて上記条件を満たさなかった場合、ステップS7008に進み、予測観察方向θsubの推定ができ、かつ、|θ-θsub|が所定の角度以内であるという条件を満たした場合、ステップS7011に進む。ステップS7010と同様、本実施例では所定の角度をπ/8として判定を行う。 If the above condition is not satisfied in step S7007, the process proceeds to step S7008, and if the condition that the predicted viewing direction θ sub can be estimated and |θ n −θ sub | is within a predetermined angle is satisfied, The process advances to step S7011. As in step S7010, in this embodiment, the predetermined angle is set to π/8 for determination.

ステップS7011では、全体制御CPU101(第2の観察方向予測手段)は、顔方向θと、予測観察方向θsubと、顔方向信頼性Tを用いて現在の観察方向θ’を決定する。本実施例では現在の観察方向θ’を下記の式706で求め、ステップS7013に進む。ステップS7010と同様、図39で示す通り、顔方向θyawの角度の絶対値が小さいほど顔方向信頼性Tが大きくなる。したがって、顔方向θyawの角度の絶対値が小さい場合には、現在の観察方向θ’には、式706に示すように顔方向θが多く反映される。一方、顔方向θyawの角度の絶対値が大きい場合には、現在の観察方向θ’には、式706に示すように顔方向θyaw以外の他情報(予測観察方向θsub)が多く反映される。 In step S7011, the overall control CPU 101 (second viewing direction prediction means) determines the current viewing direction θ'n using the face direction θn , predicted viewing direction θsub , and face direction reliability Tn . . In this embodiment, the current observation direction θ'n is obtained by the following equation 706, and the process proceeds to step S7013. As in step S7010 , as shown in FIG. 39, the face direction reliability Tn increases as the absolute value of the angle of the face direction θ yaw decreases. Therefore, when the absolute value of the angle of the face direction θyaw is small, the face direction θn is largely reflected in the current viewing direction θ′n as shown in Equation 706. On the other hand, when the absolute value of the angle of the face direction θ yaw is large, the current viewing direction θ′ n contains a lot of other information (predicted viewing direction θ sub ) other than the face direction θ yaw as shown in Equation 706. reflected.

Figure 2022140328000008
Figure 2022140328000008

ステップS7008にて上記条件を満たさなかった場合、現状信頼できる観察方向の取得ができないと判断し、ステップS7012に進む。 If the above condition is not satisfied in step S7008, it is determined that the currently reliable observation direction cannot be obtained, and the process proceeds to step S7012.

ステップS7012では、前回の観察方向θ’n-1を過去の観察方向の変位に基づき慣性を付けて移動させた観察方向に、現在の観察方向θ’を決定し、且つ画角を規定値よりも広く設定し、ステップS7013に進む。これにより、使用者が意図する被写体を撮り逃す可能性を低下させる。 In step S7012, the current viewing direction θ'n is determined by moving the previous viewing direction θ'n -1 with inertia based on the displacement of the past viewing direction, and the angle of view is set to a specified value. , and advances to step S7013. This reduces the possibility that the user will miss the intended subject.

本実施例では、顔方向信頼性Tと被写体の検知状態に応じて現在の観察方向θ’の算出方法を切り替えたが、これに限定されない。例えば、予測顔方向θaveと予測観察方向θsubのそれぞれを算出する際にその信頼度(予測方向信頼度)も算出し、算出されたそれらの信頼度に応じて、算出された観察方向θ’を補正するようにしてもよい。 In this embodiment, the method of calculating the current observation direction θ′n is switched according to the face direction reliability Tn and the subject detection state, but the present invention is not limited to this. For example, when calculating each of the predicted face direction θ ave and the predicted observation direction θ sub , their reliability (prediction direction reliability) is also calculated, and the calculated observation direction θ ' n may be corrected.

また、算出された各信頼度が所定値以下だった場合、使用者が意図する被写体を撮り逃す可能性が高くなることが考えられるため、画角を規定の画角よりも広角に設定するようにすることが好ましい。また、その場合、ステップS7012に進むようにしてもよい。またその後、算出された各信頼度のいずれかが所定値より大きくなった場合、画角を規定の画角に戻すことが好ましい。 In addition, if each calculated reliability is less than a predetermined value, it is likely that the user will miss the intended subject. It is preferable to In that case, the process may proceed to step S7012. Moreover, after that, if any of the calculated degrees of reliability becomes larger than a predetermined value, the angle of view is preferably returned to the specified angle of view.

図38の処理により、顔方向信頼性Tが高い場合には、顔方向θを現在の観察方向θ’に決定する。一方で顔方向信頼性Tが低い場合には、状況に応じて、顔方向信頼性Tが高かった時点の情報や、顔方向以外の情報を用いて現在の観察方向θ’(記録方向)を決定し、さらに状況によっては画角を広くする。 By the processing of FIG. 38, when the face direction reliability T n is high, the face direction θ n is determined as the current observation direction θ′ n . On the other hand, when the face direction reliability T n is low, the current observation direction θ′ n ( recorded direction), and depending on the situation, widen the angle of view.

すなわち、本実施例では、顔方向信頼性Tが低く、顔方向の検出の精度が低いと予想される場合には、予測顔方向θaveや予測観察方向θsubを用いることにより、顔方向検知の失敗により使用者の意図しない映像が撮像されることを防止できる。 That is, in the present embodiment, when the face direction reliability Tn is low and the accuracy of face direction detection is expected to be low, the predicted face direction θ ave and the predicted observation direction θ sub are used to detect the face direction. It is possible to prevent an image that is not intended by the user from being picked up due to detection failure.

(実施例8)
実施例8では、カメラ本体1を安定した位置に装着する方法について図41~45を用いて説明する。
(Example 8)
In the eighth embodiment, a method for mounting the camera body 1 in a stable position will be described with reference to FIGS. 41-45.

基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例8のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the eighth embodiment, the same reference numerals are used for the configurations that are the same as those of the camera system of the first embodiment, and redundant descriptions are omitted, and details of different configurations are added each time. to explain.

まず、接続部80L及び80R(首掛け手段)の角度調節について説明する。 First, angle adjustment of the connecting portions 80L and 80R (neck hanging means) will be described.

図41は、撮影・検出部10を側面から見た様子を示す拡大図である。なお、以下の説明では左側接続部80Lを例に説明するが、右側接続部80Rについても、同様に調整される。 FIG. 41 is an enlarged view showing a side view of the photographing/detecting unit 10. As shown in FIG. In the following description, the left connection portion 80L will be described as an example, but the right connection portion 80R is similarly adjusted.

図41(a)は、接続部80Lが標準位置Ax0にある時の図であり、図41(b)は、接続部80Lが回転軸OAを中心として標準位置Ax0に対して角度θA1だけ回転した位置Ax1にある時の図である。図41(c)は、角度保持部81Lの外装を除去した場合に視認しうる角度保持部81Lの内部のメカ機構を示す模式図である。 FIG. 41(a) is a diagram when the connection portion 80L is in the standard position Ax0, and FIG. 41(b) is a diagram in which the connection portion 80L is rotated by an angle θA1 with respect to the standard position Ax0 around the rotation axis OA. It is a figure when it exists in position Ax1. FIG. 41(c) is a schematic diagram showing a mechanical mechanism inside the angle holding portion 81L that can be visually recognized when the exterior of the angle holding portion 81L is removed.

図41(c)に示すように、角度保持部81Lの内部には、角度調節機構8100(首掛け角度調節手段)が配置されている。 As shown in FIG. 41(c), an angle adjusting mechanism 8100 (neck hanging angle adjusting means) is arranged inside the angle holding portion 81L.

角度調節機構8100は、撮影・検出部10に対する角度保持部81Lの角度調節を行う角度調節カム8101、及び角度調節カム8101を係止する係止部材8102からなる。尚、角度保持部81Lの回動軸OAは、角度調節カム8101の中心に一致する。 The angle adjusting mechanism 8100 includes an angle adjusting cam 8101 for adjusting the angle of the angle holding portion 81L with respect to the photographing/detecting portion 10, and a locking member 8102 for locking the angle adjusting cam 8101. The rotation axis OA of the angle holding portion 81L coincides with the center of the angle adjusting cam 8101. As shown in FIG.

係止部材8102は、不図示のばねによって角度調節カム8101に対して付勢されている部材であるが、角度調節ボタン85L(図2F)が押下されている間はその付勢が解除されて角度調節カム8101から離れる。すなわち、角度調節ボタン85Lが押下されている間のみ、接続部80Lの角度保持部81Lは撮影・検出部10に対して回動可能な状態になる。 The locking member 8102 is a member biased against the angle adjustment cam 8101 by a spring (not shown), but the bias is released while the angle adjustment button 85L (FIG. 2F) is pressed. Move away from the angle adjustment cam 8101 . That is, the angle holding portion 81L of the connection portion 80L is rotatable with respect to the photographing/detecting portion 10 only while the angle adjustment button 85L is pressed.

使用者は、角度調節ボタン85Lを押しながら角度保持部81Lを撮影・検出部10に対して回動させることで、接続部80Lを標準位置Ax0(図41(a))から位置Ax1(図41(b))まで調節することが可能である。 The user rotates the angle holding portion 81L with respect to the imaging/detecting portion 10 while pressing the angle adjustment button 85L, thereby moving the connection portion 80L from the standard position Ax0 (FIG. 41A) to the position Ax1 (FIG. 41A). (b)) can be adjusted.

撮影・検出部10に対する角度保持部81Lの角度を保持するための機構として、本実施例では角度調節カム8101と係止部材8102を用いた有段調節の機構を用いているが、摺動抵抗を利用した無段階調節を可能とする機構を用いても良い。 As a mechanism for holding the angle of the angle holding portion 81L with respect to the photographing/detecting portion 10, this embodiment uses a stepped adjustment mechanism using an angle adjustment cam 8101 and a locking member 8102. A mechanism that enables stepless adjustment using the may be used.

また、本実施例では、使用者が角度調節ボタン85Lを押しながら角度保持部81Lを回転させる構成としたが、これに限定されない。例えば、角度調節ボタン85Lを必要とせず、ある閾値以上の外力が角度保持部81Lにかかると角度保持部81Lを回動するようなバランスをとった構成、例えば係止部材8102の代わりにボールを用いたものや、摺動抵抗を用いたものでも良い。 In this embodiment, the user presses the angle adjustment button 85L and rotates the angle holding portion 81L, but the present invention is not limited to this. For example, there is no need for the angle adjustment button 85L, and the angle holding portion 81L is rotated when an external force equal to or greater than a certain threshold value is applied to the angle holding portion 81L. It is also possible to use one that uses sliding resistance or one that uses sliding resistance.

図42は、使用者がカメラ本体1を装着した様子を示す側面図である。 FIG. 42 is a side view showing how the user wears the camera body 1. FIG.

図42(a)は、接続部80Lが標準位置Ax0にあり、かつバンド部82Lを長く調節した状態のカメラ本体1を装着した使用者を示す図である。図42(b)は、接続部80Lが標準位置Ax0にあり、かつバンド部82Lを短く調節した状態のカメラ本体1を装着した使用者を示す図である。図42(c)は、接続部80Lが位置Ax1にあり、かつバンド部82Lを短く調節した状態のカメラ本体1を装着した使用者を示す図である。 FIG. 42(a) is a diagram showing a user wearing the camera body 1 in a state where the connection portion 80L is at the standard position Ax0 and the band portion 82L is adjusted to be long. FIG. 42(b) is a diagram showing a user wearing the camera body 1 in a state where the connection portion 80L is at the standard position Ax0 and the band portion 82L is adjusted to be short. FIG. 42(c) is a diagram showing a user wearing the camera body 1 in a state where the connecting portion 80L is at the position Ax1 and the band portion 82L is adjusted to be short.

図42(a),(c)に示すように、接続部80Lの位置とバンド部82Lの長さの関係が、使用者にとって適している状態であれば、撮像レンズ16は使用者の正面を向く。一方で、図42(b)に示すように、接続部80Lの位置とバンド部82Lの長さの関係が、使用者にとって適した状態でなければ、撮像レンズ16は使用者の正面を向かない。この図42(b)の場合、撮像レンズ16の光軸は上方向を向いている。 As shown in FIGS. 42(a) and 42(c), if the relationship between the position of the connecting portion 80L and the length of the band portion 82L is suitable for the user, the imaging lens 16 faces the front of the user. Turn. On the other hand, as shown in FIG. 42(b), if the relationship between the position of the connecting portion 80L and the length of the band portion 82L is not suitable for the user, the imaging lens 16 does not face the front of the user. . In the case of FIG. 42(b), the optical axis of the imaging lens 16 faces upward.

このように接続部80Lはその位置の調節が可能に構成されているため、使用者は、撮像レンズ16の光軸が使用者の自然状態での視線位置と略並行な状態となるように、カメラ本体1を装着することが可能となる。もちろん、使用者にとって適切なカメラ本体1の装着位置が、撮像レンズ16の光軸が水平方向であった場合にも、同様に適切な装着が可能である。 Since the position of the connecting portion 80L is adjustable in this way, the user can adjust the position of the imaging lens 16 so that the optical axis of the imaging lens 16 is substantially parallel to the user's natural line-of-sight position. The camera body 1 can be attached. Of course, even if the mounting position of the camera body 1 suitable for the user is such that the optical axis of the imaging lens 16 is in the horizontal direction, it is possible to mount the camera body 1 appropriately as well.

次に、胸部接続パッド18a,18bの角度調節について説明する。 Next, angle adjustment of the chest connection pads 18a and 18b will be described.

図43は、接続部80L,80Rを非表示とした場合の、撮影・検出部10を側面から見た様子を示す拡大図である。なお、以下の説明では左側胸部接続パッド18aを例に説明するが、右側胸部接続パッド18bについても、同様に調整される。 FIG. 43 is an enlarged view showing a side view of the photographing/detecting section 10 when the connecting sections 80L and 80R are hidden. In the following description, the left chest connection pad 18a is taken as an example, but the right chest connection pad 18b is similarly adjusted.

図43(a)は、胸部接続パッド18aが標準位置Bx0にある時の図であり、図43(b)は胸部接続パッド18aが、回転軸OBを中心として標準位置Bx0に対して角度θB1だけ回転した位置Bx1にある時の図である。図43(c)は、撮影・検出部10の外装を除去した場合に視認しうる撮影・検出部10の内部のメカ機構を示す模式図である。 FIG. 43(a) is a diagram when the chest connection pad 18a is at the standard position Bx0, and FIG. 43(b) is a diagram in which the chest connection pad 18a is positioned at an angle θB1 with respect to the standard position Bx0 about the rotation axis OB. It is a figure when it exists in position Bx1 which rotated. FIG. 43(c) is a schematic diagram showing the internal mechanical mechanism of the imaging/detecting section 10 that can be visually recognized when the exterior of the imaging/detecting section 10 is removed.

図43(c)に示すように、撮影・検出部10の内部には、角度調節機構8200(接地角度調節手段)が配置されている。 As shown in FIG. 43(c), an angle adjustment mechanism 8200 (grounding angle adjustment means) is arranged inside the photographing/detecting section 10. As shown in FIG.

角度調節機構8200は、撮影・検出部10に対する胸部接続パッド18の角度調節を行う角度調節カム8201、及び角度調節カム8201を係止する係止部材8202からなる。尚、図43(a)~(c)に示す点OBは、胸部接続パッド18aの回動中心である。 The angle adjusting mechanism 8200 comprises an angle adjusting cam 8201 for adjusting the angle of the chest connection pad 18 with respect to the imaging/detecting section 10 and a locking member 8202 for locking the angle adjusting cam 8201 . A point OB shown in FIGS. 43(a) to 43(c) is the center of rotation of the chest connection pad 18a.

係止部材8202は、不図示のばねによって角度調節カム8201に対して付勢されている部材であるが、角度調節ボタン8203が押下されている間はその付勢が解除されて角度調節カム8201から離れる。すなわち、角度調節ボタン8203が押下されている間のみ、胸部接続パッド18は撮影・検出部10に対して回動可能な状態になる。 The locking member 8202 is a member that is urged against the angle adjustment cam 8201 by a spring (not shown). away from That is, the chest connection pad 18 is rotatable with respect to the imaging/detecting unit 10 only while the angle adjustment button 8203 is pressed.

使用者は、角度調節ボタン8203を押しながら胸部接続パッド18を撮影・検出部10に対して回動させることで、胸部接続パッド18の位置を位置Bx0から位置Bx1まで調節することが可能である。 The user can adjust the position of the chest connection pad 18 from position Bx0 to position Bx1 by rotating the chest connection pad 18 with respect to the imaging/detection unit 10 while pressing the angle adjustment button 8203 . .

撮影・検出部10に対する胸部接続パッド18の角度を保持するための機構として、本実施例では角度調節カム8201と係止部材8202を用いた有段調節の機構を用いているが、摺動抵抗を利用した無段階調節を可能とする機構を用いても良い。 As a mechanism for holding the angle of the chest connection pad 18 with respect to the imaging/detection unit 10, this embodiment uses a stepped adjustment mechanism using an angle adjustment cam 8201 and a locking member 8202. A mechanism that enables stepless adjustment using the may be used.

また、本実施例では、使用者が角度調節ボタン8203を押しながら胸部接続パッド18を回転させる構成としたが、これに限定されない。例えば、角度調節ボタン8203を必要とせず、ある閾値以上の外力が胸部接続パッド18にかかると胸部接続パッド18が回動するようなバランスをとった構成、例えば係止部材8202の代わりにボールを用いたものや、摺動抵抗を用いたものでも良い。 In this embodiment, the user presses the angle adjustment button 8203 and rotates the chest connection pad 18, but the present invention is not limited to this. For example, there is no need for the angle adjustment button 8203, and the chest connection pad 18 is configured to rotate when an external force exceeding a certain threshold is applied to the chest connection pad 18. For example, a ball is used instead of the locking member 8202. It is also possible to use one that uses sliding resistance or one that uses sliding resistance.

図44は、接続部80Lを非表示とした場合の、使用者がカメラ本体1を装着した様子を示す側面図である。 FIG. 44 is a side view showing how the user wears the camera body 1 when the connection portion 80L is hidden.

図44(a)は、胸部が立っている使用者が、胸部接続パッド18aが標準位置Bx0の状態のカメラ本体1を装着した様子を示す図である。図44(b)は、胸部が寝ている使用者が、胸部接続パッド18aが標準位置Bx0の状態のカメラ本体1を装着した様子を示す図である。図44(c)は、胸部が寝ている使用者が、胸部接続パッド18aが位置Bx1の状態でカメラ本体1を装着した様子を示す図である。 FIG. 44(a) shows a state in which a user with an upright chest wears the camera body 1 with the chest connection pad 18a in the standard position Bx0. FIG. 44(b) shows a state in which a user whose chest is lying down wears the camera body 1 with the chest connection pad 18a in the standard position Bx0. FIG. 44(c) shows a state in which a user whose chest is lying down wears the camera body 1 with the chest connection pad 18a positioned at the position Bx1.

図44(a),(c)に示すように、胸部接続パッド18aの位置が、使用者の胸部の傾きに対して適している状態であれば、胸部接続パッド18aは使用者の胸部に対して広い範囲で接地される。一方で、図44(b)のように、胸部接続パッド18aの位置が、使用者の胸部の傾きに対して適した状態でなければ、胸部接続パッド18aは使用者の胸部に対してわずかな範囲しか接地しない。図44(b)のように、胸部接続パッド18aが使用者の胸に接地している範囲が小さくなると、使用者が体を動かした際に撮影・検出部10が容易に使用者の体に対して動いてしまい、撮像される映像が大きくぶれてしまう。 As shown in FIGS. 44(a) and 44(c), if the position of the chest connection pad 18a is suitable for the inclination of the user's chest, the chest connection pad 18a is positioned against the user's chest. grounded over a wide area. On the other hand, as shown in FIG. 44(b), if the position of the chest connection pad 18a is not suitable for the inclination of the user's chest, the chest connection pad 18a is slightly tilted against the user's chest. Ground only to a certain extent. As shown in FIG. 44(b), when the range in which the chest connection pad 18a contacts the user's chest becomes smaller, the photographing/detecting unit 10 can easily touch the user's body when the user moves his/her body. In contrast, it moves, and the captured image is greatly blurred.

このように胸部接続パッド18aはその角度の調節が可能に構成されているため、使用者は自身の胸部に対して広い範囲に胸部接続パッド18aが設置されるように、カメラ本体1を装着することが可能となり、撮影映像のブレを抑制することができる。 Since the angle of the chest connection pad 18a is adjustable in this way, the user wears the camera body 1 so that the chest connection pad 18a is placed over a wide range on the user's chest. This makes it possible to suppress blurring of the shot image.

尚、本実施例では、胸部接続パッド18aは撮影・検出部10に配置されているが、接続部80Lに配置されていても同様の効果が得られる。この場合、例えば、接続部80Lの内部に図41(c)に示す角度調節機構8100と同様の機構が、接続部80Lに対する胸部接続パッド18aの角度調節を行う機構として配置される。 In this embodiment, the chest connection pad 18a is arranged in the imaging/detection section 10, but the same effect can be obtained even if it is arranged in the connection section 80L. In this case, for example, a mechanism similar to the angle adjustment mechanism 8100 shown in FIG. 41(c) is arranged inside the connection portion 80L as a mechanism for adjusting the angle of the chest connection pad 18a with respect to the connection portion 80L.

次に、バンド部82L及び電気ケーブル84の構成について詳細に説明する。 Next, the structures of the band portion 82L and the electric cable 84 will be described in detail.

実施例1で説明したように、カメラ本体1のバッテリー部90(電源手段)と撮影・検出部10は、電気ケーブル84を介して電気的に接続されている別体のモジュールである。 As described in the first embodiment, the battery section 90 (power supply means) of the camera body 1 and the photographing/detecting section 10 are separate modules that are electrically connected via the electric cable 84 .

ここで電気ケーブル84とバンド部82Lを別体とすると、カメラ本体1の美観上好ましくなく、また使用者が首に装着する際の操作が煩わしくなってしまう面でも好ましくない。従って、バンド部82Lと電気ケーブル84は一体となっていることが望ましいが、図2Bに示すような構成に限定されるものではない。 If the electric cable 84 and the band portion 82L are separated from each other, it is not preferable in terms of the aesthetics of the camera body 1, and it is also not preferable in terms of troublesome operation when the user wears it around his/her neck. Therefore, it is desirable that the band portion 82L and the electric cable 84 are integrated, but the structure is not limited to that shown in FIG. 2B.

図45は、バンド部82L及びこれと一体となって構成される電気ケーブル84の切断面である接続面83Lを示す図である。 FIG. 45 is a diagram showing a connection surface 83L, which is a cut surface of the band portion 82L and the electric cable 84 integrally formed therewith.

図45(a)~(c)までは、電気ケーブル84がフレキシブル基板(FPC)で構成されている場合を示し、図45(d)~(g)は、電気ケーブル84が細線ケーブルによって構成されている場合を示す。 45(a) to (c) show the case where the electric cable 84 is made of a flexible printed circuit board (FPC), and FIGS. indicates if

図45(a),(d)では、接続面83Lから見て、バンド部82Lの内部に電気ケーブル84が埋め込まれている。この場合、バンド部82Lの素材は、例えばシリコンゴム、エラストマー、ゴム、プラスチックのような、射出成型可能な弾性部材であることが望ましい。バンド部82Lと電気ケーブル84が一体となる部品の製造方法としては、バンド部82Lの射出成型時に電気ケーブル84をインサートする方法が挙げられる。他にも、バンド部82Lを2部品にて構成し、電気ケーブル84を挟み込んだうえで接着剤や熱溶着により2部品にて構成されるバンド部82Lを一体部品とする製造方法を採用してもよい。但し、図45(a),(d)に示すように、バンド部82Lと電気ケーブル84が一体となる部品が製造できればよく、前述の2つの製造方法に限定するものではない。 In FIGS. 45(a) and 45(d), the electric cable 84 is embedded inside the band portion 82L when viewed from the connection surface 83L. In this case, the material of the band portion 82L is preferably an injection-moldable elastic member such as silicone rubber, elastomer, rubber, or plastic. As a method of manufacturing a part in which the band portion 82L and the electric cable 84 are integrated, there is a method of inserting the electric cable 84 during injection molding of the band portion 82L. In addition, a manufacturing method is adopted in which the band portion 82L is composed of two parts, and the band portion 82L composed of the two parts is integrated by adhesive or heat welding after sandwiching the electric cable 84. good too. However, as shown in FIGS. 45(a) and 45(d), it suffices if a part in which the band portion 82L and the electric cable 84 are integrated can be manufactured, and the manufacturing method is not limited to the above two manufacturing methods.

図45(b),(c),(e)は、接続面83Lから見て、バンド部82Lの外側に電気ケーブル84が当接されている。 45(b), (c), and (e), the electric cable 84 is in contact with the outside of the band portion 82L when viewed from the connection surface 83L.

図45(b)では、接続面83Lから見てバンド部82Lには、電気ケーブル84と一体化するための形状は特に設けられておらず、ただバンド部82Lの表面に電気ケーブル84を接着する構成であるため、低コストで製造が可能である。電気ケーブル84(この場合はFPC)が外観側場合には、FPCを塗装したりフィルムを被せたりすることで外観を向上させることができる。また、図45(b)の構成で電気ケーブルが使用者の首接触側にある場合にも、電気ケーブルを塗装したりフィルムを被せたりすることにより、装着感を向上させることができる。 In FIG. 45(b), the band portion 82L when viewed from the connection surface 83L is not provided with a shape for integrating with the electric cable 84, and the electric cable 84 is simply adhered to the surface of the band portion 82L. Because of its structure, it can be manufactured at low cost. If the electrical cable 84 (FPC in this case) is on the exterior side, the exterior can be improved by painting the FPC or covering it with a film. Also, in the configuration of FIG. 45(b), when the electric cable is on the neck contact side of the user, the feeling of wearing can be improved by painting or covering the electric cable with a film.

図45(c),(e)では、接続面83Lから見てバンド部82Lには、電気ケーブル84と一体化するために凹み形状83aが設けられており、その凹み形状83aの内部に電気ケーブル84が配置される。この場合、凹み形状83aを使用者の首接触側に設けると、カメラ本体1の美観は確保される上、凹み形状83aを電気ケーブル84が直接使用者の首に接触しないように設けると、特別な処理を行わなくても使用者の装着感を良好に保つことが出来る。さらにはバンド部82の作成時に適切な設計を行えば凹み形状83aの付与には追加コストもかからないため、費用面でも好適である。 45(c) and (e), the band portion 82L as viewed from the connection surface 83L is provided with a concave shape 83a for integration with the electric cable 84, and the electric cable is placed inside the concave shape 83a. 84 is placed. In this case, if the recessed shape 83a is provided on the user's neck contact side, the appearance of the camera body 1 is ensured. It is possible to keep the user's feeling of wearing well without performing any special treatment. Furthermore, if an appropriate design is made when the band portion 82 is produced, no additional cost is required to provide the concave shape 83a, which is favorable in terms of cost.

図45(f),(g)でも、前述した図45(a),(d)と同様に、接続面83Lから見てバンド部82Lの内部に電気ケーブル84が埋め込まれている。図45(f)は電気ケーブル84が1本の時の構成を、図45(g)は電気ケーブル84が複数本の場合の構成を示す。これらの構成は、図45(a),(d)とは異なり、接続面83Lにおけるバンド部82Lの断面積を確保したことが特徴である。接続面83Lにおけるバンド部82Lの断面積は、バンド部82Lのねじれ剛性、曲げ剛性に影響するが、これらの剛性は使用者がカメラ本体1を装着した際、撮影・検出部10が体の定位置で安定し続けるための安定性に影響する。すなわち、接続面83Lにおけるバンド部82Lの断面積が大きく、ねじれ剛性、曲げ剛性が強いほど、かかる撮影・検出部10の安定性が向上する。尚、電気ケーブル84の突出側は、良好な装着感を確保するため、外観側に位置することが好ましい。図45(f),(g)に示す形状は、バンド部82Lにおいて電気ケーブル84の突出した形状が外観側から見えるが、バンド部82Lの剛性の確保の観点では適した形状である。 In FIGS. 45(f) and 45(g) as well, the electric cable 84 is embedded inside the band portion 82L when viewed from the connection surface 83L, similarly to FIGS. 45(a) and 45(d). FIG. 45(f) shows a configuration with one electric cable 84, and FIG. 45(g) shows a configuration with a plurality of electric cables 84. FIG. These configurations are characterized in that the cross-sectional area of the band portion 82L on the connection surface 83L is ensured, unlike FIGS. 45A and 45D. The cross-sectional area of the band portion 82L at the connection surface 83L affects the torsional rigidity and bending rigidity of the band portion 82L. Affects stability to stay stable in position. That is, the greater the cross-sectional area of the band portion 82L on the connection surface 83L and the stronger the torsional rigidity and bending rigidity, the more stable the photographing/detecting section 10 is. It should be noted that the protruding side of the electric cable 84 is preferably located on the exterior side in order to ensure a good wearing feeling. The shapes shown in FIGS. 45(f) and 45(g) are suitable from the standpoint of ensuring the rigidity of the band portion 82L, although the protruding shape of the electric cable 84 can be seen from the band portion 82L.

以上より、美観と装着感のバランスより図45(c),(e)の形状が好適であるが、コストや剛性を重視する場合には図45に示す他の形状をとることが可能である。 As described above, the shapes shown in FIGS. 45(c) and 45(e) are preferable from the viewpoint of the balance between aesthetic appearance and wearing comfort, but other shapes shown in FIG. 45 can be used when emphasis is placed on cost and rigidity. .

(実施例9)
実施例9では、カメラ本体1を含むカメラシステムの変形例について図46A,46Bを用いて説明する。
(Example 9)
In the ninth embodiment, a modification of the camera system including the camera body 1 will be described with reference to FIGS. 46A and 46B.

基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例9のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。 Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the ninth embodiment, the same reference numerals are used for the configurations that are the same as those of the camera system of the first embodiment, and redundant descriptions are omitted, and details of different configurations are added each time. to explain.

実施例1では、表示装置800には一般のスマートフォンが利用されていたが、市場のスマートフォンは多数あり、その演算能力も多種多様である。例えば、実施例1の表示装置800は、比較的高い演算能力を備えている。このため、カメラ本体1が超広角画像から切り出した記録方向の映像を表示装置800に転送する際、光学補正処理や防振処理に必要な情報がその映像に付加されていた。この情報に基づき表示装置800が、歪曲収差補正や防振処理を行う。一方、使用者が表示装置800として使用するスマートフォンではこれらの補正を行うには演算能力が低すぎる場合もある。本実施例は、このような場合を想定している。 In Example 1, a general smart phone was used as the display device 800, but there are many smart phones on the market, and their computing capabilities are diverse. For example, the display device 800 of Example 1 has relatively high computing power. For this reason, when the camera body 1 transfers an image in the recording direction cut out from the ultra-wide-angle image to the display device 800, information necessary for optical correction processing and vibration reduction processing is added to the image. Based on this information, the display device 800 performs distortion aberration correction and vibration reduction processing. On the other hand, the smartphone used as the display device 800 by the user may have too low computing power to perform these corrections. This embodiment assumes such a case.

本実施例のカメラシステムは、撮像装置を含むカメラ本体1’及び表示装置800より演算能力が低い表示装置9800を備える。 The camera system of this embodiment includes a camera body 1 ′ including an imaging device and a display device 9800 having lower computing power than the display device 800 .

カメラ本体1’では、映像の一次記録処理までの処理(図7AのステップS100~S600)が終了すると、表示装置9800への転送処理は行われることなく、ステップS800,S900の処理が実行される。その後、カメラ本体1’では、ステップS800,S900の処理が完了した映像を表示装置9800に転送する処理が行われる。 In the camera body 1′, when the processing (steps S100 to S600 in FIG. 7A) up to the primary recording processing of the video is completed, the processing of steps S800 and S900 is executed without performing the transfer processing to the display device 9800. . After that, in the camera body 1', a process of transferring the image for which the processes of steps S800 and S900 have been completed to the display device 9800 is performed.

一方、表示装置9800では、カメラ本体1’からの映像に対して、ステップS800,S900の処理を行うことなく、そのまま二次記録する。 On the other hand, in the display device 9800, the image from the camera body 1' is secondary-recorded as it is without performing the processing of steps S800 and S900.

以下、本実施例のカメラシステムについて具体的に説明する。 The camera system of this embodiment will be specifically described below.

図46Aは、本実施例に係る撮像装置としてのカメラ本体1’と接続する表示装置9800のハードウェア構成を示すブロック図である。 FIG. 46A is a block diagram showing the hardware configuration of a display device 9800 connected to a camera body 1' as an imaging device according to this embodiment.

図46Aでは、図6に示す実施例1に係る表示装置800のハードウェア構成と同一のものについては、同一の符号を付し、重複した説明は省略する。 In FIG. 46A, the same reference numerals are assigned to the same hardware configuration as the display device 800 according to the first embodiment shown in FIG.

表示装置9800は、表示装置制御部801の代わりに表示装置制御部9801を有し、顔センサ806を有していない点で表示装置800と異なる。 The display device 9800 differs from the display device 800 in that it has a display device control unit 9801 instead of the display device control unit 801 and does not have the face sensor 806 .

表示装置制御部9801は、表示装置制御部801(図6)を構成するCPUより演算能力が低いCPUにより構成される。また、内蔵不揮発性メモリ812、一次メモリ813の能力は、実施例1の場合より低くてもよい。 The display device control unit 9801 is configured by a CPU having lower computing power than the CPU configuring the display device control unit 801 (FIG. 6). Also, the capabilities of the built-in nonvolatile memory 812 and the primary memory 813 may be lower than in the first embodiment.

図46Bは、カメラ本体1’の機能ブロック図である。 FIG. 46B is a functional block diagram of the camera body 1'.

図46Bでは、図4に示す実施例1に係るカメラ本体1の機能ブロックと同一のものについては、同一の符号を付し、重複した説明は省略する。 In FIG. 46B, the same reference numerals are given to the same functional blocks as those of the camera body 1 according to the first embodiment shown in FIG. 4, and redundant explanations are omitted.

図46Bに示す機能ブロックは、光学補正処理と防振処理を行う光学補正・防振処理部9080がある点と、全体制御CPU101ではなく全体制御CPU9101の制御により各機能ブロックが実行される点が図4の機能ブロックと異なる。また、送信部70のあらかじめ決められた通信相手の一つが、表示装置800ではなく表示装置9800である点も異なる。 The functional block shown in FIG. 46B has an optical correction/stabilization processing unit 9080 that performs optical correction processing and image stabilization processing, and each functional block is executed under the control of the overall control CPU 9101 instead of the overall control CPU 101. It differs from the functional block in FIG. Another difference is that one of the predetermined communication partners of the transmission unit 70 is the display device 9800 instead of the display device 800 .

すなわち、本実施例では、全体制御部CPU9101の光学補正・防振処理部9080が、光学補正値やジャイロデータを使って、光学歪補正と防振処理を行う。そのため、実施例1で送信部70が表示装置800に転送する映像ファイル1000と比べて、本実施例で送信部70が表示装置9800に転送する光学歪補正と防振処理後の映像ファイルはそのデータ量が少なくなる。 That is, in this embodiment, the optical correction/stabilization processing unit 9080 of the overall control unit CPU 9101 performs optical distortion correction and stabilization processing using optical correction values and gyro data. Therefore, in comparison with the image file 1000 transferred by the transmission unit 70 to the display device 800 in the first embodiment, the image file after the optical distortion correction and image stabilization processing, which is transferred by the transmission unit 70 to the display device 9800 in the present embodiment, is the same. less data.

また、表示装置9800では、ステップS800,S900の処理を行わない分、表示装置800と比べて演算能力を低く抑えることができる。また、スマートウォッチなどで構成される簡易表示装置900(鑑賞部)でもカメラ本体1’で撮像された映像の閲覧が可能となる。 In addition, in the display device 9800, since the processing of steps S800 and S900 is not performed, the computing power can be kept lower than that of the display device 800. FIG. In addition, it is possible to view images captured by the camera body 1' on a simple display device 900 (appreciation unit) such as a smart watch.

(実施例10)
実施例10では、カメラ本体1を含むカメラシステムの変形例について図47及び図48を用いて説明する。基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例10のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
(Example 10)
In the tenth embodiment, a modification of the camera system including the camera body 1 will be described with reference to FIGS. 47 and 48. FIG. Basically, this embodiment will be described as being derived from the first embodiment. For this reason, among the configurations of the camera system of the tenth embodiment, the same reference numerals are used for the configurations that are the same as those of the camera system of the first embodiment, and redundant explanations are omitted, and details of different configurations are added each time. to explain.

実施例9では、演算能力が低い表示装置9800として、カメラ本体1‘に高い性能が求められた。しかし、カメラ本体の能力を上げると全体制御部CPUやその周辺機器のコストが上がったりプロセス負荷による発熱を招いたりすることがある。そこで、実施例10では、カメラ本体側の演算能力を下げ表示装置側での演算を増やした構成を説明する。 In Example 9, as the display device 9800 with low computing power, high performance was required for the camera body 1'. However, if the performance of the camera body is increased, the cost of the overall control unit CPU and its peripheral devices may increase, and heat may be generated due to the process load. Therefore, in the tenth embodiment, a configuration in which the calculation capacity on the camera body side is lowered and the calculation on the display device side is increased will be described.

図47は、本実施例の構成を示すカメラ本体1001と表示装置1080を含むカメラシステムの機能ブロック図である。図4に示す実施例1や図46Bに示す実施例9に掛かるカメラ本体1やカメラ本体1‘の機能ブロック図と同一の物については、同一の符号を付し、重複した説明は省略する。 FIG. 47 is a functional block diagram of a camera system including a camera body 1001 and a display device 1080 showing the configuration of this embodiment. The same components as in the functional block diagram of the camera body 1 and the camera body 1' according to the first embodiment shown in FIG. 4 and the ninth embodiment shown in FIG.

図47に示す機能ブロック図は、記録方向・画角決定部1083、画像の切り出しや、現像を行う画像切り出し・現像処理部1084,光学補正処理と防振処理を行う光学補正・防振処理部1085が、表示装置1080にある点が図4や図46Bと大きく異なる。 The functional block diagram shown in FIG. 47 includes a recording direction/angle of view determination unit 1083, an image cutout/development processing unit 1084 that cuts out and develops an image, and an optical correction/stabilization processing unit that performs optical correction processing and image stabilization processing. 4 and 46B in that 1085 is in the display device 1080 .

カメラ本体1001内には、顔方向検出部20で検出された顔画像を処理する顔画像1次処理部1030,撮影部40で撮影された本映像を処理する本映像一次処理部1050、これらの映像を合成する画像合成部1055が追加され、表示装置1080には、記録方向・画角決定部1083、画像切り出し・現像処理部1084が移動してきており、画像分離部1082が追加されている。また、これら表示装置1080の機能が簡単であった実施例1や実施例9では説明が省略されていた受信部1081が図に追加されている。 In the camera body 1001, there are a face image primary processing unit 1030 for processing the face image detected by the face direction detection unit 20, a main image primary processing unit 1050 for processing the main image taken by the photographing unit 40, and these. An image synthesizing unit 1055 for synthesizing images has been added, a recording direction/angle of view determining unit 1083 and an image clipping/developing processing unit 1084 have been moved to the display device 1080, and an image separating unit 1082 has been added. In addition, a receiving unit 1081 is added to the drawing, the description of which was omitted in the first and ninth embodiments in which the functions of the display device 1080 were simple.

図48のフローチャートを使い、処理の順序を説明する。なお図7Aのフローと同じか類似処理するフローにはステップの番号に10000を加算した数(すなわち上位2桁に「10」を付した番号)を付与することで、説明を省略する。また、説明の補助として、図48では各ステップの右側にそのステップが図47に示すどの機器で行われているかが記載されている。すなわち、図48のステップS10100~S10700はカメラ本体1001にて実行され、ステップS10710~S10950は表示装置1080にて実行される。 The order of processing will be described using the flowchart of FIG. Note that a flow that performs the same or similar processing as the flow in FIG. 7A is given a number obtained by adding 10000 to the step number (that is, a number with "10" added to the upper two digits), and description thereof will be omitted. Also, as an aid to the explanation, in FIG. 48, which device shown in FIG. 47 is performing the step is described on the right side of each step. That is, steps S10100 to S10700 in FIG. 48 are executed by the camera body 1001, and steps S10710 to S10950 are executed by the display device 1080. FIG.

実施例1の図7AではステップS100の準備動作処理後にステップS200で顔方向検出を行っていたが、本実施例ではステップS10100の準備動作処理後、S10200の顔撮影と、S10400の本撮影を同時並行に行う。次いで、S10450で、S10200・S10400で撮影した2つの映像データを結合する。結合の方法は各種考えられるが、2つの映像を1つの映像ファイルにしても良いし、2つの映像のデータのフレームにズレが生じないように関連付けてもよい。 In FIG. 7A of Embodiment 1, the face orientation is detected in step S200 after the preparatory operation process of step S100. do in parallel. Next, in S10450, the two video data shot in S10200 and S10400 are combined. Various methods of combining are conceivable, but the two videos may be combined into one video file, or the data frames of the two videos may be associated so as not to cause a shift.

本実施例では、2つの映像を1映像ファイルにする例をベースにして説明を続ける。S10450で、一次記録された結合画像は、S10700で、表示装置10180に無線送信される。 In this embodiment, the explanation will be continued based on an example in which two videos are made into one video file. At S10450, the primarily recorded combined image is wirelessly transmitted to display device 10180 at S10700.

ステップS10710以降のステップは、表示装置1080にて実行される。ステップS10710では、S10450にて結合された映像を、顔撮影映像と、本撮影映像に再度分離する。ついで、ステップS10720では、分離された顔撮影映像より観察方向を類推する顔方向検出処理を実行する。なお、顔方向検出処理の詳細は実施例1同様図7Cを用いて説明した通りある。 The steps after step S10710 are executed by the display device 1080. FIG. In step S10710, the images combined in S10450 are again separated into face shot images and main shot images. Next, in step S10720, face direction detection processing is executed to analogize the viewing direction from the separated face shot video. The details of the face direction detection process are as described with reference to FIG. 7C, as in the first embodiment.

ステップS10730では、記録方向・範囲決定処理を実行する。ステップS10750では、ステップS10710で分離された本撮影映像に対し、ステップS10730で決定された記録方向、画角情報を用いて、映像を切り出し、その範囲の現像処理を行う記録範囲現像処理を実行する。ステップS10800では、ステップS10750で記録範囲現像された映像に対し光学補正を行う光学補正処理を実行する。ステップS10900では、防振処理を行う。 In step S10730, recording direction/range determination processing is executed. In step S10750, the recording direction and field angle information determined in step S10730 are used to cut out the image from the actual photographed image separated in step S10710, and recording area development processing is executed to develop the area. . In step S10800, optical correction processing is executed to optically correct the image developed in the recording area in step S10750. In step S10900, anti-vibration processing is performed.

もちろん、本実施例でもステップS10800とステップS10900の順番を逆にしても良い。つまり、先に映像の防振処理を行い、あとから光学補正を行っても良い。 Of course, even in this embodiment, the order of steps S10800 and S10900 may be reversed. In other words, image stabilization processing may be performed first, and then optical correction may be performed.

ステップS10950では、表示装置制御部(動画記録手段)が、ステップS10800,S10900における光学補正処理、防振処理を完了した映像を大容量不揮発性メモリ814に記録する二次記録を行い、本処理を終了する。 In step S10950, the display device control unit (moving image recording means) performs secondary recording to record the image for which the optical correction processing and image stabilization processing in steps S10800 and S10900 have been completed in large-capacity nonvolatile memory 814, and performs this processing. finish.

本実施例では、ステップS10700で、本撮影の映像と顔撮影の映像を合成したものをおくったことにより、カメラ本体1001での処理を簡素化でき、コストダウンや発熱の低減が可能となった。なお、実施例1同様ステップS10700の転送時に、角速度センサ107や加速度センサ108から出力されたジャイロデータや姿勢データをあわせて表示装置1080に送信しても良い。 In this embodiment, in step S10700, by sending an image obtained by synthesizing the actual photographing image and the face photographing image, the processing in the camera body 1001 can be simplified, and the cost and heat generation can be reduced. . As in the first embodiment, the gyro data and attitude data output from the angular velocity sensor 107 and the acceleration sensor 108 may also be transmitted to the display device 1080 at the time of transfer in step S10700.

(実施例11)
実施例11では、カメラ本体1を含むカメラシステムの変形例について図49及び図50を用いて説明する。基本的に本実施例は、実施例1からの派生として説明をおこなうが、実施例10とも基本構成が似通るため、実施例11のカメラシステムの構成のうち、実施例11のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
(Example 11)
In the eleventh embodiment, a modification of the camera system including the camera body 1 will be described with reference to FIGS. 49 and 50. FIG. Basically, this embodiment will be described as being derived from the first embodiment, but since the basic configuration is similar to that of the tenth embodiment, the configuration of the camera system of the eleventh embodiment among the configurations of the camera system of the eleventh embodiment The same reference numerals are used for the same configurations as those in the above, and overlapping explanations are omitted.

実施例10では、カメラ本体側の演算能力を下げ表示装置1080側での演算を増やした構成を説明した。この構成は、全体制御CPUの負荷を軽くできるが、送信部70から送信されるデータ量が多くなるため、結果として電力が増え発熱などの課題が残ることがある。 In the tenth embodiment, a configuration has been described in which the computing power on the camera body side is lowered and the computation on the display device 1080 side is increased. Although this configuration can reduce the load on the overall control CPU, the amount of data transmitted from the transmission unit 70 increases, resulting in an increase in power consumption and the problem of heat generation.

また、昨今のカメラ本体に搭載される全体制御CPUには画像処理に特化した回路が含まれるものも開発されつつある。たとえば、本件に必要とされる、顔方向検出程度であれば既に可能なものもあり、コストの増加をおさえ、電力を抑えつつ実現が可能になりつつある。これを利用し、本実施例では、カメラ本体1101で、顔検出し、記録方向・画角決定まで行い、そのデータを付与した本画像を表示装置1180に転送し、画像切り出し・現像処理なども表示装置1180内で行う。 In addition, general control CPUs installed in recent camera bodies are being developed that include circuits specialized for image processing. For example, it is already possible to detect the direction of the face, which is required in this case, and it is becoming possible to realize it while suppressing the increase in cost and power consumption. Utilizing this, in this embodiment, the camera body 1101 detects a face, determines the recording direction and angle of view, transfers the main image to which the data is added to the display device 1180, and performs image cutout, development processing, and the like. This is done within the display device 1180 .

図49は、本実施例の構成を示すカメラ本体1101と表示装置1180を含むカメラシステムの機能ブロック図である。図4に示す実施例1、実施例9、実施例10に掛かるカメラ本体1やカメラ本体1‘カメラ本体1001の機能ブロック図と同一の物については、同一の符号を付し、重複した説明は省略する。 FIG. 49 is a functional block diagram of a camera system including a camera body 1101 and a display device 1180 showing the configuration of this embodiment. The same components as those in the functional block diagram of the camera body 1, the camera body 1', and the camera body 1001 according to the first, ninth, and tenth embodiments shown in FIG. omitted.

画像の切り出しや、現像を行う画像切り出し・現像処理部1184,光学補正処理と防振処理を行う光学補正・防振処理部1185が、表示装置1180にある点が図4や図46Bと異なる。また、画像切り出し・現像処理部が表示装置1180側に移動したことに伴い、本実施例では、全体制御CPU101に、記録方向・画角決定部30までは備えるが、画像切り出し・現像処理部50を備えない。カメラ本体1101内には記録方向・画角情報を撮影部40から出力される本映像に合成する情報合成部1150が追加されている。表示装置1180には、実施例10と同様に1184として、画像切り出し・現像処理部が移動してきており、情報分離部1182が追加され、実施例10と同様に実施例1,実施例9では説明が省略されていた受信部1181が図に追加されている。 4 and 46B in that an image clipping/development processing unit 1184 that performs image clipping and development, and an optical correction/stabilization processing unit 1185 that performs optical correction processing and image stabilization processing are provided in the display device 1180. FIG. Further, in accordance with the fact that the image cutout/development processing unit has been moved to the display device 1180 side, in the present embodiment, the overall control CPU 101 is provided with up to the recording direction/angle of view determination unit 30, but the image cutout/development processing unit 50 not prepared. An information synthesizing unit 1150 is added in the camera body 1101 for synthesizing the recording direction/angle of view information with the main image output from the photographing unit 40 . In the display device 1180, as in the tenth embodiment, an image clipping/development processing unit 1184 has been moved, and an information separation unit 1182 has been added. is added to the figure.

図50のフローチャートを使い、処理の順序を説明する。なお図7Aのフローと同じか類似処理するフローにはステップの番号に11000を加算した数(すなわち上位2桁に「11」を付した番号を付与することで、説明を省略する。また、説明の補助として、図50では各ステップの右側にそのステップが図49に示すどの機器で行われているかが記載されている。すなわち、図50のステップS11100~S11700はカメラ本体1101にて実行され、ステップS11710~S11950は表示装置1180にて実行される。 The order of processing will be described using the flowchart of FIG. It should be noted that a step number plus 11000 (that is, a number with "11" added to the upper two digits) is assigned to a flow that performs the same or similar processing as the flow in FIG. 7A, and the description is omitted. 50, on the right side of each step, which device shown in FIG. Steps S 11710 to S 11950 are executed by display device 1180 .

実施例10ではステップS10200の顔撮影と、S10400の本撮影を同時並行に行った後、S10450で撮影した2つの映像データを結合していたが、実施例11では、ステップS11200で顔撮影したあとS11400で記録方向・範囲決定し記録方向・範囲データを出力している。 In the tenth embodiment, after the face photographing in step S10200 and the main photographing in S10400 are performed in parallel, the two image data photographed in S10450 are combined. In S11400, the recording direction/range is determined and the recording direction/range data is output.

その後、同時並行に実行されたS11300からの本撮影データと、S11400で出力された記録方向・範囲データをステップS11450で情報合成している。 After that, in step S11450, the actual photographing data from S11300 executed in parallel and the recording direction/range data output in S11400 are synthesized.

記録方向・範囲データの合成の方法は各種考えられるが、本実施例11では、本撮影データへのフレーム毎のメタデータとして記録方向・範囲データを記録している。これは図15のメタデータと同じ構成となる。 Various methods of synthesizing the recording direction/range data are conceivable, but in the eleventh embodiment, the recording direction/range data is recorded as the metadata for each frame in the actual photographing data. This has the same configuration as the metadata in FIG.

S11450で、作成された本撮影データはS11600で一次記録され、S11700で、表示装置11180に対して、無線送信される。 The actual photographing data created in S11450 is primarily recorded in S11600, and wirelessly transmitted to the display device 11180 in S11700.

ステップS11710以降のステップは、表示装置1180にて実行される。ステップS11710では、S11450にて結合されたメタデータ付き映像から、記録方向・範囲データと、本撮影映像に再度分離する。 The steps after step S11710 are executed by the display device 1180. FIG. In step S11710, the video with metadata combined in S11450 is separated again into the recording direction/range data and the actually shot video.

ついで、ステップS11750では、ステップS11710で分離された本撮影映像に対し、記録方向、画角情報を用いて映像を切り出し、その範囲の現像処理を行う記録範囲現像処理を実行する。 Next, in step S11750, a recording area development process is executed to cut out an image from the actually shot image separated in step S11710 using the recording direction and angle of view information and to develop the area.

ステップS11800では、ステップS11750で記録範囲現像された映像に対し光学収差を補正する光学補正処理を実行する。ステップS11900では、防振処理を行う。 In step S11800, optical correction processing is executed to correct optical aberration for the image developed in the recording area in step S11750. In step S11900, anti-vibration processing is performed.

もちろん、本実施例でもステップS11800とステップS11900の順番を逆にしても良い。つまり、先に映像の防振処理を行い、あとから光学補正を行っても良い。 Of course, even in this embodiment, the order of steps S11800 and S11900 may be reversed. In other words, image stabilization processing may be performed first, and then optical correction may be performed.

ステップS11950では、表示装置制御部(動画記録手段)が、ステップS11800,S11900における光学補正処理、防振処理を完了した映像を大容量不揮発性メモリ814に記録する二次記録を行い、本処理を終了する。 In step S11950, the display device control unit (moving image recording means) performs secondary recording to record the image for which the optical correction processing and image stabilizing processing in steps S11800 and S11900 have been completed in large-capacity nonvolatile memory 814, and performs this processing. finish.

本実施例では、ステップS11450で、本撮影の映像と記録方向・範囲データをタイムドメタデータとして合成したものをおくったことにより、ステップS11700で送信する映像データの容量を削減でき、電力低減・発熱の低減や、表示装置1180の負荷低減が可能となった。なお、実施例1同様、ステップS11700の転送時に、角速度センサ107や加速度センサ108から主強くされたジャイロデータや姿勢データをあわせて表示装置1180に送信しても良い。 In this embodiment, in step S11450, timed metadata that combines the video of actual shooting and the recording direction/range data is transmitted. It is possible to reduce heat generation and reduce the load on the display device 1180 . As in the first embodiment, the gyro data and attitude data obtained from the angular velocity sensor 107 and the acceleration sensor 108 may also be transmitted to the display device 1180 at the time of transfer in step S11700.

(実施例12)
実施例12では、撮影方向の変更を、撮像ユニットの方向をメカ的に駆動することで実施する構成について図51A~図56を用いて説明する。図51Aは、本実施例におけるカメラ本体1220の外観図である。
(Example 12)
In the twelfth embodiment, a configuration in which the imaging direction is changed by mechanically driving the direction of the imaging unit will be described with reference to FIGS. 51A to 56. FIG. FIG. 51A is an external view of the camera body 1220 in this embodiment.

実施例1で既に説明した部分については同一の番号を付することで、同一機能を意味し、本明細書中の説明を省略する。カメラ本体1220は、撮影・検出部1221、接続部80L及び80R、及びバッテリー部90を備える。 By assigning the same numbers to the parts that have already been described in the first embodiment, they mean the same functions, and the description in this specification is omitted. The camera body 1220 includes an imaging/detection section 1221 , connection sections 80L and 80R, and a battery section 90 .

図51Bは、カメラ本体1220の一部である撮影・検出部1221の詳細を示す斜視図である。撮影・・BR>沛O部1221は、本体1210、ヨー駆動軸1201、ヨー駆動ベース1202、ピッチ駆動軸1203、撮影部40を備える。本体1210は、電源スイッチ11、撮像モードスイッチ12、顔方向検出窓13、スタートスイッチ14、ストップスイッチ15、ヨー駆動モータ1204を備える。 FIG. 51B is a perspective view showing details of the imaging/detection unit 1221 which is a part of the camera body 1220. FIG. Photographing BR> The photographing section 1221 includes a main body 1210 , a yaw drive shaft 1201 , a yaw drive base 1202 , a pitch drive shaft 1203 and the photographing section 40 . A main body 1210 includes a power switch 11 , an imaging mode switch 12 , a face direction detection window 13 , a start switch 14 , a stop switch 15 and a yaw drive motor 1204 .

ヨー駆動モータ1204は、ヨー駆動軸1201を介してヨー駆動ベース1202をヨー方向(左右方向)に駆動する。ヨー駆動ベース1202は、ピッチ駆動モータ1205を備える。ピッチ駆動モータ1205は、ピッチ駆動軸1203を介して撮影部40をピッチ方向(上下方向)に駆動する。 The yaw drive motor 1204 drives the yaw drive base 1202 in the yaw direction (horizontal direction) via the yaw drive shaft 1201 . Yaw drive base 1202 includes pitch drive motor 1205 . The pitch drive motor 1205 drives the imaging unit 40 in the pitch direction (vertical direction) via the pitch drive shaft 1203 .

撮影部40は、撮像レンズ16、不図示の固体撮像素子42を備える。撮像レンズ16は、被写体からの光線を導いて固体撮像素子42に被写体の像を形成する。 The imaging unit 40 includes an imaging lens 16 and a solid-state imaging device 42 (not shown). The imaging lens 16 guides the light beam from the subject and forms an image of the subject on the solid-state imaging device 42 .

図51Cは撮影部40が左に30度回転した状態を示す斜視図であり、図51Dは撮像部40が下30度を向いた状態を示す斜視図である。図51Cに示すように、ヨー駆動モータ1204を駆動することにより、ヨー駆動軸1201以下が左右に回転し、撮影部40の方向をヨー方向に変更することが可能となる。図51Dに示すように、ピッチ駆動モータ1205を駆動することにより、ピッチ駆動軸1202から先が上下に回転し、撮影部40の方向をピッチ方向に変更することが可能となる。 FIG. 51C is a perspective view showing a state in which the photographing unit 40 is rotated 30 degrees to the left, and FIG. 51D is a perspective view showing a state in which the photographing unit 40 faces downward by 30 degrees. As shown in FIG. 51C, by driving the yaw drive motor 1204, the yaw drive shaft 1201 and the rest rotate left and right, making it possible to change the direction of the photographing unit 40 in the yaw direction. As shown in FIG. 51D, by driving the pitch drive motor 1205, the tip of the pitch drive shaft 1202 rotates up and down, making it possible to change the direction of the imaging unit 40 in the pitch direction.

図52は、実施例12に係るカメラ本体1220の機能ブロック図である。ここでは図52を用いてカメラ本体1220で実行される大まかな処理の流れを説明する。なお、以下では図4に対する変更点を説明し、同一の処理に関しては、同一符号を用いることで、説明を省略する。 FIG. 52 is a functional block diagram of a camera body 1220 according to the twelfth embodiment. Here, a rough flow of processing executed by the camera body 1220 will be described using FIG. In the following, changes to FIG. 4 will be described, and descriptions of the same processes will be omitted by using the same reference numerals.

図52において、カメラ本体1220は、顔方向検出部20、撮影部駆動部1230、撮影部40、現像部1250、一次記録部60、送信部70、及び他制御部111を備える。これらの機能ブロックは、カメラ本体1220の全体制御を行う全体制御CPU101(図53)の制御により実行される。 52, a camera body 1220 includes a face direction detection section 20, an imaging section driving section 1230, an imaging section 40, a developing section 1250, a primary recording section 60, a transmission section 70, and other control section 111. FIG. These functional blocks are executed under the control of the general control CPU 101 (FIG. 53) that controls the camera body 1220 as a whole.

顔方向検出部20は、顔方向を検出して観察方向を類推し、これを撮影部駆動部1230に渡す。撮影部駆動部1230は、顔方向検出部20で類推された観察方向及び、角速度センサ107、加速度センサ108の出力に基づき各種演算を行って、撮影部40を駆動して撮影方向及び撮影画角を変更する。 The face direction detection unit 20 detects the face direction, infers the viewing direction, and passes it to the imaging unit driving unit 1230 . The imaging unit driving unit 1230 performs various calculations based on the observation direction estimated by the face direction detection unit 20 and the outputs of the angular velocity sensor 107 and the acceleration sensor 108, and drives the imaging unit 40 to determine the imaging direction and imaging angle of view. to change

撮影部40は、被写体からの光線を映像に変換し、その映像を現像部1250に渡す。現像部1250(現像手段)は、撮影部40からの映像を現像し、使用者が見ている方向の映像を一次記録部60に渡す。一次記録部60は、必要タイミングで送信部70に渡す。送信部70は、あらかじめ決められた通信相手である、表示装置800(図1D)、キャリブレータ850、及び簡易表示装置900と無線接続し、これらに対して通信を行う。 The photographing unit 40 converts the light beam from the object into an image and transfers the image to the developing unit 1250 . The developing section 1250 (developing means) develops the image from the photographing section 40 and passes the image in the direction in which the user is looking to the primary recording section 60 . The primary recording unit 60 passes it to the transmitting unit 70 at the required timing. The transmission unit 70 wirelessly connects with the display device 800 (FIG. 1D), the calibrator 850, and the simple display device 900, which are predetermined communication partners, and communicates with them.

図53は、実施例12に係るカメラ本体1220のハードウェア構成を示すブロック図である。以下では実施例1の図5との差分のみを説明する。図53においてカメラ本体1220は、位相検知センサ1206、及びモータ駆動回路1207を備える。位相検知センサ1206は、撮像部40のピッチとヨーの位相を検知して全体制御CPU101に出力する。 FIG. 53 is a block diagram showing the hardware configuration of a camera body 1220 according to the twelfth embodiment. Only differences from FIG. 5 of the first embodiment will be described below. A camera body 1220 in FIG. 53 includes a phase detection sensor 1206 and a motor drive circuit 1207 . A phase detection sensor 1206 detects the pitch and yaw phases of the imaging unit 40 and outputs them to the overall control CPU 101 .

モータ駆動回路1207は全体制御CPU101によって制御され、撮像部40を所望の方向に所望の駆動速度で駆動する。 The motor driving circuit 1207 is controlled by the overall control CPU 101 to drive the imaging section 40 in a desired direction at a desired driving speed.

以下、カメラ本体1及び表示装置800の使い方について説明する。図54は、カメラ本体1220及び表示装置800において実行される、本実施例に係る撮像記録処理の概要を示すフローチャートである。説明の補助として、図54では各ステップの右側にそのステップが図52に示すどの機器で行われているかが記載されている。 How to use the camera body 1 and the display device 800 will be described below. FIG. 54 is a flow chart showing an overview of image recording processing according to this embodiment, which is executed in the camera body 1220 and the display device 800. As shown in FIG. As an aid to the explanation, in FIG. 54, which device shown in FIG. 52 is performing the step is described on the right side of each step.

ステップS100では、電源スイッチ11がONとなり、カメラ本体1に電源投入がされると、全体制御CPU101は、起動して内蔵不揮発性メモリ102から起動プログラムを読み出す。その後、全体制御CPU101は、カメラ本体1の撮像前の設定を行う準備動作処理を実行する。 In step S100, when the power switch 11 is turned on and the camera body 1 is powered on, the overall control CPU 101 is activated and reads out the activation program from the built-in non-volatile memory 102. FIG. After that, the overall control CPU 101 executes preparatory operation processing for setting the camera body 1 before imaging.

ステップS200では、顔方向検出部20が顔方向を検出することで、観察方向を類推する顔方向検出処理を実行する。本処理は、所定のフレームレートで実行される。 In step S200, the face direction detection unit 20 detects the face direction, and performs face direction detection processing for analogizing the viewing direction. This process is executed at a predetermined frame rate.

ステップS12300では、撮影部駆動部1230が撮影部40の駆動量の算出と駆動制御を実施する撮影部駆動処理を行う。撮影部駆動処理の詳細は図55を用いて後述する。 In step S12300, imaging unit driving unit 1230 performs imaging unit driving processing for calculating the driving amount of imaging unit 40 and performing drive control. The details of the imaging unit driving process will be described later with reference to FIG.

ステップS400では、撮影部40が撮像を行い、撮像データを生成する。ステップS12500では、現像部1250がステップS400で生成された撮像データの現像処理を行う現像処理を実行する。現像処理の詳細は図56を用いて後述する。 In step S400, the imaging unit 40 performs imaging and generates imaging data. In step S12500, development unit 1250 executes development processing for developing the imaging data generated in step S400. Details of the development processing will be described later with reference to FIG.

ステップS600では、ステップS12500で現像された映像を、一次記録部60(映像記録手段)が一次メモリ103に映像データとして保存する一次記録処理を実行する。ステップS700では、送信部70がステップS600で一次記録された映像を指定タイミングにて表示装置800に対して無線にて送信する表示装置800への転送処理を実行する。 In step S600, primary recording section 60 (image recording means) executes primary recording processing in which the image developed in step S12500 is stored in primary memory 103 as image data. In step S700, the transmission unit 70 executes a transfer process to the display device 800 for wirelessly transmitting the video primarily recorded in step S600 to the display device 800 at a designated timing.

ステップS800以降のステップは、表示装置800にて実行される。ステップS800では、表示装置制御部801が、ステップS700でカメラ本体1から転送された映像に対し光学収差を補正する光学補正処理を実行する。 The steps after step S<b>800 are executed by display device 800 . In step S800, the display device control unit 801 executes optical correction processing for correcting optical aberrations on the image transferred from the camera body 1 in step S700.

ステップS900では、表示装置制御部801が、ステップS800で光学収差が補正された映像に対し防振処理を行う。尚、ステップS800とステップS900の順番を逆にしても良い。つまり、先に映像の防振処理を行い、あとから光学補正を行っても良い。 In step S900, the display device control unit 801 performs image stabilizing processing on the image whose optical aberration has been corrected in step S800. Note that the order of steps S800 and S900 may be reversed. In other words, image stabilization processing may be performed first, and then optical correction may be performed.

ステップS1000では、表示装置制御部801(動画記録手段)が、ステップS800,S900における光学補正処理、防振処理を完了した映像を大容量不揮発性メモリ814に記録する二次記録を行い、本処理を終了する。 In step S1000, the display device control unit 801 (moving image recording means) performs secondary recording to record the image for which the optical correction processing and image stabilization processing in steps S800 and S900 have been completed in the large-capacity nonvolatile memory 814. exit.

図55は、図54で説明した撮影部駆動処理のステップS12300のサブルーチンのフローチャートである。ステップS12301では、全体制御CPU101が、角速度センサ107、加速度センサ108、及び位相検知センサ1206の出力を取得する。 FIG. 55 is a flowchart of the subroutine of step S12300 of the imaging unit driving process described with reference to FIG. In step S12301, the overall control CPU 101 acquires the outputs of the angular velocity sensor 107, acceleration sensor 108, and phase detection sensor 1206. FIG.

ステップS12302では、ステップS212(図7C)で記録された観察方向及び、ステップS12301で取得した各種センサの出力を基に、全体制御CPU101が、ピッチ駆動モータ1205、ヨー駆動モータ1204の制御量を算出する。この時の制御は目標値に対するフィードバック制御及び防振制御であり、既知の制御法を用いて算出すればよい。 In step S12302, based on the observation direction recorded in step S212 (FIG. 7C) and the outputs of various sensors acquired in step S12301, the overall control CPU 101 calculates the control amounts of the pitch drive motor 1205 and yaw drive motor 1204. do. The control at this time is feedback control and anti-vibration control for the target value, and may be calculated using a known control method.

全体制御CPU101は、ステップS12302で算出された制御値に基づいて、モータ駆動回路1207を制御して(ステップS12303)、ピッチ駆動モータ1205、及びヨー駆動モータ1204を駆動させ(ステップS12304)、この処理を終了させる(ステップS12305)。 The overall control CPU 101 controls the motor drive circuit 1207 (step S12303) based on the control value calculated in step S12302 to drive the pitch drive motor 1205 and the yaw drive motor 1204 (step S12304). is ended (step S12305).

図56は、図54で説明したステップS12500の現像処理のサブルーチンのフローチャートである。図7Eとの差分はステップS502のXi,Yi,WXi,WYi取得が無く、ステップS501で全領域Rawデータ取得した後、すぐにS503の色補完に進むことだけである。 FIG. 56 is a flow chart of the development processing subroutine of step S12500 described in FIG. The only difference from FIG. 7E is that Xi, Yi, WXi, and WYi are not obtained in step S502, and that after obtaining raw data for all areas in step S501, the process immediately proceeds to color interpolation in step S503.

尚、撮像モードスイッチ12で選択されているモードが動画モードである場合、ステップS200、及びS12300の処理と、ステップS400、ステップS12500、及びステップS600の処理は、平行して実行される。つまり、撮影部40での撮影を続けながら、観察方向検出結果に基づいて撮影部40の駆動を続ける。 If the mode selected by the imaging mode switch 12 is the moving image mode, the processing of steps S200 and S12300 and the processing of steps S400, S12500 and S600 are executed in parallel. In other words, the driving of the imaging unit 40 is continued based on the observation direction detection result while the imaging unit 40 continues imaging.

以上説明したような構成及び制御で撮影を行うことによって、使用者は撮影行為を意識することなく、撮影部40を使用者の観察方向に向けて撮影を行うことが可能となる。 By performing photographing with the configuration and control described above, it is possible for the user to direct the photographing section 40 toward the user's observation direction and perform photographing without being conscious of the photographing action.

(実施例13)
実施例13は、Deep Learning等の機械学習を利用して顔方向を検出するものである。近年、目や鼻等の特徴点を検出することなく、顔方向を検出する機械学習のモデルが提案されている(参考文献Fine-Grained Head Pose Estimation Without Keypoints(2017))。これらの機械学習モデルを利用することで、鎖骨位置に設置し、上方向を撮影した画像を用いて顔方向を検出することができる。
(Example 13)
The thirteenth embodiment detects the face direction using machine learning such as Deep Learning. In recent years, a machine learning model has been proposed that detects face orientation without detecting feature points such as eyes and nose (reference: Fine-Grained Head Pose Estimation Without Keypoints (2017)). By using these machine learning models, it is possible to detect the direction of the face by using an image that is placed at the collarbone position and photographed in the upward direction.

図57は本実施例に係るカメラ本体のハードウェア構成を表すブロック図である。集光レンズ1311は、顔からの反射光を集光するレンズである。顔画像撮影装置1312は、撮影部40と同様に撮像ドライバー、固体撮像素子、撮像信号処理回路等で構成され、顔画像を撮影する。 FIG. 57 is a block diagram showing the hardware configuration of the camera body according to this embodiment. The condensing lens 1311 is a lens that condenses reflected light from the face. The face image capturing device 1312 is composed of an image capturing driver, a solid-state image sensor, an image signal processing circuit, and the like, similarly to the image capturing unit 40, and captures a face image.

実施例1では、赤外反射光線25の有・無の差により使用者の顎付近の映像と背景を分離していた。一方、実施例13の様に機械学習を利用して顔方向を検出する場合、顔方向検出部20の構成において赤外LED点灯回路が不要となり、撮影部40と同等の、自然光を撮像する撮影部を利用することができる。 In Example 1, the image near the user's chin and the background are separated by the presence or absence of the reflected infrared rays 25 . On the other hand, when the face direction is detected using machine learning as in the thirteenth embodiment, an infrared LED lighting circuit is not required in the configuration of the face direction detection unit 20, and an image capturing operation using natural light, which is equivalent to the image capturing unit 40, is performed. part can be used.

顔方向算出装置1313は、Deep Learningの中心的な処理であるフィルタ演算を高速に行うものである。顔方向算出装置1313は、ASICやFPGAを利用した専用の処理装置としてもよいし、全体制御CPU101を利用して処理するものとしてもよい。 The face direction calculation device 1313 performs filter calculation, which is the central processing of Deep Learning, at high speed. The face direction calculation device 1313 may be a dedicated processing device using ASIC or FPGA, or may be processed using the overall control CPU 101 .

予め学習したパラメータを顔方向算出装置13143に設定し、顔画像撮影装置1312の出力である画像を顔方向算出装置13143に入力することによって、顔方向を表す角度情報を得ることができる。顔方向を検出するためのパラメータの学習には、顔画像に正解となる垂直および水平方向の角度情報を付与した多数の学習用画像が必要となる。 By setting the parameters learned in advance in the face direction calculation device 13143 and inputting the image output from the face image capturing device 1312 to the face direction calculation device 13143, angle information representing the face direction can be obtained. To learn the parameters for detecting face direction, a large number of learning images are required, which are obtained by adding correct vertical and horizontal angle information to face images.

図58は、学習用画像の例を表す模式図であり、(a)は水平方向0度、垂直方向0度、(b)は水平方向30°、垂直方向0度、(c)は水平方向0度、垂直方向30 °の状態で撮影された顔画像を表している。学習用画像は、顔方向の検出範囲において、例えば10度刻みに顔を動かし、それぞれの角度において例えば100枚程度の複数の画像を撮影して利用する。 FIG. 58 is a schematic diagram showing an example of a learning image, (a) is 0 degrees in the horizontal direction and 0 degrees in the vertical direction, (b) is 30 degrees in the horizontal direction and 0 degrees in the vertical direction, and (c) is in the horizontal direction. A face image captured at 0 degrees and 30 degrees in the vertical direction is shown. For the learning image, the face is moved, for example, in increments of 10 degrees within the detection range of the face direction, and a plurality of images, for example, about 100, are taken at each angle and used.

例えば、顔方向の検出範囲を水平方向が-60度~60度、垂直方向が-60度~50度であるとすると、顔の水平方向の角度を一定に保ったまま垂直方向の角度を-60度~50度に10度刻みに変化させて学習用画像の撮影を行い、次に顔の水平方向の角度を10度変化させて同様の撮影を行うということを、顔の水平方向の範囲-60度~60度の範囲で繰り返して学習用画像を撮影する。 For example, if the detection range of the face direction is -60 degrees to 60 degrees in the horizontal direction and -60 degrees to 50 degrees in the vertical direction, the vertical angle of the face will be changed to - while keeping the horizontal angle of the face constant. The horizontal range of the face is obtained by taking training images while changing the angle from 60 degrees to 50 degrees in increments of 10 degrees, and then taking similar pictures while changing the angle of the face in the horizontal direction by 10 degrees. Learning images are repeatedly photographed in the range of -60 degrees to 60 degrees.

また、学習用画像は、様々なユーザや状況に対応するために、顔の角度以外にも様々な条件を網羅するように撮影する必要がある。例えば、想定されるユーザの体格、年齢、性別を網羅するように被写体を選定し、また、室内、屋外等、想定される背景の差異を吸収できるよう、幅広く学習用画像を用意する必要がある。 In addition, learning images need to be captured to cover various conditions other than the angle of the face in order to deal with various users and situations. For example, it is necessary to select subjects that cover the assumed user's physique, age, and gender, and to prepare a wide range of training images so that differences in the assumed background, such as indoors and outdoors, can be absorbed. .

図59は、機械学習を利用して顔方向を検出する処理を表すフローチャートである。まず、撮影部1311を利用して顔画像を撮影する(ステップ1331)。次に撮影された画像を顔方向算出装置1314へ入力するための大きさにリサイズする(ステップ1332)。次にリサイズされた画像を顔方向算出装置1314へ入力し、顔方向を算出する(ステップ1333)。 FIG. 59 is a flow chart showing processing for detecting face direction using machine learning. First, the photographing unit 1311 is used to photograph a face image (step 1331). Next, the photographed image is resized to a size for input to the face direction calculation device 1314 (step 1332). Next, the resized image is input to the face direction calculator 1314 to calculate the face direction (step 1333).

Deep Learning等の機械学習の処理においては一般に、顔方向等の処理結果に加えて、処理結果の確からしさを表す信頼度が合わせて算出される。ステップ1334ではこの信頼度が予め定められた閾値以上であるか否かを判定する。ステップ1334で信頼度が閾値以上であった場合、ステップ1333で算出された顔方向を新しい顔方向として設定する(ステップ1335)。つまり、顔方向は更新される。ステップ1334で信頼度が閾値以下であった場合、顔方向は更新されない。 In machine learning processing such as Deep Learning, generally, in addition to processing results such as face direction, a reliability indicating the likelihood of the processing result is also calculated. At step 1334, it is determined whether or not this reliability is greater than or equal to a predetermined threshold. If the reliability is greater than or equal to the threshold in step 1334, the face direction calculated in step 1333 is set as a new face direction (step 1335). That is, the face direction is updated. If the confidence is less than or equal to the threshold at step 1334, the face orientation is not updated.

以上説明してきたように、実施例13によればDeep Learning等の機械学習を利用して顔方向を検出することができる。 As described above, according to the thirteenth embodiment, the face direction can be detected using machine learning such as Deep Learning.

(実施例14)
実施例14は、ToF(Time Of Flight)カメラを利用して顔方向を検出するものである。図60は、本実施例に係るカメラ本体のハードウェア構成を表すブロック図である。
(Example 14)
A fourteenth embodiment detects the face direction using a ToF (Time Of Flight) camera. FIG. 60 is a block diagram showing the hardware configuration of the camera body according to this embodiment.

ToF装置1411は、発光源を持っており、発光源から発した光が被写体に反射して戻ってくる反射光を利用して被写体までの距離を測定するものである。本実施例においては、被写体は使用者の顔である。 The ToF device 1411 has a light emitting source, and measures the distance to the subject using reflected light that is emitted from the light emitting source and reflected back to the subject. In this embodiment, the subject is the user's face.

ToFにおける距離算出方式は主に2種類あり、発光源から発せられた光が被写体に反射して戻ってくるまでの時間差を計測するDirect ToF方式と、発光源を周期的に発光させ、反射光との位相差を検出することで距離を測定するIndirect ToF方式がある。本実施例においては何れの方式のToFであっても利用可能である。ToF装置1411は、測定した距離情報を2次元にマッピングすることによって、距離情報を表す画像(距離画像)を作成する。 There are mainly two types of distance calculation methods in ToF: the Direct ToF method, which measures the time difference between the time it takes for the light emitted from the light source to be reflected by the subject and return, and the Direct ToF method, which periodically emits light from the light source and calculates the There is an Indirect ToF method that measures the distance by detecting the phase difference between the . In this embodiment, any type of ToF can be used. The ToF device 1411 creates an image (distance image) representing the distance information by two-dimensionally mapping the measured distance information.

図61(a)は、ToF装置1411を鎖骨位置に設置し、上方向を測定した場合の距離画像を表す模式図である。図61(a)では、距離の近い部分を白、距離の遠い部分を黒で表している。図61(a)の距離画像は、1421は首の付け根から鼻先にかけての顔領域1421と、背景に写りこんだ物体1422を含む。顔方向算出装置1412は、ToF装置1411によって作成された距離画像を元に顔方向を算出する。本実施例では、顔方向算出装置1412は、全体制御CPU101であるものとするがこれに限られるものではなく、例えば専用のCPUを利用するなどしてもよい。 FIG. 61(a) is a schematic diagram showing a distance image when the ToF device 1411 is installed at the clavicle position and the upward direction is measured. In FIG. 61(a), a short distance portion is shown in white, and a long distance portion is shown in black. A distance image 1421 in FIG. 61(a) includes a face region 1421 from the base of the neck to the tip of the nose and an object 1422 reflected in the background. A face direction calculation device 1412 calculates a face direction based on the distance image created by the ToF device 1411 . In this embodiment, the face direction calculation device 1412 is assumed to be the general control CPU 101, but it is not limited to this, and for example, a dedicated CPU may be used.

図62は、顔方向の算出処理を表すフローチャートである。全体制御CPU101はまず、ToF装置1411によって作成された距離画像から顔部分を抽出する(ステップ1431)。ToF装置1411を鎖骨位置に設置して測定を行った場合、測定対象となる顔は近距離に位置し、それ以外の物体は遠距離に位置することになる。すなわち、図61(a)の距離画像に閾値処理を適用し、画素値が閾値以下である画素を黒画素とすることで顔部分のみを抽出することができる。閾値は予め定めた固定値としてもよいし、画像の内容に応じて適応的に閾値を算出するようにしてもよい。 FIG. 62 is a flowchart showing face direction calculation processing. The overall control CPU 101 first extracts a face portion from the distance image created by the ToF device 1411 (step 1431). When the ToF device 1411 is installed at the position of the clavicle for measurement, the face to be measured is located at a short distance, and other objects are located at a long distance. That is, by applying threshold processing to the distance image in FIG. 61(a) and making pixels whose pixel values are equal to or less than the threshold as black pixels, it is possible to extract only the face portion. The threshold may be a predetermined fixed value, or may be adaptively calculated according to the content of the image.

図61(b)は図61(a)の距離画像に閾値処理を施して顔部分を抽出した画像を表す模式図である。図61(b)に示すように、図61(a)で背景にあった物体1422は閾値以下であるために黒画素となり、顔1421のみが抽出されている。 FIG. 61(b) is a schematic diagram showing an image obtained by subjecting the distance image of FIG. 61(a) to threshold processing and extracting a face portion. As shown in FIG. 61(b), the object 1422 in the background in FIG. 61(a) becomes a black pixel because it is equal to or less than the threshold, and only the face 1421 is extracted.

次に、図61(b)の画像を距離情報に応じて領域に分割する(ステップ1432)。図61(c)は、領域分割した画像を表す模式図である。図61(c)では、顔領域1421が、一番距離の近い領域14211から最も距離の遠い領域14216まで、6つの領域に分割された様子を表している。 Next, the image in FIG. 61(b) is divided into regions according to the distance information (step 1432). FIG. 61(c) is a schematic diagram showing a region-divided image. FIG. 61C shows how the face area 1421 is divided into six areas, from the closest area 14211 to the farthest area 14216 .

次に、首元位置(首回転中心)を抽出する(ステップ1433)。実施例1で説明したように、首元位置は最も距離の近い領域14211の中にあり、その場所は領域14211の左右の中心となる。従って、図61(d)の点14217を首元位置に設定する。全体制御CPU101は次に顎先位置を抽出する(ステップ1434)。 Next, the neck position (neck rotation center) is extracted (step 1433). As described in the first embodiment, the neck position is in the region 14211 that is the closest, and the location is the center of the region 14211 on the left and right. Therefore, point 14217 in FIG. 61(d) is set as the neck position. The overall control CPU 101 then extracts the chin position (step 1434).

実施例1で説明したように、顎先位置は距離が急激に遠くなる領域14215の手前の領域14214にある。従って、全体制御CPU101は、領域14214の左右の中心でかつ首元位置14217から一番遠い位置である、図61(d)の点14218を顎先位置として設定する。 As described in Example 1, the tip of the chin is located in the area 14214 before the area 14215 where the distance increases rapidly. Therefore, the overall control CPU 101 sets a point 14218 in FIG. 61(d), which is the center of the region 14214 in the left and right direction and the farthest position from the neck position 14217, as the chin position.

首元位置および顎先位置が決定すると、次に顔の水平方向および垂直方向の角度を検出し、方向ベクトルとして記録する(1435)。顔の水平方向の角度は、首元位置および顎先位置に基づいて、実施例1で説明した方法で検出することができる。また、ToFカメラを利用して距離画像を取得する場合、顎先位置が決定すると、その距離は既知のものとなるため、垂直方向の顔角度についても実施例1で説明した方法で検出することができる。 Once the neck and chin positions are determined, the horizontal and vertical angles of the face are then detected and recorded as direction vectors (1435). The horizontal angle of the face can be detected by the method described in the first embodiment based on the neck position and the chin position. In addition, when acquiring a distance image using a ToF camera, once the chin position is determined, the distance is known, so the vertical face angle can also be detected by the method described in the first embodiment. can be done.

全体制御CPU101は、水平および垂直方向の顔角度を検出し、使用者の観察方向viとして一次メモリ103に保存する。 The general control CPU 101 detects the horizontal and vertical face angles and stores them in the primary memory 103 as the viewing direction vi of the user.

以上説明してきたように実施例14によれば、ToFカメラを利用して顔方向を検出することができる。 As described above, according to the fourteenth embodiment, the face direction can be detected using the ToF camera.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。また、一部機能を利用しないなどの物も含まれる。撮影方向だけでなく、画角変更も含む例で説明した実施例もあるが、画角変更しなく例でも実施可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist. It also includes things such as not using some functions. Although some embodiments have been described in which not only the imaging direction but also the angle of view are changed, the example can also be implemented without changing the angle of view.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実行可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

1 カメラ本体
10 撮影・検出部
11 電源スイッチ
12 撮像モードスイッチ
13 顔方向検出窓
14 スタートスイッチ
15 ストップスイッチ
16 撮像レンズ
17 LED
18 胸部接続パッド
19L,19R マイク
20 顔方向検出部
30 記録方向・画角決定部
40 撮影部
50 画像切り出し・現像処理部
60 一次記録部
70 送信部
80 接続部
81 角度保持部
82 バンド部
83 接続面
84 電気ケーブル
90 バッテリー部
91 充電ケーブル挿入口
92L,92R 調整用ボタン
93 背骨よけ切り欠き
94 バッテリー
101 全体制御CPU
102 内蔵不揮発性メモリ
103 一次メモリ
105 スピーカー
106 振動体
107 角速度センサ
108 加速度センサ
805 インカメラ
806 顔センサ
800 表示装置
801 表示装置制御部
807 角速度センサ
808 加速度センサ
809 撮像信号処理回路
850 キャリブレータ
900 簡易表示装置
901 アクションカメラ
902 頭部固定アクセサリー
903 全天球型撮影カメラ
904 レンズ
905 撮影用ボタン
5100 測距センサ
8100 角度調節機構
1 camera body 10 photographing/detecting unit 11 power switch 12 imaging mode switch 13 face direction detection window 14 start switch 15 stop switch 16 imaging lens 17 LED
18 chest connection pad 19L, 19R microphone 20 face direction detection unit 30 recording direction/angle of view determination unit 40 photographing unit 50 image cutting/development processing unit 60 primary recording unit 70 transmission unit 80 connection unit 81 angle holding unit 82 band unit 83 connection Surface 84 Electric Cable 90 Battery Part 91 Charging Cable Insertion Port 92L, 92R Adjustment Button 93 Backbone Protection Notch 94 Battery 101 Overall Control CPU
102 built-in nonvolatile memory 103 primary memory 105 speaker 106 vibrator 107 angular velocity sensor 108 acceleration sensor 805 in-camera 806 face sensor 800 display device 801 display device control unit 807 angular velocity sensor 808 acceleration sensor 809 imaging signal processing circuit 850 calibrator 900 simple display device 901 action camera 902 head fixing accessory 903 omnidirectional camera 904 lens 905 shooting button 5100 ranging sensor 8100 angle adjusting mechanism

Claims (66)

使用者の頭部以外の身体上に装着され、前記使用者の観察方向を検出する観察方向検出手段と、
前記使用者の身体上に装着され、映像を撮像する撮像手段と、
前記撮像手段より撮像された映像に基づいて、前記観察方向に対応する映像を出力する映像出力手段とを備えることを特徴とする撮像装置。
Observation direction detection means that is worn on the user's body other than the head and detects the observation direction of the user;
an imaging means that is worn on the user's body and captures an image;
An image pickup apparatus, comprising image output means for outputting an image corresponding to the observation direction based on the image picked up by the image pickup means.
前記観察方向検出手段は、前記使用者の観察方向を3次元で検出することを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, wherein said observation direction detection means detects the observation direction of said user in three dimensions. 前記観察方向検出手段は、前記使用者の顔の左右方向の観察方向を、第1の検出方向の角度として出力し、前記使用者の顔の上下方向の観察方向を、前記第1の検出方向に対して垂直な第2の検出方向の角度として出力することを特徴とする請求項1又は2記載の撮像装置。 The observation direction detection means outputs the horizontal observation direction of the user's face as an angle of the first detection direction, and outputs the vertical observation direction of the user's face as the first detection direction. 3. The imaging apparatus according to claim 1, wherein the output is as an angle of the second detection direction perpendicular to . 前記観察方向検出手段は、赤外線を使用者の赤外線照射面に照射する赤外線照射手段と、前記赤外線照射面で反射された前記赤外線の反射光を検出する赤外線検出手段とを備えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The observation direction detection means includes infrared irradiation means for irradiating an infrared irradiation surface of the user with infrared rays, and infrared detection means for detecting the reflected light of the infrared rays reflected by the infrared irradiation surface. The imaging device according to any one of claims 1 to 3. 前記観察方向検出手段は、前記赤外線検出手段により検出した前記赤外線の反射光から前記赤外線照射面の複数の距離エリアにおける距離情報をそれぞれ取得し、当該距離情報に基づいて前記観察方向を検出することを特徴とする請求項4記載の撮像装置。 The observation direction detection means obtains distance information in a plurality of distance areas of the infrared irradiation surface from the reflected infrared light detected by the infrared detection means, and detects the observation direction based on the distance information. 5. The imaging apparatus according to claim 4, characterized by: 前記観察方向検出手段は、前記距離情報に基づいて前記使用者の首回転中心と顎先の位置を検出し、該首回転中心と顎先の位置から前記観察方向を検出することを特徴とする請求項5記載の撮像装置。 The observation direction detection means detects the positions of the neck rotation center and the tip of the chin of the user based on the distance information, and detects the observation direction from the positions of the neck rotation center and the tip of the chin. 6. The imaging device according to claim 5. 前記観察方向検出手段は、前記複数の距離エリアのうち、前記赤外線検出手段と相対的に至近距離である距離エリアにあって、該距離エリアの左右の中心、且つ最も至近距離である位置に首回転中心を設定することを特徴とする請求項6記載の撮像装置。 The observation direction detection means is located in a distance area that is relatively close to the infrared detection means, among the plurality of distance areas, and is located at the center of the distance area in the left and right direction and at the closest distance. 7. The imaging apparatus according to claim 6, wherein a center of rotation is set. 前記観察方向検出手段は、前記複数の距離エリアのうち、距離変化が相対的に大きい距離エリアの近傍で且つ前記首回転中心から一番遠い位置に顎先位置を設定することを特徴とする請求項6又は7記載の撮像装置。 The observation direction detection means sets the chin position to a position closest to a distance area having a relatively large distance change and farthest from the center of neck rotation among the plurality of distance areas. 8. The imaging device according to item 6 or 7. 前記観察方向検出手段は、前記使用者の顔の左右方向の観察方向を、第1の検出方向の角度として出力し、前記使用者の顔の上下方向の観察方向を、前記第1の検出方向に対して垂直な第2の検出方向の角度として出力し、
前記観察方向検出手段は、前記首回転中心を中心とする前記顎先位置の移動角度を、前記第1の検出方向の角度として算出することを特徴とする請求項8記載の撮像装置。
The observation direction detection means outputs the horizontal observation direction of the user's face as an angle of the first detection direction, and outputs the vertical observation direction of the user's face as the first detection direction. output as the angle of the second detection direction perpendicular to
9. The imaging apparatus according to claim 8, wherein said observation direction detection means calculates the movement angle of said chin position around said neck rotation center as the angle of said first detection direction.
前記観察方向検出手段は、前記使用者の顔の左右方向の観察方向を、第1の検出方向の角度として出力し、前記使用者の顔の上下方向の観察方向を、前記第1の検出方向に対して垂直な第2の検出方向の角度として出力し、
前記顎先位置の前記反射光の光強度を基に、前記第2の検出方向の角度を算出することを特徴とする請求項8又は9記載の撮像装置。
The observation direction detection means outputs the horizontal observation direction of the user's face as an angle of the first detection direction, and outputs the vertical observation direction of the user's face as the first detection direction. output as the angle of the second detection direction perpendicular to
10. The imaging apparatus according to claim 8, wherein the angle of the second detection direction is calculated based on the light intensity of the reflected light at the chin position.
前記映像出力手段は、前記撮像手段より撮像された映像のうち、前記観察方向に対応する映像を切り出して出力することを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。 11. The imaging apparatus according to any one of claims 1 to 10, wherein said image output means cuts out and outputs an image corresponding to said observation direction from images picked up by said imaging means. 前記撮像装置は、無線接続するキャリブレータを用いて前記観察方向検出手段のキャリブレーションを実行するキャリブレーション手段を更に備え、
前記キャリブレータは、赤外線を投光して前記使用者の顔を検出する顔検出手段を備え、
前記観察方向検出手段は、前記顔検出手段が前記赤外線を投光している期間は、前記観察方向の検出を行わないことを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。
The imaging device further comprises calibration means for performing calibration of the viewing direction detection means using a wirelessly connected calibrator,
The calibrator includes face detection means for detecting the user's face by projecting infrared rays,
12. The imaging according to any one of claims 1 to 11, wherein the observation direction detection means does not detect the observation direction while the face detection means projects the infrared rays. Device.
前記映像出力手段に出力される各フレームの映像に対する、前記観察方向に対応する映像の大きさ及び位置を示す映像内位置情報を含むメタデータを生成するメタデータ生成手段を有し、
前記映像出力手段は、前記メタデータと前記各フレームの映像とがフレーム毎にエンコードされた映像ファイルを生成することを特徴とする特徴とする請求項1乃至12のいずれか1項に記載の撮像装置。
metadata generating means for generating metadata including intra-video position information indicating the size and position of the video corresponding to the observation direction, for video of each frame output to the video output means;
13. The imaging according to any one of claims 1 to 12, wherein the video output means generates a video file in which the metadata and the video of each frame are encoded for each frame. Device.
前記撮像手段における撮像レンズの光学設計に基づく光学補正値を取得する光学補正値取得手段を更に有し、
前記光学補正値は前記メタデータに含まれることを特徴とする請求項13に記載の撮像装置。
further comprising optical correction value obtaining means for obtaining an optical correction value based on the optical design of the imaging lens in the imaging means;
14. The imaging apparatus according to claim 13, wherein the optical correction value is included in the metadata.
前記撮像装置の動きを検出し移動量を取得する移動量検出手段を更に有し、
前記移動量は前記メタデータに含まれることを特徴とする請求項13又は14に記載の撮像装置。
further comprising movement amount detection means for detecting the movement of the imaging device and acquiring the movement amount;
15. The imaging apparatus according to claim 13, wherein the amount of movement is included in the metadata.
前記移動量検出手段は、加速度を検出する加速度センサ、角速度を計測する角速度センサ、及び磁界の方向を計測する磁気センサのいずれか1つであることを特徴とする請求項15記載の撮像装置。 16. The imaging apparatus according to claim 15, wherein said moving amount detection means is any one of an acceleration sensor for detecting acceleration, an angular velocity sensor for measuring angular velocity, and a magnetic sensor for measuring the direction of a magnetic field. 請求項13乃至16のいずれか1項に係る撮像装置と無線接続する携帯機器であって、 前記映像ファイルを受信する映像ファイル受信手段と、
前記映像ファイルから前記メタデータを抽出する第1の抽出手段と、
前記映像ファイルから前記抽出されたメタデータと共にエンコードされたフレームの映像を抽出する第2の抽出手段と、
前記第1の抽出手段により抽出されたメタデータを利用して、前記第2の抽出手段により抽出されたフレームの映像を補正するフレーム映像補正手段と、
前記フレーム映像補正手段によって補正された前記フレームの映像を動画映像として記録する動画記録手段とを備えることを特徴とする携帯機器。
A mobile device wirelessly connected to the imaging device according to any one of claims 13 to 16, comprising video file receiving means for receiving the video file;
a first extraction means for extracting the metadata from the video file;
a second extraction means for extracting a frame of video encoded together with the extracted metadata from the video file;
frame video correction means for correcting the frame video extracted by the second extraction means by using the metadata extracted by the first extraction means;
A mobile device, comprising moving image recording means for recording the frame image corrected by the frame image correcting means as a moving image.
前記観察方向検出手段は、前記使用者の顔方向を検出する顔方向検出手段であって、 キャリブレーションの際に、前記撮像手段で位置決め指標を撮像して前記位置決め指標を含む映像を取得すると共に、前記顔方向検出手段で顔方向を検出する取得・検出手段と、
前記取得・検出手段で取得した映像に含まれる位置決め指標の形状をもとに、前記キャリブレーションの際に撮像された映像における前記位置決め指標の位置を算出する位置算出手段と、
前記取得・検出手段で検出された顔方向と、前記位置算出手段で算出された前記位置決め指標の位置との関係を示す情報を生成する生成手段と、
前記生成手段で生成された情報に基づき、前記顔方向検出手段により検出される顔方向に応じて狙い視野の中心位置のキャリブレーションを行う第1のキャリブレーション手段とを備えることを特徴とする請求項1乃至16のいずれか1項に記載の撮像装置。
The observation direction detection means is face direction detection means for detecting the face direction of the user, and during calibration, the imaging means captures an image of the positioning index to acquire an image including the positioning index. , an acquisition/detection means for detecting the face direction by the face direction detection means;
position calculation means for calculating the position of the positioning index in the image captured during the calibration based on the shape of the positioning index included in the image acquired by the acquisition/detection means;
generating means for generating information indicating the relationship between the face direction detected by the acquisition/detection means and the position of the positioning index calculated by the position calculation means;
a first calibration means for calibrating the center position of the target field of view according to the face direction detected by the face direction detection means based on the information generated by the generation means; Item 17. The imaging device according to any one of Items 1 to 16.
請求項18に係る撮像装置と無線接続するキャリブレータであって、
前記位置決め指標を表示する第1の表示手段と、
顔を検知する顔検知手段と、
前記顔検知手段での検知結果により、前記使用者が前記位置決め指標を見ていると判断した場合、前記使用者による押下により前記キャリブレーションの指示を前記撮像装置に送信するボタンを表示する第2の表示手段とを備えることを特徴とするキャリブレータ。
A calibrator wirelessly connected to the imaging device according to claim 18,
a first display means for displaying the positioning index;
a face detection means for detecting a face;
a second display for displaying a button for transmitting the calibration instruction to the imaging device when it is determined that the user is looking at the positioning index based on the detection result of the face detection means; and a display means for the calibrator.
角速度センサを更に有し、
前記角速度センサの情報と前記顔方向検出手段が検出する顔方向の情報とを比較して、前記狙い視野の中心位置のキャリブレーションを行う第2のキャリブレーション手段を持つことを特徴とする請求項19記載のキャリブレータ。
further comprising an angular velocity sensor;
2. The apparatus according to claim 1, further comprising: second calibration means for performing calibration of the center position of said target visual field by comparing information from said angular velocity sensor with information on the face direction detected by said face direction detection means. 20. The calibrator according to 19 above.
前記観察方向検出手段と前記撮像手段は一体的に構成されており、
前記顔検知手段は、前記使用者によって装着された前記撮像手段を含む、使用者の顔映像を撮像し、前記顔映像に写った前記撮像手段の大きさをもとに、前記撮像装置における撮像レンズと使用者の目の位置との垂直距離を算出する垂直距離算出手段を備えることを特徴とする請求項19又は20に記載のキャリブレータ。
The observation direction detection means and the imaging means are integrally configured,
The face detection means captures an image of the user's face including the imaging means worn by the user, and captures an image by the imaging device based on the size of the imaging means reflected in the face image. 21. A calibrator according to claim 19 or 20, further comprising vertical distance calculation means for calculating the vertical distance between the lens and the position of the user's eyes.
前記観察方向検出手段は、前記使用者の顔方向を検出する顔方向検出手段であって、
前記撮像装置は、前記顔方向検出手段によって検出された顔方向に基づいて前記使用者の顔の角速度を演算する演算手段と、前記観察方向より前記映像出力手段から出力される映像の記録方向を決定する記録方向決定手段とを更に備え、
前記演算手段での演算の結果、前記使用者の顔が所定の角速度以上で第1の所定時間以上、動いたと判断された場合は、前記記録方向決定手段は、前記検出された顔方向の動きに対して遅延した方向に前記記録方向を変更する遅延手段を更に備えることを特徴とする請求項1記載の撮像装置。
The observation direction detection means is face direction detection means for detecting the face direction of the user,
The image pickup device includes a calculation means for calculating an angular velocity of the user's face based on the face direction detected by the face direction detection means, and a recording direction of the image output from the image output means based on the observation direction. and recording direction determining means for determining,
When it is determined that the user's face has moved at a predetermined angular velocity or more for a first predetermined period of time or more as a result of calculation by the calculation means, the recording direction determination means determines the movement in the detected face direction. 2. The imaging apparatus according to claim 1, further comprising delay means for changing said recording direction in a direction delayed with respect to said recording direction.
前記演算手段での演算の結果、前記使用者の顔が所定の角速度以上で第1の所定時間以上、動いたと判断された場合であっても、前記撮像手段による動いている被写体の撮像中は、前記記録方向決定手段は前記遅延手段を実行せず、前記映像出力手段は前記撮像された映像全体を出力することを特徴とする請求項22記載の撮像装置。 Even if it is determined that the user's face has moved at a predetermined angular velocity or more for a first predetermined period of time or more as a result of calculation by the calculation means, during the imaging of the moving subject by the imaging means, 23. The imaging apparatus according to claim 22, wherein said recording direction determination means does not execute said delay means, and said image output means outputs said entire imaged image. 前記記録方向決定手段は、前記遅延した方向を前記記録方向に変更した後に経過した時間が第2の所定時間を超えた場合、前記遅延手段を終了し、前記観察方向検出手段により検出された現在の観察方向より前記記録方向を決定することを特徴とする請求項23記載の撮像装置。 The recording direction determination means terminates the delay means when the elapsed time after changing the delayed direction to the recording direction exceeds a second predetermined time, and determines the current direction detected by the viewing direction detection means. 24. The image pickup apparatus according to claim 23, wherein said recording direction is determined from the observation direction of . 前記記録方向決定手段は、前記演算手段での演算の結果、前記使用者の顔が前記所定の角速度以上で動いた期間が前記第1の所定時間未満であると判断された場合は、前記遅延手段を実行しないことを特徴とする請求項22記載の撮像装置。 The recording direction determining means determines that the period during which the user's face moves at the predetermined angular velocity or more is less than the first predetermined time as a result of the calculation by the calculating means. 23. The imaging apparatus according to claim 22, wherein the means is not executed. 前記映像出力手段で出力される映像が、前記遅延手段により前記記録方向が変更された映像から、前記観察方向検出手段により検出された現在の観察方向より前記記録方向が決定された映像に切り替わる際に映像効果を入れることを特徴とする請求項22記載の撮像装置。 When the image output by the image output means is switched from the image whose recording direction is changed by the delay means to the image whose recording direction is determined by the current observation direction detected by the observation direction detection means. 23. The imaging device according to claim 22, wherein a video effect is added to the image. 前記撮像手段による動画撮像中の前記撮像装置の移動量を検出する移動量検出手段と、 前記観察方向の移動量を補正する観察方向補正手段と、
前記観察方向補正手段は、
前記移動量検出手段で前記撮像装置が加速していることが検出された場合、前記観察方向の移動量を遅延させ、
前記移動量検出手段で前記撮像装置が減速していることが検出された場合、遅延させた分をカバーするように前記観察方向の移動を加速することを特徴とする請求項1乃至16、18、及び22乃至26のいずれか1項に記載の撮像装置。
movement amount detection means for detecting the amount of movement of the imaging device during moving image imaging by the imaging means; observation direction correction means for correcting the movement amount in the observation direction;
The observation direction correcting means includes:
when the movement amount detection means detects that the imaging device is accelerating, delaying the movement amount in the observation direction;
18. When the movement amount detection means detects that the imaging device is decelerating, the movement in the observation direction is accelerated so as to cover the delayed amount. , and any one of 22 to 26.
前記移動量検出手段は、前記撮像手段による動画撮像で得られた複数のフレームの映像を比較することで、前記移動量を検出することを特徴とする請求項27に記載の撮像装置。 28. The image pickup apparatus according to claim 27, wherein said movement amount detection means detects said movement amount by comparing images of a plurality of frames obtained by moving image pickup by said image pickup means. 前記映像出力手段は、前記観察方向に応じて切り出された、前記撮像手段より撮像された映像の一部を出力することを特徴とする請求項27又は28に記載の撮像装置。 29. The image pickup apparatus according to claim 27, wherein said image output means outputs a part of the image picked up by said image pickup means, which is cut out according to said observation direction. 前記撮像手段の撮像方向をヨー方向、ピッチ方向に駆動する駆動手段と、
前記観察方向に応じて前記駆動手段により前記撮像手段の撮像方向を変更する撮像方向変更手段とをさらに備えることを特徴とする請求項27乃至29のいずれか1項に記載の撮像装置。
driving means for driving the imaging direction of the imaging means in the yaw direction and the pitch direction;
30. The imaging apparatus according to any one of claims 27 to 29, further comprising imaging direction changing means for changing the imaging direction of said imaging means by said driving means according to said observation direction.
前記観察方向補正手段は、前記映像出力手段により出力される動画映像において前記観察方向の移動速度が略一定になるように補正することを特徴とする請求項27乃至30のいずれか1項に記載の撮像装置。 31. The apparatus according to any one of claims 27 to 30, wherein said observation direction correcting means corrects moving speed in said observation direction in a moving image output by said image output means so as to be substantially constant. imaging device. 前記観察方向検出手段と前記撮像手段は一体的に構成されており、
前記撮像手段からその撮像領域までの距離を測定する測距手段と、
前記測距手段による測定結果より前記撮像領域の距離マップ情報を作成する作成手段と、
前記観察方向、前記距離マップ情報、及び前記撮像手段から前記使用者の目の位置までの垂直距離から、前記撮像手段から見た前記使用者の観察対象の方向を算出する算出手段とを更に備えることを特徴とする請求項1記載の撮像装置。
The observation direction detection means and the imaging means are integrally configured,
distance measuring means for measuring the distance from the imaging means to the imaging area;
creating means for creating distance map information of the imaging area from the result of measurement by the distance measuring means;
further comprising calculating means for calculating a direction of an observation target of the user as seen from the imaging means from the observation direction, the distance map information, and a vertical distance from the imaging means to the position of the user's eyes. 2. The imaging apparatus according to claim 1, wherein:
前記撮像手段の水平軸を検出する姿勢検出手段と、
前記検出された水平軸と、前記撮像手段から見た外部の位置決め指標の方向とがなす角度を算出する角度算出手段と、
前記角度算出手段で算出された角度、及び、前記測距手段により測距された、前記撮像手段から前記位置決め指標までの距離から、前記撮像手段から前記使用者の目の位置までの垂直距離を算出する垂直距離算出手段とを備えることを特徴とする請求項32記載の撮像装置。
attitude detection means for detecting a horizontal axis of the imaging means;
angle calculation means for calculating an angle between the detected horizontal axis and the direction of the external positioning index as seen from the imaging means;
From the angle calculated by the angle calculating means and the distance from the imaging means to the positioning index measured by the distance measuring means, the vertical distance from the imaging means to the eye position of the user is calculated. 33. The imaging apparatus according to claim 32, further comprising vertical distance calculating means for calculating the vertical distance.
前記算出された垂直距離、前記位置決め指標が各指定位置にある場合に前記観察方向検出手段によって検出された観察方向、及び前記撮像手段から前記位置決め指標までの前記測距手段により測距された距離から、前記観察方向検出手段によって検出された観察方向のキャリブレーションを実施することを特徴とする請求項33記載の撮像装置。 the calculated vertical distance, the observation direction detected by the observation direction detection means when the positioning index is at each specified position, and the distance measured by the distance measurement means from the imaging means to the positioning index 34. The image pickup apparatus according to claim 33, wherein the observation direction detected by said observation direction detection means is calibrated. 前記観察方向以外の情報から決定された方向を前記記録方向に決定する第2の記録方向決定手段と、
前記撮像手段による動画撮像中に、前記顔方向検出手段が前記顔方向を検出できる場合、直前の撮像モードから、前記撮像手段による撮像中において前記記録方向決定手段により前記記録方向を決定する第1の撮像モードに移行し、前記顔方向検出手段が前記顔方向を検出できない場合、直前の撮像モードから、前記撮像手段による撮像中において前記第2の記録方向決定手段により前記記録方向を決定する複数の他の撮像モードの1つに移行するモード移行手段とを更に備えることを特徴とする請求項22記載の撮像装置。
a second recording direction determining means for determining a direction determined from information other than the viewing direction as the recording direction;
When the face direction detecting means can detect the face direction during moving image capturing by the image capturing means, the recording direction determining means determines the recording direction from the previous image capturing mode during the image capturing by the image capturing means. and the face direction detecting means cannot detect the face direction, the recording direction is determined by the second recording direction determining means during the imaging by the imaging means from the previous imaging mode. 23. The imaging apparatus according to claim 22, further comprising mode transition means for transitioning to one of the other imaging modes.
前記撮像手段により動画撮像されたフレームの前記記録方向の映像から被写体を認識する被写体認識手段を更に備え、
前記モード移行手段は、前記観察方向検出手段が前記観察方向を検出できない場合であって、過去の所定時間内に前記被写体認識手段により同一被写体が検出された場合、前記同一被写体に追従する方向を、前記観察方向以外の情報に設定し、直前の撮像モードから前記他の撮像モードの1つである第2の撮像モードへ移行することを特徴とする請求項35記載の撮像装置。
further comprising subject recognition means for recognizing a subject from the video in the recording direction of the frame captured by the imaging means;
When the observation direction detection means cannot detect the observation direction and the same object is detected by the object recognition means within a predetermined time in the past, the mode transition means changes the direction in which the same object is followed. 36. The image pickup apparatus according to claim 35, wherein information other than the observation direction is set, and the immediately preceding image pickup mode is changed to a second image pickup mode which is one of the other image pickup modes.
検出すべき被写体を予め登録する被写体登録手段を更に備え、
前記モード移行手段は、前記観察方向検出手段が前記観察方向を検出できない場合であって、前記被写体認識手段により最新の映像から前記予め登録された被写体が検出された場合、前記登録された被写体に追従する方向を、前記観察方向以外の情報に設定し、直前の撮像モードから前記他の撮像モードの1つである第3の撮像モードに移行することを特徴とする請求項36記載の撮像装置。
further comprising subject registration means for pre-registering a subject to be detected,
When the observation direction detection means cannot detect the observation direction, and the object recognition means detects the pre-registered object from the latest image, the mode transition means detects the registered object. 37. The image pickup apparatus according to claim 36, wherein the follow-up direction is set to information other than the observation direction, and the immediately preceding image pickup mode is shifted to a third image pickup mode which is one of the other image pickup modes. .
前記モード移行手段は、前記観察方向検出手段が前記観察方向を検出できない場合であって、前記被写体認識手段により前記同一被写体及び前記予め登録された被写体のいずれもが検出されなかった場合、前記観察方向検出手段により検出できなくなる以前の観察方向、及びその以前までの変化量で継続して移動する観察方向の一方を、前記観察方向以外の情報に設定し、直前の撮像モードから前記他の撮像モードの1つである第4の撮像モードに移行することを特徴とする請求項37記載の撮像装置。 When the observation direction detection means cannot detect the observation direction and the subject recognition means detects neither the same subject nor the pre-registered subject, the mode transition means performs the observation mode. One of the observation direction before it becomes undetectable by the direction detection means and the observation direction that continues to move with the amount of change up to that time is set as information other than the observation direction, and the imaging mode is changed from the previous imaging mode to the other imaging mode. 38. The image pickup apparatus according to claim 37, wherein the image pickup apparatus shifts to a fourth image pickup mode which is one of the modes. 前記映像出力手段により出力される前記映像の画角の広さを変更する画角変更手段を更に備え、
前記第4の撮像モードでは、前記画角変更手段が前記記録方向の映像の画角を規定の画角より広角に変更することを特徴とする請求項38記載の撮像装置。
Further comprising a field angle changing means for changing the width of the field angle of the video output by the video output means,
39. The imaging apparatus according to claim 38, wherein, in said fourth imaging mode, said field angle changing means changes the field angle of the image in said recording direction to a wider angle than a prescribed field angle.
前記第1~第4の撮像モードのいずれに移行した後も、前記モード移行手段を継続して実行することを特徴とする請求項39記載の撮像装置。 40. The imaging apparatus according to claim 39, wherein said mode transition means is continuously executed even after shifting to any one of said first to fourth imaging modes. 前記モード移行手段により、前記第4の撮像モードから、前記第1から第3の撮像モードに移行した場合、前記広角に変更された前記記録方向の映像の画角を規定の画角に戻すことを特徴とする請求項40記載の撮像装置。 When the mode transition means shifts from the fourth imaging mode to the first to third imaging modes, the angle of view of the image in the recording direction, which has been changed to the wide angle, is returned to a specified angle of view. 41. The imaging device according to claim 40, characterized by: 前記観察方向検出手段が前記観察方向を検出できない場合、前記使用者に前記観察方向の検知エラーを通知する通知手段を更に備え、
前記モード移行手段により、前記第1の撮像モードから前記他の撮像モードに移行した場合、前記通知手段により前記検知エラーを前記使用者に通知することを特徴とする請求項39乃至41のいずれか1項に記載の撮像装置。
further comprising notification means for notifying the user of a detection error in the observation direction when the observation direction detection means cannot detect the observation direction;
42. The apparatus according to any one of claims 39 to 41, wherein when said mode transition means shifts from said first imaging mode to said other imaging mode, said notification means notifies said user of said detection error. 1. The imaging device according to item 1.
前記観察方向検出手段は、
前記使用者の顔方向を検出し、前記検出された顔方向より第1の観察方向を算出する第1の観察方向算出手段と、
前記検出された顔方向以外の情報から第2の観察方向を予測する観察方向予測手段と、 前記第1の観察方向の信頼度を算出する信頼度算出手段と、
前記信頼度が所定値以上である場合、前記第1の観察方向を前記観察方向に決定し、前記信頼度が所定値未満であって、前記第2の観察方向が信頼できると判定された場合、前記第1の観察方向、前記第2の観察方向、及び前記第1の観察方向の信頼度から、前記観察方向を決定する観察方向決定手段とを備えることを特徴とする請求項1記載の撮像装置。
The observation direction detection means is
a first observation direction calculation means for detecting the face direction of the user and calculating a first observation direction from the detected face direction;
viewing direction prediction means for predicting a second viewing direction from information other than the detected face direction; reliability calculation means for calculating reliability of the first viewing direction;
if the reliability is greater than or equal to a predetermined value, determining the first observation direction as the observation direction; and if the reliability is less than the predetermined value and the second observation direction is determined to be reliable; , and viewing direction determination means for determining the viewing direction from the first viewing direction, the second viewing direction, and the reliability of the first viewing direction. Imaging device.
前記観察方向検出手段の検出光軸と前記撮像手段の撮像光軸は互いに異なる方向を向くように配置されていることを特徴とする請求項1乃至16、18、及び22乃至43のいずれか1項に記載の撮像装置。 44. Any one of claims 1 to 16, 18, and 22 to 43, wherein the detection optical axis of said observation direction detection means and the imaging optical axis of said imaging means are arranged to face in different directions. 10. The image pickup device according to claim 1. 前記観察方向検出手段の検出光軸は、前記観察方向検出手段から前記使用者の顎の方向を向くように配置されていることを特徴とする請求項44記載の撮像装置。 45. The image pickup apparatus according to claim 44, wherein the detection optical axis of said observation direction detection means is arranged to face the direction of said user's jaw from said observation direction detection means. 前記撮像手段の撮像光軸は、前記撮像手段から前記使用者の正面方向を向くように配置されていることを特徴とする請求項44又は45に記載の撮像装置。 46. An image pickup apparatus according to claim 44 or 45, wherein an image pickup optical axis of said image pickup means is arranged so as to face a front direction of said user from said image pickup means. 前記観察方向検出手段と前記撮像手段が一体的に構成された前記撮像装置は、カメラ本体に組み込まれ、
前記撮像装置は、前記使用者が前記カメラ本体を装着している状態において、前記使用者の正面から見て縦の全長より横の全長の方が長いことを特徴とする請求項44乃至46のいずれか1項に記載の撮像装置。
The imaging device, in which the observation direction detection means and the imaging means are integrated, is incorporated in a camera body,
47. Any of claims 44 to 46, wherein said imaging device has a horizontal overall length that is longer than a vertical overall length as viewed from the front of said user when said user is wearing said camera body. The imaging device according to any one of items 1 and 2.
前記カメラ本体は、前記使用者の身体や衣服に接地する固定手段を備え、
前記固定手段は、前記使用者が前記カメラ本体を装着している状態において、前記撮像装置の左右の端部近傍に配置されていることを特徴とする請求項47記載の撮像装置。
The camera body has a fixing means that is grounded on the user's body or clothes,
48. An image pickup apparatus according to claim 47, wherein said fixing means are arranged in the vicinity of left and right end portions of said image pickup apparatus when said user wears said camera body.
前記カメラ本体は、前記固定手段が前記使用者と接地する際の角度を調節する接地角度調節手段を更に備えることを特徴とする請求項48記載の撮像装置。 49. An imaging apparatus according to claim 48, wherein said camera body further comprises contact angle adjusting means for adjusting an angle at which said fixing means contacts said user. 前記撮像装置は、前記使用者の首にかけて前記撮像装置を装着するための首掛け手段と接続され、
前記首掛け手段の両端は、前記使用者が前記カメラ本体を装着している状態において、前記撮像装置とその左右の端部近傍において接続されることを特徴とする請求項47記載の撮像装置。
The imaging device is connected to neck hanging means for wearing the imaging device around the user's neck,
48. The imaging apparatus according to claim 47, wherein both ends of said neck hanging means are connected to said imaging apparatus in the vicinity of its left and right ends when said user wears said camera body.
前記首掛け手段は、前記撮像装置に対する前記首掛け手段の角度を調節する首掛け角度調節手段を備えることを特徴とする請求項50記載の撮像装置。 51. The imaging device according to claim 50, wherein said neck hanging means comprises neck hanging angle adjusting means for adjusting an angle of said neck hanging means with respect to said imaging device. 前記首掛け手段は、真円ではない断面形状を有し、
前記使用者が前記カメラ本体を装着している状態において、前記首掛け手段の、前記撮像装置に対して左右対称な位置にある部位の間の距離は、下方から上方に行くほど近くなることを特徴とする請求項50記載の撮像装置。
The neck hanging means has a cross-sectional shape that is not a perfect circle,
In a state in which the user wears the camera body, the distance between portions of the neck hanging means that are positioned symmetrically with respect to the imaging device decreases from bottom to top. 51. The imaging device according to claim 50.
前記撮像装置は、前記首掛け手段によって電源手段と接続され、
前記使用者が前記カメラ本体を装着している状態において、前記使用者の首の後ろに配置されることを特徴とする請求項50乃至52のいずれか1項に記載の撮像装置。
The imaging device is connected to power supply means by the neck hanging means,
53. The imaging device according to any one of claims 50 to 52, wherein the imaging device is arranged behind the user's neck when the user wears the camera body.
前記撮像装置は、前記電源手段と電力供給手段により接続され、
前記電力供給手段は、前記首掛け手段の内部を通るように配置されていることを特徴とする請求項53記載の撮像装置。
the imaging device is connected by the power supply means and the power supply means,
54. An imaging apparatus according to claim 53, wherein said power supply means is arranged so as to pass through said neck hanging means.
前記撮像手段は、撮像レンズ及び前記撮像レンズによって形成された光学像をRAWデータに変換する撮像素子を有し、前記撮像素子の所定領域から読み出したRAWデータを前記撮像手段より撮像された映像として出力し、
前記RAWデータから、前記所定領域より狭い領域であって、前記記録方向にある狙い視野及びその周囲の予備領域を含む領域のデータを切り出して現像する現像手段を更に備えることを特徴とする請求項22記載の撮像装置。
The imaging means has an imaging lens and an imaging element that converts an optical image formed by the imaging lens into RAW data, and the RAW data read from a predetermined region of the imaging element is used as an image captured by the imaging means. output and
3. The apparatus further comprises developing means for extracting data of an area narrower than the predetermined area from the RAW data and including a target field of view in the recording direction and a preliminary area therearound, and developing the data. 23. The imaging device according to 22.
前記予備領域は防振処理に使う防振用予備領域であることを特徴とする請求項55記載の撮像装置。 56. An imaging apparatus according to claim 55, wherein said preliminary area is a preliminary area for image stabilization used for image stabilization processing. 前記現像手段は、前記狙い視野の形状や前記予備領域の形状を、前記記録方向及び前記撮像レンズの光学特性に応じて逐次切り替えることを特徴とする請求項55又は56記載の撮像装置。 57. The imaging apparatus according to claim 55, wherein said developing means sequentially switches the shape of said target visual field and the shape of said preliminary area according to said recording direction and optical characteristics of said imaging lens. 前記映像出力手段は、前記所定領域から前記現像手段により切り出され現像されたデータを、前記記録方向の映像として記録し、前記所定領域から切り出されなかったデータは記録しないことを特徴とする請求項55乃至57のいずれか1項に記載の撮像装置。 3. The image output means records the data cut out from the predetermined area and developed by the developing means as the image in the recording direction, and does not record the data not cut out from the predetermined area. 58. The imaging device according to any one of 55 to 57. 前記映像出力手段は、前記撮像手段より撮像された映像のうち、前記記録方向の映像のみを外部の鑑賞部に送信することを特徴とする請求項58記載の撮像装置。 59. The image pickup apparatus according to claim 58, wherein said image output means transmits only the image in said recording direction among the images picked up by said image pickup means to an external viewing section. 前記鑑賞部は、前記記録方向の映像に対して光学補正処理及び防振処理を行い、
前記映像出力手段は、前記記録方向の映像と共に、前記光学補正処理及び前記防振処理に必要な情報を付加することを特徴とする請求項59記載の撮像装置。
The viewing unit performs optical correction processing and image stabilization processing on the image in the recording direction,
60. The imaging apparatus according to claim 59, wherein said image output means adds information necessary for said optical correction processing and said image stabilizing processing together with the image in said recording direction.
使用者の頭部以外の身体上に装着された観察方向検出手段により、前記使用者の観察方向を検出する観察方向検出ステップと、
前記使用者の身体上に装着された撮像手段により、映像を撮像する撮像ステップと、
前記撮像ステップにおいて撮像された映像に基づいて、前記観察方向に対応する映像を出力する映像出力ステップとを有することを特徴とする撮像装置の制御方法。
an observation direction detection step of detecting the observation direction of the user by means of observation direction detection means worn on the user's body other than the head;
an imaging step of imaging an image by imaging means worn on the user's body;
and an image output step of outputting an image corresponding to the viewing direction based on the image captured in the image capturing step.
請求項13乃至16のいずれか1項に係る撮像装置と無線接続する携帯機器の制御方法であって、
前記映像ファイルを受信する映像ファイル受信ステップと、
前記映像ファイルから前記メタデータを抽出する第1の抽出ステップと、
前記映像ファイルから前記抽出されたメタデータと共にエンコードされたフレームの映像を抽出する第2の抽出ステップと、
前記第1の抽出ステップで抽出されたメタデータを利用して、前記第2の抽出ステップで抽出されたフレームの映像を補正するフレーム映像補正ステップと、
前記フレーム映像補正ステップで補正された前記フレームの映像を動画映像として記録する動画記録ステップとを有することを特徴とする制御方法。
A control method for a mobile device wirelessly connected to the imaging device according to any one of claims 13 to 16,
a video file receiving step of receiving the video file;
a first extraction step of extracting the metadata from the video file;
a second extraction step of extracting a frame of video encoded together with the extracted metadata from the video file;
a frame video correction step of correcting the frame video extracted in the second extraction step using the metadata extracted in the first extraction step;
and a moving image recording step of recording the frame image corrected in the frame image correcting step as a moving image.
請求項18に係る撮像装置と無線接続するキャリブレータの制御方法であって、
前記位置決め指標を表示する第1の表示ステップと、
顔を検知する顔検知ステップと、
前記顔検知ステップでの検知結果により、前記使用者が前記位置決め指標を見ていると判断した場合、前記使用者による押下により前記キャリブレーションの指示を前記撮像装置に送信するボタンを表示する第2の表示ステップとを有することを特徴とする制御方法。
A method for controlling a calibrator wirelessly connected to an imaging device according to claim 18,
a first display step of displaying the positioning index;
a face detection step for detecting a face;
(2) displaying a button for transmitting the calibration instruction to the imaging device when it is determined that the user is looking at the positioning index based on the detection result of the face detection step; and a display step.
コンピュータを、請求項1乃至16、18、及び22乃至60のいずれか1項に記載の撮像装置の各手段として機能させる、コンピュータにより実行可能なプログラム。 A computer-executable program that causes a computer to function as each means of the imaging apparatus according to any one of claims 1 to 16, 18, and 22 to 60. コンピュータを、請求項17記載の携帯機器の各手段として機能させる、コンピュータにより実行可能なプログラム。 A computer-executable program causing a computer to function as each means of the portable device according to claim 17. コンピュータを、請求項19乃至21のいずれか1項に記載のキャリブレータの各手段として機能させる、コンピュータにより実行可能なプログラム。 A computer-executable program that causes a computer to function as each means of a calibrator according to any one of claims 19-21.
JP2022029152A 2021-03-12 2022-02-28 Image pickup apparatus, portable device, calibrator, control method therefor, and program Pending JP2022140328A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
GB2202906.0A GB2607151A (en) 2021-03-12 2022-03-02 Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media
US17/688,387 US20220294937A1 (en) 2021-03-12 2022-03-07 Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media storing control programs therefor
KR1020220028654A KR20220128585A (en) 2021-03-12 2022-03-07 Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media storing control programs therefor
DE102022105788.7A DE102022105788A1 (en) 2021-03-12 2022-03-11 Portable imaging device, portable device and calibration device communicating with the imaging device, control method for the same, and storage media storing control programs for the same
CN202210248146.2A CN115086547A (en) 2021-03-12 2022-03-14 Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021040848 2021-03-12
JP2021040848 2021-03-12

Publications (1)

Publication Number Publication Date
JP2022140328A true JP2022140328A (en) 2022-09-26

Family

ID=83399699

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2022029152A Pending JP2022140328A (en) 2021-03-12 2022-02-28 Image pickup apparatus, portable device, calibrator, control method therefor, and program
JP2022038692A Pending JP2022140421A (en) 2021-03-12 2022-03-11 Imaging system, imaging apparatus, display unit, control method, and program
JP2022038691A Pending JP2022140420A (en) 2021-03-12 2022-03-11 Imaging apparatus, display unit, video transfer system, control method, and program
JP2022039639A Pending JP2022140423A (en) 2021-03-12 2022-03-14 Image pickup apparatus, control method therefor, and program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2022038692A Pending JP2022140421A (en) 2021-03-12 2022-03-11 Imaging system, imaging apparatus, display unit, control method, and program
JP2022038691A Pending JP2022140420A (en) 2021-03-12 2022-03-11 Imaging apparatus, display unit, video transfer system, control method, and program
JP2022039639A Pending JP2022140423A (en) 2021-03-12 2022-03-14 Image pickup apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (4) JP2022140328A (en)

Also Published As

Publication number Publication date
JP2022140420A (en) 2022-09-26
JP2022140423A (en) 2022-09-26
JP2022140421A (en) 2022-09-26

Similar Documents

Publication Publication Date Title
US10666856B1 (en) Gaze-directed photography via augmented reality feedback
KR102502404B1 (en) Information processing device and method, and program
KR20220128585A (en) Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media storing control programs therefor
EP2590396A1 (en) Information processing system, information processing device, and information processing method
GB2611154A (en) Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor
GB2611157A (en) Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for...
JP2002354505A (en) Stereoscopic system
KR20180017591A (en) Camera apparatus, display apparatus and method of correcting a movement therein
US11849205B2 (en) Image pickup apparatus used as action camera
JP2022140328A (en) Image pickup apparatus, portable device, calibrator, control method therefor, and program
JP2023142257A (en) Display unit, and method for controlling display unit
US20230126836A1 (en) Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor
KR20170081493A (en) Head mount display apparatus
JP2022140424A (en) Image pickup apparatus, control method therefor, and program
JP2022140418A (en) Image pickup apparatus
JP2022140417A (en) Image pickup apparatus, calibration system, control method for the image pickup apparatus, and program
JP2023067530A (en) Imaging apparatus, control method therefor, and program
JP2022140422A (en) Imaging apparatus, control method, and program
JP2023055074A (en) Imaging apparatus and method for controlling the same, and program
JP2022140419A (en) Image pickup apparatus, control method, and program
JP2023154539A (en) Imaging device, control method for imaging device, display device, and imaging system
US20230379594A1 (en) Image blending
JP2023087468A (en) Imaging apparatus, control method, and program
CN115696057A (en) Image pickup apparatus, control method, and program
JP2024017297A (en) Imaging devices, wearable devices, control methods, programs and systems