JP2015126451A - Recording method for image, electronic equipment and computer program - Google Patents

Recording method for image, electronic equipment and computer program Download PDF

Info

Publication number
JP2015126451A
JP2015126451A JP2013270613A JP2013270613A JP2015126451A JP 2015126451 A JP2015126451 A JP 2015126451A JP 2013270613 A JP2013270613 A JP 2013270613A JP 2013270613 A JP2013270613 A JP 2013270613A JP 2015126451 A JP2015126451 A JP 2015126451A
Authority
JP
Japan
Prior art keywords
image
gaze
electronic device
recording
photographer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013270613A
Other languages
Japanese (ja)
Other versions
JP6096654B2 (en
Inventor
邦彦 三和
Kunihiko Miwa
邦彦 三和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2013270613A priority Critical patent/JP6096654B2/en
Publication of JP2015126451A publication Critical patent/JP2015126451A/en
Application granted granted Critical
Publication of JP6096654B2 publication Critical patent/JP6096654B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically record only a life log image which is useful for a photographer.SOLUTION: A monitor image 101 is photographed using a digital camera having a super-wide-angle lens. The monitor image includes a photographer 102, an object image 109 such as an airplane and tree which the photographer is interested in, and a background image 107 other than that. Movement of a line of sight of a photographer toward a subject is identified through the monitor image and watch regions 105a, 105b are defined on the monitor image. Selection images 120, 121 corresponding to the region defined by the watch region are extracted from the monitor image, and are converted into a preservation format and generated recording images 130-150 are recorded. The recording images 131, 132 include only an object image that is extracted through object recognition and interested by the photographer.

Description

本発明は、日常生活やビジネスの場面などの情景を撮影した画像を記録する技術に関し、さらには、撮影者にとって再生価値の高い画像だけを撮影者に負担をかけないで記録する技術に関する。   The present invention relates to a technique for recording an image obtained by photographing a scene such as a daily life or a business scene, and further relates to a technique for recording only an image having a high reproduction value for a photographer without imposing a burden on the photographer.

近年、携帯電話、スマートフォン、またはタブレット端末などにデジタル・カメラを標準的に搭載するようになり、これを人間の生活、体験、行動などの日常生活の状況を動画像、静止画像または音声として記録するいわゆるライフ・ログに利用することが容易になってきた。ライフ・ログの仕組みは、会議や面会などのビジネスの場面を後から顧みるための記録にも利用することができる。以後、ビジネスの状況を記録することをビジネス・ログということにする。   In recent years, digital cameras have become standard equipment on mobile phones, smartphones, tablet terminals, etc., and this records daily life situations such as human life, experience, and behavior as moving images, still images, or sounds. It has become easier to use for so-called life logs. The life log mechanism can also be used to record business situations such as meetings and visits later. Hereinafter, recording the business situation is referred to as a business log.

特許文献1は、車両の前方画像内で視線が向いた場所に対応する画像を拡大表示することができる運転支援システムを開示する。同システムは、顔撮影カメラで撮影した運転者の顔画像から検出した視線方向が、前方撮影カメラが撮影した前方画像の領域を複数に分割した分割領域のどこに向けられていたかを判定する。   Patent Document 1 discloses a driving support system that can enlarge and display an image corresponding to a place where the line of sight is directed in a front image of a vehicle. The system determines where the line-of-sight direction detected from the face image of the driver photographed by the face photographing camera is directed to the divided area obtained by dividing the area of the front image photographed by the front photographing camera.

判定した分割領域を注目領域として、前方画像データからこの注目領域、または注目領域とこの近傍に対応する画像データを抽出して表示手段に表示する。特許文献2は、被写体に対する注視度の算出精度を向上させる技術を開示する。同文献には、被写体の撮影者の注視点との距離の経時的変化に基づいて注視度を算出することが記載されている。特許文献3は、ライフ・ログ・データの閲覧効率を高めたライフ・ログ表示装置を開示する。同文献には、ユーザが閲覧するときの条件に応じて表示の優先度を可変設定することが記載されている。   Using the determined divided area as the attention area, this attention area or image data corresponding to the attention area and its vicinity is extracted from the forward image data and displayed on the display means. Patent Document 2 discloses a technique for improving the calculation accuracy of the gaze degree for a subject. This document describes that a gaze degree is calculated based on a change with time of a distance from a subject's gazing point of a subject. Patent Document 3 discloses a life log display device with improved life log data browsing efficiency. This document describes that display priority is variably set according to conditions when the user browses.

特開2006−172215号公報JP 2006-172215 A 特開2013−179403号公報JP 2013-179403 A 特開2012−43018号公報JP 2012-43018 A

ライフ・ログ画像やビジネス・ログ画像は記録時間が経過するほど膨大になるため、後にみたい画像だけを短時間で探すことが困難になったり、保存媒体の容量が大きくなったりする。特許文献1の運転支援システムは、運転中に視線を向けた対象物を後から確認できるが、撮影したすべての前方画像データ、視線方向データおよび撮像座標を記録するため記憶するデータ量は膨大になる。また、顔撮影カメラと前方撮影カメラをそれぞれ設けており、顔撮影カメラは運転者の顔の中心に光軸を向け、また、前方撮影カメラは画像の中央部を注目領域にするためには視線の方向に光軸が向くように追従制御をする必要がある。   Since life log images and business log images become enormous as the recording time elapses, it becomes difficult to search for only the image that you want to see later in a short time, or the capacity of the storage medium increases. Although the driving support system of Patent Document 1 can later confirm an object whose line of sight is directed during driving, the amount of data to be stored for recording all captured forward image data, line-of-sight direction data, and imaging coordinates is enormous. Become. In addition, a face camera and a front camera are provided, the face camera directs the optical axis to the center of the driver's face, and the front camera uses a line of sight to focus the center of the image on the area of interest. It is necessary to perform follow-up control so that the optical axis is oriented in the direction of.

そこで本発明の目的は、電子機器が撮影者にとって有益な画像だけを容易に記録する方法を提供することにある。さらに本発明の目的は、撮影者が意識しないうちに電子機器が撮影者にとって有益な画像だけを自動的に記録する方法を提供することにある。さらに本発明の目的は、効率的なライフ・ログ・データをする記録する方法を提供することにある。さらに本発明の目的は、効率的なビジネス・ログ・データを記録する方法を提供することにある。さらに本発明の目的は、そのような方法を実現する電子機器およびコンピュータ・プログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a method in which an electronic device can easily record only images useful for a photographer. It is a further object of the present invention to provide a method in which an electronic device automatically records only images useful for a photographer without the photographer being aware of it. It is a further object of the present invention to provide a method for recording efficient life log data. It is a further object of the present invention to provide a method for recording efficient business log data. Furthermore, the objective of this invention is providing the electronic device and computer program which implement | achieve such a method.

本発明は、画像の記録が可能な電子機器に関する。このような電子機器は人体に装着して使用するウェアラブル・コンピュータとすることができるが、スマートフォンやタブレット端末のような携帯式の電子機器、または所定の場所で使用するノートブック型パーソナル・コンピュータまたはデスクトップ型パーソナル・コンピュータであってもよい。電子機器は、撮影者の顔と周囲の被写体を撮影してモニター画像を出力するデジタル・カメラと、モニター画像から被写体に対する撮影者の視線の動きを同定してモニター画像に対して注視領域を画定する注視領域画定部と、注視領域に対応するモニター画像の一部から記録装置に記録する記録画像を生成する記録画像処理部とを有する。記録画像は静止画像でも動画像でもよい。   The present invention relates to an electronic apparatus capable of recording an image. Such an electronic device can be a wearable computer used by being attached to a human body, but is a portable electronic device such as a smartphone or a tablet terminal, or a notebook personal computer used in a predetermined place or A desktop personal computer may be used. The electronic device captures the photographer's face and surrounding subjects and outputs a monitor image, and identifies the movement of the photographer's line of sight with respect to the subject from the monitor image and defines a gaze area for the monitor image And a recording image processing unit that generates a recording image to be recorded on the recording device from a part of the monitor image corresponding to the watching region. The recorded image may be a still image or a moving image.

このような構成によれば、撮影者が注視した被写体の画像だけを記録することができる。撮影者が注視したモニター画像の領域は興味があって保存する価値の高い画像を含む可能性が高いため、撮影者は後に容易に有益な記録画像だけを閲覧することができる。撮影者はシャッターを押すような操作をする必要はなく、自然に行動しているだけで電子機器が自動的に有益な記録画像だけを保存することができる。記録装置は電子機器と同じ筐体に収納してもよいが、ネットワークを通じて通信できるようにして遠方に配置するようにしてもよい。   According to such a configuration, it is possible to record only the image of the subject that the photographer gazes at. Since the region of the monitor image watched by the photographer is likely to include an image that is interesting and worth saving, the photographer can easily view only useful recorded images later. The photographer does not need to perform an operation of pressing the shutter, and the electronic device can automatically save only useful recorded images only by acting naturally. The recording device may be housed in the same housing as the electronic device, but may be arranged at a distance so that communication can be performed over a network.

記録画像処理部は、モニター画像の一部から所定の注目オブジェクトに対応するオブジェクト画像を認識しないときに、記録画像を生成しないで破棄することができる。注目オブジェクトは、撮影者が入力してもよいが、電子機器が保有している撮影者の行動履歴に関連するデータを使用してもよい。行動履歴に関連するデータは、撮影者が頻繁に訪れている場所のGPSデータ、Webサイトで頻繁に閲覧したテーマなどとすることができる。記録画像処理部は、モニター画像の一部からオブジェクト画像を認識したときに、オブジェクト画像に欠損が生じないでかつ焦点が当たるようにモニター画像の一部を加工することができる。したがって、電子機器は、ユーザの興味があるオブジェクト画像に焦点が当たった均整のとれた記録画像を記録することができる。   When the recorded image processing unit does not recognize an object image corresponding to a predetermined target object from a part of the monitor image, it can discard the recorded image without generating a recorded image. The object of interest may be input by the photographer, but may use data related to the action history of the photographer held by the electronic device. The data related to the action history can be GPS data of places frequently visited by photographers, a theme frequently viewed on a website, and the like. When the object image is recognized from a part of the monitor image, the recorded image processing unit can process a part of the monitor image so that the object image is not defective and is focused. Therefore, the electronic device can record a well-balanced recorded image focused on the object image that the user is interested in.

注視領域画定部は、モニター画像における視線の座標の離散量と注視領域を画定するまでの注視時間で構成した注視条件から注視領域を画定することができる。電子機器は注視領域画定部に注視条件を調整するための指示をする注視条件調整部を含んでもよい。注視条件を調整するための指示を受け取った注視領域画定部は、離散量および注視時間またはいずれか一方を調整して注視条件を緩和または強化することができる。注視条件調整部は、記録画像を生成する価値のある状況をさまざまな情報で予測して有益な記録画像だけを記録するように機能することができる。電子機器がマイクロフォンを有していれば、注視条件調整部は、マイクロフォンから受け取った音声データから所定の人物または所定のオブジェクトを認識したときに注視領域画定部に注視条件を緩和する指示をすることができる。   The gaze area demarcating section can demarcate the gaze area from the gaze condition configured by the discrete amount of the coordinates of the line of sight in the monitor image and the gaze time until the gaze area is demarcated. The electronic device may include a gaze condition adjusting unit that instructs the gaze area defining unit to adjust the gaze condition. The gaze area defining unit that has received the instruction for adjusting the gaze condition can relax or enhance the gaze condition by adjusting the discrete amount and / or the gaze time. The gaze condition adjusting unit can function to predict a situation worth generating a recorded image with various information and record only useful recorded images. If the electronic device has a microphone, the gaze condition adjusting unit instructs the gaze area defining unit to relax the gaze condition when recognizing a predetermined person or a predetermined object from the audio data received from the microphone. Can do.

また電子機器がGPSモジュールを有していれば、注視条件調整部は、GPSモジュールから受け取ったGPSデータから認識した電子機器の現在位置に基づいて注視領域画定部に注視条件を調整するための指示をすることができる。電子機器が加速度センサーを有していれば、注視条件調整部は、加速度センサーから受け取った加速度データからデジタル・カメラの姿勢の変化が少ないと判断したときに注視領域画定部に注視条件を強化する指示をすることができる。   Also, if the electronic device has a GPS module, the gaze condition adjusting unit instructs the gaze area defining unit to adjust the gaze condition based on the current position of the electronic device recognized from the GPS data received from the GPS module. Can do. If the electronic device has an acceleration sensor, the gaze condition adjustment unit strengthens the gaze condition in the gaze area defining unit when it is determined from the acceleration data received from the acceleration sensor that there is little change in the posture of the digital camera. You can give instructions.

また、注視条件調整部は、モニター画像が含む人物の動画像から人物の所定の動作または所定のジェスチャを認識したときに注視領域画定部に注視条件を調整するための指示をすることができる。電子機器がマイクロフォンを有している場合は、記録画像を生成したモニター画像のフレームの撮影時刻の近辺でマイクロフォンが収録した音声データを記録画像に対応付けて記録装置に記録する記録再生処理部を備えることができる。   Further, the gaze condition adjusting unit can instruct the gaze area defining unit to adjust the gaze condition when a predetermined motion or predetermined gesture of the person is recognized from the moving image of the person included in the monitor image. When the electronic apparatus has a microphone, a recording / playback processing unit that records the audio data recorded by the microphone in the vicinity of the shooting time of the frame of the monitor image that generated the recorded image in the recording device in association with the recorded image. Can be provided.

電子機器は、撮影者の顔と周囲の被写体を撮影する2台のデジタル・カメラを搭載してもよいが、撮影者の顔と被写体を同時に撮影できる広角レンズまたは超広角レンズを搭載していれば、複数のカメラを利用する際の画像処理に必要になる各カメラの光軸の関連づけが不要になる。超広角レンズを含むデジタル・カメラは、電子機器の周囲の被写体をすべて撮影できるように、電子機器の筐体の表面と裏面に配置することができる。   The electronic device may be equipped with two digital cameras that photograph the photographer's face and surrounding subjects, but it may be equipped with a wide-angle lens or ultra-wide-angle lens that can photograph the photographer's face and subject at the same time. For example, it becomes unnecessary to associate the optical axis of each camera, which is necessary for image processing when using a plurality of cameras. A digital camera including an ultra-wide-angle lens can be disposed on the front and back surfaces of the casing of the electronic device so that all objects around the electronic device can be photographed.

本発明により、電子機器が撮影者にとって有益な画像だけを容易に記録する方法を提供することができた。さらに本発明により、撮影者が意識しないうちに電子機器が撮影者にとって有益な画像だけを自動的に記録する方法を提供することができた。さらに本発明により、効率的なライフ・ログ・データをする記録する方法を提供することができた。さらに本発明により、効率的なビジネス・ログ・データを記録する方法を提供することができた。さらに本発明により、そのような方法を実現する電子機器およびコンピュータ・プログラムを提供することができた。   According to the present invention, it is possible to provide a method in which an electronic device easily records only an image useful for a photographer. Furthermore, according to the present invention, it is possible to provide a method in which an electronic device automatically records only images useful for a photographer without the photographer being conscious. Furthermore, according to the present invention, it is possible to provide a method for recording efficient life log data. Furthermore, according to the present invention, an efficient method for recording business log data could be provided. Furthermore, according to the present invention, an electronic apparatus and a computer program that realize such a method can be provided.

本実施の形態にかかる画像記録再生システム200の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the image recording / reproducing system 200 concerning this Embodiment. 本実施の形態にかかる画像記録再生システム200の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the image recording / reproducing system 200 concerning this Embodiment. 本実施の形態にかかる画像記録再生システム200の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the image recording / reproducing system 200 concerning this Embodiment. 画像記録再生システム200を実装した電子機器10のハードウェアの構成を説明するための機能ブロック図である。2 is a functional block diagram for explaining a hardware configuration of an electronic device 10 in which an image recording / reproducing system 200 is mounted. FIG. 画像記録再生システム200のソフトウェアの構成を説明するための機能ブロック図である。2 is a functional block diagram for explaining a software configuration of an image recording / reproducing system 200. FIG. ユーザ・インターフェースとして機能設定部213が提供する入力画面250の一例を示す図である。It is a figure which shows an example of the input screen 250 which the function setting part 213 provides as a user interface. 同定した視線103の座標から注視領域105a、105bを画定する方法の一例を説明する図である。It is a figure explaining an example of the method of demarcating the gaze area | regions 105a and 105b from the coordinate of the identified eyes | visual_axis 103. FIG. 同定した視線103の座標から注視領域105a、105bを画定する方法の他の例を説明する図である。It is a figure explaining the other example of the method of demarcating the gaze area | regions 105a and 105b from the coordinate of the identified eyes | visual_axis 103. 画像記録再生システム200の動作を説明するためのフローチャートである。5 is a flowchart for explaining the operation of the image recording / reproducing system 200.

[画像記録再生システムの概要]
図1〜図3は、本実施の形態にかかる画像記録再生システム200(図5参照)の概要を説明するための図である。図1は、画像記録再生システム200を実装した電子機器10の近辺に存在する撮影者102が周辺の風景(モニター被写体100)のある一部の領域を注視している様子を示している。電子機器10は、撮影者102が身体に装着して使用するペンダント式コンピュータ、ヘッド・マウント・ディスプレイ、またはそれらを総称するウェアラブル・コンピュータであってもよい。電子機器10は、デジタル撮影が可能な超広角レンズを搭載したカメラ・モジュール53(図4参照)を搭載しており、図2に示すような半球状のモニター被写体100を撮影することができる。モニター被写体100は、撮影者102の顔と撮影者102がみている風景を含む。
[Outline of image recording and playback system]
1-3 is a figure for demonstrating the outline | summary of the image recording / reproducing system 200 (refer FIG. 5) concerning this Embodiment. FIG. 1 shows a situation where a photographer 102 existing in the vicinity of an electronic device 10 equipped with an image recording / playback system 200 is gazing at a certain area of a surrounding landscape (monitor subject 100). The electronic device 10 may be a pendant computer, a head-mounted display, or a wearable computer that collectively refers to a photographer 102 to be worn on the body. The electronic device 10 is equipped with a camera module 53 (see FIG. 4) equipped with a super-wide-angle lens capable of digital photography, and can photograph a hemispherical monitor subject 100 as shown in FIG. The monitor subject 100 includes the face of the photographer 102 and the scenery that the photographer 102 is viewing.

カメラ・モジュール53は、モニター被写体100を撮影して複数のフレームが連続するモニター画像101(図3参照)を生成することができる。画像記録再生システム200は、撮影者102の視線103をモニター画像101上の座標として同定することができる。撮影者102は、モニター被写体100をみているときに常に視線103を動かしているが、興味のある対象者や印象の深い被写体に目を向けたときは、視線103が当該被写体の付近に集中する。   The camera module 53 can capture a monitor subject 100 and generate a monitor image 101 (see FIG. 3) in which a plurality of frames are continuous. The image recording / reproducing system 200 can identify the line of sight 103 of the photographer 102 as coordinates on the monitor image 101. The photographer 102 always moves the line of sight 103 when looking at the monitor subject 100, but when looking at an interested subject or a deeply impressed subject, the line of sight 103 is concentrated near the subject. .

視線103がモニター被写体100の所定の領域に所定の時間以上留まっているときに本実施の形態で定義する注視条件が成立する。注視条件が成立したときの視線103の方向にあるモニター被写体100の領域には、撮影者102にとって記録する価値が高いという蓋然性があるとみなすことができる。本実施の形態では注視条件が成立したときに画定したモニター被写体100に対する視線の移動範囲から特定したモニター画像101の領域を注視領域105a、105b(図3参照)として定義する。   When the line of sight 103 remains in a predetermined area of the monitor subject 100 for a predetermined time or more, the gaze condition defined in the present embodiment is satisfied. It can be considered that there is a probability that the area of the monitor subject 100 in the direction of the line of sight 103 when the gaze condition is satisfied is highly valuable for the photographer 102 to record. In the present embodiment, the regions of the monitor image 101 identified from the range of movement of the line of sight with respect to the monitor subject 100 defined when the gaze condition is satisfied are defined as gaze regions 105a and 105b (see FIG. 3).

図2は、モニター被写体100の任意の位置に複数の注視領域が存在する様子を概念的に示している。各注視領域のサイズは注視条件によって異なる。図3は、モニター画像101が背景画像107と、雲、飛行機、樹木、川、建物、自動車および花などの複数のオブジェクト画像109と、撮影者102の顔画像102aを含んでいる様子を示している。ここにオブジェクト画像109は、撮影者102またはシステムがあらかじめ登録した興味のあるテーマ(注目オブジェクト)の画像を意味し、背景画像107はオブジェクト画像109と顔画像102aを除いたモニター画像101を意味する。   FIG. 2 conceptually shows a state in which a plurality of gaze areas exist at an arbitrary position of the monitor subject 100. The size of each gaze area varies depending on the gaze condition. FIG. 3 shows that the monitor image 101 includes a background image 107, a plurality of object images 109 such as clouds, airplanes, trees, rivers, buildings, cars and flowers, and a face image 102a of the photographer 102. Yes. Here, the object image 109 means an image of an interesting theme (attention object) registered in advance by the photographer 102 or the system, and the background image 107 means the monitor image 101 excluding the object image 109 and the face image 102a. .

一例として画像記録再生システム200は、モニター画像101から注視領域105aが画定する画角(被写体の撮影範囲)の選択画像120を抽出する。選択画像120は、登録された注目オブジェクトに対応する樹木と飛行機のオブジェクト画像109を含んでいるが、樹木の一部は画角から外れている。画像記録再生システム200は、あらかじめ登録したいずれかの注目オブジェクトに対応するオブジェクト画像109を選択画像120が含むか否かを判断する。   As an example, the image recording / reproducing system 200 extracts a selected image 120 having an angle of view (photographing range of a subject) defined by the gaze area 105 a from the monitor image 101. The selection image 120 includes a tree corresponding to the registered object of interest and an object image 109 of the airplane, but a part of the tree is out of the angle of view. The image recording / reproducing system 200 determines whether or not the selected image 120 includes an object image 109 corresponding to one of the target objects registered in advance.

樹木と飛行機のように複数のオブジェクト画像が登録されている場合は、画像記録再生システム200は各オブジェクト画像に欠損が生じないように選択画像120の画角を調整した記録画像130を生成する。他の例では、画像記録再生システム200は選択画像120が含む複数の注目オブジェクトに対応する樹木と飛行機のオブジェクト画像109のそれぞれに焦点が当たるように画角を調整した複数の記録画像131、132を生成する。   When a plurality of object images such as trees and airplanes are registered, the image recording / reproducing system 200 generates a recorded image 130 in which the angle of view of the selected image 120 is adjusted so that no loss occurs in each object image. In another example, the image recording / reproducing system 200 includes a plurality of recorded images 131 and 132 in which the angle of view is adjusted so that the tree and the airplane object image 109 corresponding to the plurality of objects of interest included in the selected image 120 are focused. Is generated.

さらに他の例では、画像記録再生システム200は、モニター画像101の注視領域105aで囲まれた領域が、登録された1個の注目オブジェクトに対応するオブジェクト画像109を含むときは、当該オブジェクト画像109を中心に配置するように画角を調整した記録画像140を生成する。さらに他の例では、画像記録再生システム200は、注視条件が成立したときに画定した注視領域105bが登録されたいずれの注目オブジェクトに対応するオブジェクト画像109を含まない場合でも、モニター画像101から注視領域105bが画定する画角で選択画像121を抽出し、保存に都合のよい記録様式に変換した記録画像150を生成する。   In still another example, when the area surrounded by the gaze area 105a of the monitor image 101 includes the object image 109 corresponding to one registered object of interest, the image recording / reproducing system 200 includes the object image 109. A recorded image 140 with the angle of view adjusted so as to be arranged at the center is generated. In still another example, the image recording / reproducing system 200 gazes from the monitor image 101 even when the gaze area 105b defined when the gaze condition is satisfied does not include the object image 109 corresponding to any registered object of interest. The selected image 121 is extracted at an angle of view defined by the area 105b, and a recorded image 150 converted into a recording format convenient for storage is generated.

[画像記録再生システムのハードウェア構成]
図4は、画像記録再生システム200を実装した電子機器10のハードウェアの構成を説明するための機能ブロック図である。画像記録再生システム200は、日常の生活に関するライフ・ログ・データの記録や、会議や面会などのビジネスに関するビジネス・ログ・データの記録を撮影者102が移動中にまたは特定の場所で行う。図4は、移動中に記録するのに都合のよい携帯式の電子機器10を例示している。
[Hardware configuration of image recording / playback system]
FIG. 4 is a functional block diagram for explaining a hardware configuration of the electronic device 10 in which the image recording / reproducing system 200 is mounted. The image recording / reproducing system 200 records life log data relating to daily life and business log data relating to business such as a meeting or a meeting while the photographer 102 is moving or at a specific place. FIG. 4 illustrates a portable electronic device 10 that is convenient for recording on the move.

電子機器10は、本体ユニット11と装着ユニット51で構成している。電子機器10は、画像記録再生システム200の専用装置であってもよいし、通常のコンピュータに画像記録再生システム200の機能を組み込んだものでもよい。装着ユニット51は、人間の頭部、耳、または腕などに帽子、眼鏡、アームバンドの形態で装着してもよいし、撮影時に手にもつようにしてもよい。   The electronic device 10 includes a main unit 11 and a mounting unit 51. The electronic device 10 may be a dedicated device for the image recording / reproducing system 200 or may be a device in which the function of the image recording / reproducing system 200 is incorporated in a normal computer. The mounting unit 51 may be mounted on a human head, ear, or arm in the form of a hat, glasses, or an armband, or may be held in the hand at the time of shooting.

ここでは本体ユニット11を、装着ユニット51を装着した撮影者102が移動中に携帯する例を示すが、本体ユニット11を遠方に配置してネットワークを通じて装着ユニット51に接続するようにしてもよい。本体ユニット11と装着ユニット51は相互に近距離無線通信を行う無線モジュール24、62を搭載している。ただし、本体ユニット11を撮影者102が携帯する場合は、本体ユニット11と装着ユニット51を有線で接続してもよい。本体ユニット11は、CPU13、システム・メモリ15、I/Oインターフェース17、SSD19、タッチスクリーン21、およびネットワークと通信する無線モジュール23などの周知の要素を含む。SSD19は、画像記録再生システム200の主要な部分を構成するソフトウェアを格納する。   Here, an example in which the photographer 102 wearing the mounting unit 51 carries the main body unit 11 while moving is shown, but the main body unit 11 may be disposed far away and connected to the mounting unit 51 through a network. The main unit 11 and the mounting unit 51 are equipped with wireless modules 24 and 62 that perform short-range wireless communication with each other. However, when the photographer 102 carries the main unit 11, the main unit 11 and the mounting unit 51 may be connected by wire. The main unit 11 includes well-known elements such as a CPU 13, a system memory 15, an I / O interface 17, an SSD 19, a touch screen 21, and a wireless module 23 that communicates with a network. The SSD 19 stores software that constitutes a main part of the image recording / reproducing system 200.

装着ユニット51は、カメラ・モジュール53、マイクロフォン55、操作ボタン57、加速度センサー59およびGPSモジュール61などの周知の要素を含む。カメラ・モジュール53は、CMOSまたはCCDなどのイメージ・センサ、イメージ・シグナル・プロセッサ、およびUSBインターフェースなどで構成している。カメラ・モジュール53は、一例として超広角レンズを搭載しており、水平方向が360度で垂直方向が約180度の半球状のモニター被写体100の風景を撮影することができる。カメラ・モジュール53は、モニター被写体100の画像を光学処理、画像処理、および撮像素子の配列またはそれらの組み合わせによって歪みを補正した平面状のモニター画像101として撮影することができる。   The mounting unit 51 includes known elements such as a camera module 53, a microphone 55, operation buttons 57, an acceleration sensor 59, and a GPS module 61. The camera module 53 includes an image sensor such as a CMOS or CCD, an image signal processor, and a USB interface. As an example, the camera module 53 is equipped with a super-wide-angle lens, and can photograph a landscape of a hemispherical monitor subject 100 whose horizontal direction is 360 degrees and whose vertical direction is about 180 degrees. The camera module 53 can capture an image of the monitor subject 100 as a planar monitor image 101 in which distortion is corrected by optical processing, image processing, and an array of image sensors or a combination thereof.

カメラ・モジュール53はVGA(640×480)、QVGA(320×240)、WVGA(800×480)またはWQVGA(400×240)などのモニター画像101の画像データを一例として30fpsのフレーム・レートで本体ユニット11に転送する。画像記録再生システム200は、顔画像102aの目の瞳孔の向きから視線103の位置をモニター画像101上の座標として同定する。超広角レンズは人間の目よりも広い視野をもち、撮影者102の目と注視領域105a、105bが囲んだ領域の被写体を同時に撮影することができるため、画像記録再生システム200は複数のカメラを使用して視線を同定する場合に必要になる各カメラの光軸を関連付けるための処理が不要になる。   The camera module 53 is a main body at a frame rate of 30 fps by taking image data of the monitor image 101 such as VGA (640 × 480), QVGA (320 × 240), WVGA (800 × 480), or WQVGA (400 × 240) as an example. Transfer to unit 11. The image recording / reproducing system 200 identifies the position of the line of sight 103 as the coordinates on the monitor image 101 from the direction of the pupil of the eye of the face image 102a. Since the super-wide-angle lens has a wider field of view than the human eye and can simultaneously photograph the subject in the area surrounded by the eyes of the photographer 102 and the gaze areas 105a and 105b, the image recording / reproducing system 200 includes a plurality of cameras. A process for associating the optical axes of the respective cameras, which is necessary when the line of sight is used, is not necessary.

超広角レンズを使用することで、撮影者102と注視領域105a、105bの被写体を1つのカメラ・モジュール53で撮影することができるが、前提として装着ユニット51は、視線103と視線方向の被写体の同時撮影に支障のない位置に装着する必要がある。装着ユニット51の身体に対する装着のしかたによっては、超広角レンズより画角が狭い広角レンズやより画角が広い魚眼レンズを採用することもできる。   By using the super-wide-angle lens, it is possible to photograph the subject 102 and the subjects in the gazing areas 105a and 105b with one camera module 53. However, as a premise, the mounting unit 51 has the sight line 103 and the subject in the sight direction. It is necessary to install it at a position where there is no problem with simultaneous shooting. Depending on how the mounting unit 51 is mounted on the body, a wide-angle lens with a narrower angle of view than a super-wide-angle lens or a fisheye lens with a wider angle of view can be employed.

たとえば装着ユニット51を眼鏡のように装着する場合は、画角が超広角レンズより狭い人間の視野程度の広角レンズを採用することができるし、ペンダントのように首からつり下げるときは、画角が超広角レンズより広い魚眼レンズを採用することもできる。魚眼レンズを採用するときは、ソフトウェアで画像の歪みを補正してから記録することができる。また、カメラ・モジュール53は、2台の超広角レンズ・カメラを装着ユニット51の筐体に背中合わせに配置することで、球状の全方位に近いモニター被写体を撮影するようにしてもよい。   For example, when the mounting unit 51 is mounted like glasses, a wide-angle lens having a narrower field of view than a super-wide-angle lens can be used, and when hanging from the neck like a pendant, the angle of view It is also possible to adopt a fish-eye lens that is wider than the super-wide-angle lens. When a fisheye lens is used, it can be recorded after correcting image distortion by software. In addition, the camera module 53 may shoot a monitor subject close to a spherical omnidirectional by arranging two ultra-wide-angle lenses and cameras back to back on the housing of the mounting unit 51.

多くのハードウェアの要素は周知であるが、以下においてはこれらが本実施の形態に関係する主要な機能について説明する。本実施の形態においては、マイクロフォン55、操作ボタン57、加速度センサー59、およびGPSモジュール61は、注視領域105a、105bを画定するための注視条件の調整に利用することができる。さらにマイクロフォン55は、特定の人物やオブジェクトの音声を認識するための音声データの収録に利用することができる。さらにマイクロフォン55は、記録画像130〜150とともに記録する音声データの収録に利用することができる。   Many hardware elements are well-known, but in the following, they describe the main functions related to the present embodiment. In the present embodiment, the microphone 55, the operation button 57, the acceleration sensor 59, and the GPS module 61 can be used for adjusting gaze conditions for defining the gaze areas 105a and 105b. Furthermore, the microphone 55 can be used for recording sound data for recognizing the sound of a specific person or object. Furthermore, the microphone 55 can be used for recording audio data to be recorded together with the recorded images 130 to 150.

操作ボタン57は、撮影者102の操作で注視領域105a、105bを画定するための入力デバイスとして利用する。加速度センサー59は、装着ユニット51に生じた3軸方向の加速度データを生成する。画像記録再生システム200は加速度データによって装着ユニット51の揺動の程度を判断し、カメラ・モジュール53の撮影条件の成立を判断することができる。このときカメラ・モジュール53は、加速度センサー59からの信号でスリープ状態からウェイクすることができる。さらに画像記録再生システム200は、加速度センサー59が生成した重力加速度のデータから装着ユニット51の姿勢の変化を検出して、姿勢の変化量が少ないときに記録画像の生成頻度を下げたり停止したりすることができる。   The operation button 57 is used as an input device for defining the gaze areas 105a and 105b by the operation of the photographer 102. The acceleration sensor 59 generates triaxial acceleration data generated in the mounting unit 51. The image recording / reproducing system 200 can determine the degree of swinging of the mounting unit 51 based on the acceleration data, and can determine whether the imaging condition of the camera module 53 is satisfied. At this time, the camera module 53 can wake from the sleep state by a signal from the acceleration sensor 59. Further, the image recording / reproducing system 200 detects a change in posture of the mounting unit 51 from the data of gravitational acceleration generated by the acceleration sensor 59, and reduces or stops the generation frequency of the recorded image when the amount of change in posture is small. can do.

GPSモジュール61は、装着ユニット51の現在位置を検出してGPSデータを生成する。画像記録再生システム200は、GPSデータを利用して、装着ユニット51が現在撮影者102にとって興味のあると考えられる場所に存在するか、そうでないと考えられる場所に存在するかを判断して記録画像の生成頻度を調整することができる。SSD19は、記録画像130〜150およびそれらの撮影時間帯に収録した音声データなどを記録する。   The GPS module 61 detects the current position of the mounting unit 51 and generates GPS data. The image recording / reproducing system 200 uses the GPS data to determine whether the mounting unit 51 is present at a place considered to be of interest to the photographer 102 or at a place considered to be not so. The frequency of image generation can be adjusted. The SSD 19 records recorded images 130 to 150 and audio data recorded in those shooting time zones.

画像記録再生システム200は、本体ユニット11および装着ユニット51をスマートフォン、タブレット端末、または携帯電話などのように人間が保持しながら使用できる携帯式の電子機器に搭載することができる。さらに他の例として画像記録再生システム200は、特にビジネス・ログをする場合において、停止した位置で使用するノートブック型パーソナル・コンピュータ、デスクトップ型パーソナル・コンピュータまたは専用の画像記録装置に搭載することができる。   In the image recording / reproducing system 200, the main unit 11 and the mounting unit 51 can be mounted on a portable electronic device that can be used while being held by a human, such as a smartphone, a tablet terminal, or a mobile phone. As yet another example, the image recording / reproducing system 200 may be mounted on a notebook personal computer, desktop personal computer, or dedicated image recording device used at a stopped position, particularly when business logging is performed. it can.

[画像記録再生システムのソフトウェア構成]
図5は、画像記録再生システム200の構成を説明するための機能ブロック図である。画像記録再生システム200は、図4で説明したハードウェア要素とSSD19に格納したソフトウェア要素で構成している。画像記録再生システム200は、モニター画像処理部201、記録画像処理部203、記録再生処理部207、注視領域画定部209、注視条件調整部211、および機能設定部213の主要な機能を形成するソフトウェアを含んでいる。
[Software configuration of image recording / playback system]
FIG. 5 is a functional block diagram for explaining the configuration of the image recording / reproducing system 200. The image recording / reproducing system 200 includes the hardware elements described in FIG. 4 and the software elements stored in the SSD 19. The image recording / reproducing system 200 includes software that forms main functions of a monitor image processing unit 201, a recorded image processing unit 203, a recording / reproducing processing unit 207, a gaze area defining unit 209, a gaze condition adjusting unit 211, and a function setting unit 213. Is included.

これらのソフトウェアは本体ユニット11のSSD19に格納されておりCPU13が実行する。モニター画像処理部201、記録画像処理部203、記録再生処理部207、注視領域画定部209、注視条件調整部211、および機能設定部213は、すべて本体ユニット11に搭載する必要はなく、一部を装着ユニットに搭載したり、一部またはすべてをネットワークで接続するサーバに搭載したりしてもよい。   These software are stored in the SSD 19 of the main unit 11 and are executed by the CPU 13. The monitor image processing unit 201, the recorded image processing unit 203, the recording / playback processing unit 207, the gaze area defining unit 209, the gaze condition adjusting unit 211, and the function setting unit 213 need not all be mounted on the main body unit 11, but a part May be mounted on a mounting unit, or may be mounted on a server that is partly or entirely connected via a network.

モニター画像処理部201、記録画像処理部203、記録再生処理部207、注視領域画定部209、注視条件調整部211、および機能設定部213は、CPU13、システム・メモリ15、およびI/Oインターフェース17などと協働して画像記録再生システム200のハードウェア要素としても機能する。図5に示したソフトウェアを含んで構成した要素は一例であり、当業者が予測できる範囲で各要素を分割したり統合したりする場合も本発明の範囲に含む。また、図5に示したソフトウェアを含んで構成した要素の一部をハードウェアで構成するようにしてもよい。   The monitor image processing unit 201, the recorded image processing unit 203, the recording / playback processing unit 207, the gaze area defining unit 209, the gaze condition adjusting unit 211, and the function setting unit 213 are the CPU 13, the system memory 15, and the I / O interface 17. It also functions as a hardware element of the image recording / reproducing system 200 in cooperation with the above. The elements configured including the software shown in FIG. 5 are merely examples, and the scope of the present invention includes a case where the elements are divided or integrated within a range that can be predicted by those skilled in the art. Further, some of the elements configured including the software shown in FIG. 5 may be configured by hardware.

最初に機能設定部213の機能を説明する。機能設定部213は、撮影者102が入力するインターフェースと本体ユニット11のシステムから情報を取得するインターフェースを備えている。図6は、機能設定部213がユーザ・インターフェースとして提供する入力画面250の一例を示す図である。画像記録再生装置200は、入力画面250をタッチスクリーン21に表示する。撮影者102は入力画面250に対して動作モードと記録モードを設定することができる。   First, the function of the function setting unit 213 will be described. The function setting unit 213 includes an interface that is input by the photographer 102 and an interface that acquires information from the system of the main unit 11. FIG. 6 is a diagram illustrating an example of an input screen 250 provided as a user interface by the function setting unit 213. The image recording / reproducing apparatus 200 displays the input screen 250 on the touch screen 21. The photographer 102 can set an operation mode and a recording mode on the input screen 250.

一例として動作モードは、ライフ・ログとビジネス・ログに関する複数の記録目的を含んでいる。ライフ・ログには、記録目的として「日常生活」、「買い物」、「旅行」、「散歩」を例示している。ビジネス・ログには、記録目的として「会議」、「面会」、「文章」、および「点検作業」を例示している。撮影者102はタッチスクリーン21が表示する入力画面250のチェック・ボックス251に記録目的を設定する。各記録目的には、注目オブジェクトを入力するオブジェクト・ウィンドウ253、記録画像とともに行う音声の記録を設定するチェック・ボックス255、注視条件を調整する調整情報を入力する調整ウィンドウ257、259、261を設けている。   As an example, the operation mode includes a plurality of recording purposes related to the life log and the business log. In the life log, “daily life”, “shopping”, “travel”, and “walk” are exemplified as recording purposes. In the business log, “conference”, “visit”, “text”, and “inspection work” are exemplified as recording purposes. The photographer 102 sets a recording purpose in a check box 251 of the input screen 250 displayed on the touch screen 21. For each recording purpose, there are provided an object window 253 for inputting an object of interest, a check box 255 for setting sound recording performed together with a recorded image, and adjustment windows 257, 259, and 261 for inputting adjustment information for adjusting gaze conditions. ing.

注目オブジェクトは、撮影者102が特に興味があるテーマ、画像として残しておきたいテーマまたは有益な情報になり得るテーマなどを普通名称またはアイコンなどで抽象化した情報に相当する。さらに注目オブジェクトは、特定の人物を顔認識するための特徴情報を含んでいてもよい。たとえば撮影者102は、日常生活の記録目的に対応するオブジェクト・ウィンドウ253に、料理、人物、および動物などの日常生活で残しておきたい対象の普通名称を注目オブジェクトとして入力することができる。こうすることで、画像記録再生システム200は、撮影者102の家族、来訪者、食事内容、およびペットなどを記録画像130〜132として記録することができる。   The attention object corresponds to information obtained by abstracting a theme that the photographer 102 is particularly interested in, a theme that the photographer 102 wants to leave as an image, or a theme that can be useful information, etc., with a common name or an icon. Furthermore, the object of attention may include feature information for recognizing a face of a specific person. For example, the photographer 102 can input, as an object of interest, an ordinary name of a target that is desired to remain in daily life such as dishes, people, and animals in the object window 253 corresponding to the purpose of recording daily life. By doing so, the image recording / reproducing system 200 can record the family of the photographer 102, visitors, meal contents, pets, and the like as the recorded images 130 to 132.

さらに撮影者102は会議の記録目的に対応するオブジェクト・ウィンドウ253に、プロジェクタ、および人物を入力することができる。こうすることで画像記録再生システム200は、会議で使用したプロジェクタの画面や参加者の顔画像を記録画像130〜140として記録することができる。注目オブジェクトとして特定の人物の顔を認識するための特徴情報を入力すれば、画像記録再生システム200は当該人物だけを記録画像131、132、140として記録することもできる。   Furthermore, the photographer 102 can input a projector and a person in the object window 253 corresponding to the recording purpose of the meeting. By doing so, the image recording / reproducing system 200 can record the screen of the projector used in the conference and the face images of the participants as recorded images 130-140. If feature information for recognizing the face of a specific person is input as the object of interest, the image recording / reproducing system 200 can also record only the person as recorded images 131, 132, and 140.

さらに機能設定部213はシステムに対するインターフェースを利用して、画像記録再生システム200が保存しているカレンダー、GPSデータ、電子メール、および閲覧したWebサイトなどから抽出した撮影者102の行動履歴や取得した情報から想定した注目オブジェクトを、関連する記録目的のオブジェクト・ウィンドウ253に自動的に追加することができる。   Further, the function setting unit 213 uses the interface to the system to acquire and acquire the action history of the photographer 102 extracted from the calendar, GPS data, e-mail, and the browsed website stored in the image recording / reproducing system 200. The object of interest assumed from the information can be automatically added to the related object window 253 for recording purposes.

チェック・ボックス255を設定すると、画像記録再生システム200は、記録画像130〜150を生成したモニター画像101のフレームの撮影時刻の近辺の時間にマイクロフォン55が収録した音声を記録画像130〜150の附帯情報として記録することができる。調整ウィンドウ257、259、261には、注視条件を調整するための緩和情報、強化情報、および画定情報を調整情報として肯定形式または否定形式で入力することができる。   When the check box 255 is set, the image recording / reproducing system 200 adds the sound recorded by the microphone 55 at the time near the shooting time of the frame of the monitor image 101 that generated the recorded images 130 to 150. It can be recorded as information. In the adjustment windows 257, 259, and 261, relaxation information, enhancement information, and demarcation information for adjusting gaze conditions can be input as adjustment information in an affirmative format or a negative format.

緩和情報は注視条件の成立を容易にする調整情報で、強化情報は注視条件の成立を困難にする調整情報で、画定情報は注視条件をただちに成立させる調整情報に相当する。調整情報には、注目オブジェクトの一般名称、装着ユニット51の地理的な位置を評価するためのGPSデータ、装着ユニット51の姿勢の変化量を評価するための加速度データ、人物を認識するための音声の特徴情報、またはオブジェクトを認識するための画像の特徴情報などを入力することができる。音声の特徴情報には白熱した議論の様子を識別する特徴情報を含めることができる。画像の特徴情報には、特定の人物の顔を識別する特徴情報、または人間の特定の動作を識別する特徴情報を含めることができる。   The relaxation information is adjustment information that facilitates the establishment of the gaze condition, the enhancement information is adjustment information that makes it difficult to establish the gaze condition, and the demarcation information corresponds to adjustment information that immediately establishes the gaze condition. The adjustment information includes a general name of the object of interest, GPS data for evaluating the geographical position of the mounting unit 51, acceleration data for evaluating the amount of change in posture of the mounting unit 51, and voice for recognizing a person. Feature information or image feature information for recognizing an object can be input. The feature information for voice can include feature information for identifying a heated discussion. The feature information of the image can include feature information for identifying a face of a specific person or feature information for identifying a specific action of a person.

一例では、緩和情報としてGPSデータまたは、音声または画像を認識するための特徴情報を入力することができる。強化情報として加速度データまたはGPSデータを入力することができる。画定情報として注目オブジェクトの名称または人間の動作を認識するための特徴情報を入力することができる。機能設定部213は、入力されたチェック・ボックス251、255、オブジェクト・ウィンドウ253、調整ウィンドウ257、259、261の内容を記録画像処理部203、記録再生処理部207、および注視条件調整部211に設定する。   In one example, GPS data or feature information for recognizing sound or images can be input as relaxation information. Acceleration data or GPS data can be input as reinforcement information. As demarcation information, the name of the object of interest or feature information for recognizing a human motion can be input. The function setting unit 213 sends the contents of the input check boxes 251 and 255, object window 253, adjustment windows 257, 259, and 261 to the recorded image processing unit 203, recording / playback processing unit 207, and gaze condition adjustment unit 211. Set.

記録モードの設定は、SSD19に記録する画像の種類をチェック・ボックス263に設定することで行う。記録モードは、複数の注目オブジェクトに対応する複数のオブジェクト画像を含む1つの記録画像130、それぞれ単独の注目オブジェクトに対応するオブジェクト画像を含む複数の記録画像131&132、単独の注目オブジェクトに対応するオブジェクト画像を含む1つの記録画像140、およびオブジェクト画像の存否を判断しないで画定領域105bで囲まれた領域を記録する記録画像150のいずれかを選択することができる。チェック・ボックス263は複数を設定してもよい。機能設定部213はチェック・ボックス263の内容を記録画像処理部203および記録再生処理部207に設定する。   The recording mode is set by setting the type of image to be recorded on the SSD 19 in the check box 263. The recording mode includes one recording image 130 including a plurality of object images corresponding to a plurality of objects of interest, a plurality of recording images 131 and 132 each including an object image corresponding to a single object of attention, and an object image corresponding to a single object of attention. One of the recorded images 140 including the recorded image 140 and the recorded image 150 that records the region surrounded by the demarcated region 105b without determining the presence or absence of the object image can be selected. A plurality of check boxes 263 may be set. The function setting unit 213 sets the contents of the check box 263 in the recorded image processing unit 203 and the recording / playback processing unit 207.

モニター画像処理部201は、カメラ・モジュール53が転送する画像データを受け取る。モニター画像処理部201は一例として動画再生の可能な30fpsのフレーム・レートで受け取った画像データを、所定の時間の間SSD19に設けたバッファに記録する。画像データのフレーム・レートは、視線103のトラッキングに支障がでない程度まで下げることができる。バッファはSSD19以外の不揮発性メモリに設けてもよい。   The monitor image processing unit 201 receives image data transferred by the camera module 53. As an example, the monitor image processing unit 201 records image data received at a frame rate of 30 fps at which moving image reproduction is possible in a buffer provided in the SSD 19 for a predetermined time. The frame rate of the image data can be lowered to such an extent that the tracking of the line of sight 103 is not hindered. The buffer may be provided in a nonvolatile memory other than the SSD 19.

カメラ・モジュール53は、モニター画像の転送を開始するときは、最初にローリング・シャッタの露光時間(露光量)、ホワイト・バランス、およびAGC回路のゲインなどのキャリブレーションを行い、その時点での撮影環境に最適なパラメータ値を取得して設定する。しかし実際には撮影条件が撮影当初から変化して、モニター画像処理部201は望ましい画質のモニター画像を取得できなくなることがある。これに対応するために、モニター画像処理部201は、モニター画像を評価した結果に基づいてカメラ・モジュール53にキャリブレーションを再実行するようにリクエストすることができる。   When starting to transfer the monitor image, the camera module 53 first calibrates the exposure time (exposure amount) of the rolling shutter, the white balance, the gain of the AGC circuit, and the like, and shoots at that time. Get and set the optimal parameter values for your environment. However, in reality, the shooting conditions may change from the beginning of shooting, and the monitor image processing unit 201 may not be able to acquire a monitor image with a desired image quality. To cope with this, the monitor image processing unit 201 can request the camera module 53 to re-execute calibration based on the result of evaluating the monitor image.

モニター画像処理部201は、バッファに記録する画像データにシステムが生成する基準時刻のタイム・スタンプを付加する。画像記録再生システム200は、CPU13がアイドル状態または使用率が低い状態のときにバッファに記録した画像データを利用して記録画像の生成および記録をすることができる。バッファの容量は、画像記録再生システム200が、モニター画像101を処理するまでの想定時間に応じて小さくすることができる。   The monitor image processing unit 201 adds a time stamp of the reference time generated by the system to the image data to be recorded in the buffer. The image recording / reproducing system 200 can generate and record a recorded image using the image data recorded in the buffer when the CPU 13 is in an idle state or a low usage rate. The capacity of the buffer can be reduced according to the estimated time until the image recording / reproducing system 200 processes the monitor image 101.

バッファに記録した画像データは、記録画像130〜150を生成するためのモニター画像101の処理(記録画像を生成しない場合も含む。)が終わると消去することができるため、SSD19には有益な記録画像130〜150だけを記録することができる。なお、モニター画像処理部201は、記録画像を生成したフレームの前後の所定数のフレームをSSD19に保存して、後に記録画像の前後のフレームの画像を閲覧できるようにしてもよい。   The image data recorded in the buffer can be erased after the processing of the monitor image 101 (including the case where no recorded image is generated) for generating the recorded images 130 to 150 is completed. Only images 130-150 can be recorded. Note that the monitor image processing unit 201 may store a predetermined number of frames before and after the frame in which the recording image is generated in the SSD 19 so that the images in the frames before and after the recording image can be browsed later.

記録画像処理部203は、注視領域画定部209から注視領域105a、105bの座標を受け取ったときに、モニター画像101の中の注視領域105a、105bで囲まれた領域の画像を選択画像120、121としてモニター画像処理部201から取得する。取得する選択画像120、121は、注視領域105a、105bを画定するために設定した所定の時間(注視時間)にモニター画像処理部201が取得した連続する複数のフレームの中から選択することができる。たとえば、注視領域105a、105bを画定する際に、30フレームのモニター画像101を使用した場合は、15フレーム目の画像を選択画像120、121とすることができる。   When the recorded image processing unit 203 receives the coordinates of the gaze regions 105a and 105b from the gaze region defining unit 209, the recorded image processing unit 203 selects the images of the regions surrounded by the gaze regions 105a and 105b in the monitor image 101 as the selection images 120 and 121. Obtained from the monitor image processing unit 201. The acquired selection images 120 and 121 can be selected from a plurality of consecutive frames acquired by the monitor image processing unit 201 during a predetermined time (gaze time) set to demarcate the gaze areas 105a and 105b. . For example, when the monitor image 101 of 30 frames is used when defining the gaze regions 105a and 105b, the 15th frame image can be set as the selection images 120 and 121.

記録画像処理部203は、周知のオブジェクト認識機能を備えており、選択画像130〜132、140のいずれかを記録する記録モードが設定されたときは、選択画像120、121が含むオブジェクト画像を認識して、オブジェクト・ウィンドウ253に入力された注目オブジェクトと比較することができる。記録画像処理部203は、記録モードとして複数のオブジェクト画像を含む記録画像130が設定されたときに、選択画像120、121のなかに複数の注目オブジェクトに対応するいずれかのオブジェクト画像109が存在するか否かを判断する。記録画像処理部203はいずれの注目オブジェクトに対応するオブジェクト画像109も存在しないと判断した場合は当該選択画像121、121を破棄して記録画像130〜150を生成しないようにすることができる。   The recorded image processing unit 203 has a known object recognition function, and recognizes the object image included in the selected images 120 and 121 when a recording mode for recording any of the selected images 130 to 132 and 140 is set. Thus, the object of interest input to the object window 253 can be compared. When the recording image 130 including a plurality of object images is set as the recording mode, the recording image processing unit 203 includes any one of the object images 109 corresponding to the plurality of objects of interest in the selection images 120 and 121. Determine whether or not. When the recorded image processing unit 203 determines that there is no object image 109 corresponding to any object of interest, the selected images 121 and 121 can be discarded so that the recorded images 130 to 150 are not generated.

記録画像処理部203は選択画像120にいずれかの注目オブジェクトに対応するオブジェクト画像109が存在すると判断した場合は、それらがすべて記録様式の画角に収まっているか否かを判断する。記録様式に収まっていないと判断したときは、記録画像処理部203は、注視領域105aの中心座標をずらし、かつ、注目オブジェクトに対応するオブジェクト画像が中心に配置されるように拡大または縮小したモニター画像101の領域を抽出して記録様式に変換し記録画像130を生成する。記録画像処理部203は必要に応じて、記録画像130が含むオブジェクト画像109の天地が記録様式の画角のなかで正しく整合するように回転処理をする。   When the recorded image processing unit 203 determines that the object image 109 corresponding to one of the target objects exists in the selected image 120, the recorded image processing unit 203 determines whether or not all of them are within the angle of view of the recording format. When it is determined that the image does not fit in the recording format, the recorded image processing unit 203 shifts the center coordinate of the gaze area 105a and enlarges or reduces the monitor so that the object image corresponding to the object of interest is arranged at the center. A region of the image 101 is extracted and converted into a recording format to generate a recorded image 130. If necessary, the recorded image processing unit 203 performs a rotation process so that the top and bottom of the object image 109 included in the recorded image 130 are correctly aligned within the angle of view of the recording format.

記録画像処理部203は、記録モードとしてそれぞれオブジェクト画像109を含む複数の記録画像131&132が設定されたときに、選択画像120のなかに当該注目オブジェクトに対応するいずれかのオブジェクト画像109が存在するか否かを判断し記録様式の画角に天地が整合して収まるように調整した記録画像131、132を生成する。このとき背景画像107からオブジェクト画像109だけをトリミングする画像処理をしてもよい。   The recorded image processing unit 203 determines whether any object image 109 corresponding to the object of interest exists in the selected image 120 when a plurality of recorded images 131 & 132 each including the object image 109 is set as the recording mode. Whether or not is determined, the recording images 131 and 132 adjusted so that the top and bottom are aligned with the angle of view of the recording format are generated. At this time, image processing for trimming only the object image 109 from the background image 107 may be performed.

記録画像処理部203は、記録モードとして1つのオブジェクト画像109を含む1つの記録画像140が設定されたときに、モニター画像101の注視領域105aで囲まれた領域に注目オブジェクトに対応するオブジェクト画像109が存在する場合だけ、記録様式に加工した記録画像140を生成する。記録画像処理部203は、記録モードとしてオブジェクト画像の存否を判断しない記録画像150が設定されたときに、注視条件が成立したときの注視領域105bで切り取った選択画像121の画角を調整した記録画像150を生成する。   When one recorded image 140 including one object image 109 is set as the recording mode, the recorded image processing unit 203 sets the object image 109 corresponding to the object of interest in the area surrounded by the gazing area 105a of the monitor image 101. Only when there is, the recorded image 140 processed into the recording format is generated. The recorded image processing unit 203 adjusts the angle of view of the selected image 121 cut out in the gaze area 105b when the gaze condition is satisfied when the recorded image 150 that does not determine whether the object image exists is set as the recording mode. An image 150 is generated.

このとき、記録画像処理部203はオブジェクト・ウィンドウ253に注目オブジェクトが入力されていても選択画像121について注目オブジェクトに対応するオブジェクト画像109の存否を判断しないが、記録画像140がオブジェクト・ウィンドウ253に入力された注目オブジェクトに対応するオブジェクト画像109を偶然含むことはあってもよい。記録画像処理部203は望ましい画質の記録画像130〜150を生成できないときにモニター画像処理部201を通じてカメラ・モジュール53にキャリブレーションの再実行を要求することができる。記録画像処理部203は、生成した記録画像130〜150を記録再生処理部207に送る。   At this time, the recorded image processing unit 203 does not determine whether the object image 109 corresponding to the target object exists in the selected image 121 even if the target object is input to the object window 253, but the recorded image 140 is displayed in the object window 253. The object image 109 corresponding to the input object of interest may be included by chance. The recorded image processing unit 203 can request the camera module 53 to re-execute calibration through the monitor image processing unit 201 when the recorded images 130 to 150 having desired image quality cannot be generated. The recorded image processing unit 203 sends the generated recorded images 130 to 150 to the recording / playback processing unit 207.

記録画像処理部203は、周知の画像分析機能を備えており、前回生成した選択画像120、121と今回生成した選択画像120、121との輝度、明度、彩度、または色相などの分布を分析して差が少ない場合は、選択画像120、121は類似していると判断して今回生成した選択画像120、121を破棄することができる。記録画像処理部203は、注目オブジェクトを設定しないときに抽出した選択画像121において、空や地面などのあらかじめ設定した一般的に意味のないと考えられる画像が大部分を占める場合は、当該選択画像121を破棄することができる。   The recorded image processing unit 203 has a well-known image analysis function, and analyzes the distribution of brightness, brightness, saturation, or hue between the selection images 120 and 121 generated last time and the selection images 120 and 121 generated this time. If the difference is small, it is determined that the selected images 120 and 121 are similar, and the currently generated selected images 120 and 121 can be discarded. In the selected image 121 extracted when the target object is not set, the recorded image processing unit 203 occupies most of the selected images that are generally considered to be meaningless, such as the sky and the ground. 121 can be discarded.

記録再生処理部207は、機能設定部213が設定した動作モードの記録目的ごとに分類したフォルダーに日付、時刻、撮影位置の情報などのメタ情報を付加して記録画像130〜150をSSD19に記録する。記録再生処理部207は、チェック・ボックス255に音声記録が設定されているときは、注視条件調整部211から受け取ったマイクロフォン55の収録データも記録画像130〜150の附帯情報として記録する。記録再生処理部207は、SSD19に保存した記録画像130〜150を撮影者102が再生する際のインターフェース画面を提供する。インターフェース画面には、保存した記録画像のサムネールを含んでもよい。   The recording / playback processing unit 207 records the recorded images 130 to 150 on the SSD 19 by adding meta information such as date, time, and shooting position information to the folders classified by the recording purpose of the operation mode set by the function setting unit 213. To do. When audio recording is set in the check box 255, the recording / playback processing unit 207 also records the recorded data of the microphone 55 received from the gaze condition adjusting unit 211 as supplementary information of the recorded images 130 to 150. The recording / playback processing unit 207 provides an interface screen when the photographer 102 plays back the recorded images 130 to 150 stored in the SSD 19. The interface screen may include thumbnails of stored recorded images.

注視領域画定部209は、周知の顔認識機能を備えており、あらかじめ登録した撮影者102を認識して、モニター画像101が含む他の人物から撮影者102の顔を識別することができる。注視領域画定部209は周知の視線同定機能を備えており、モニター画像処理部201から受け取ったモニター画像101が含む顔画像102aの目の動きから、アイ・トラッキング技術を使ってモニター画像101の座標における視線103の位置を同定する。図7は同定した視線103の座標から注視領域105a、105bを画定する方法の一例を説明する図である。注視領域画定部209は、たとえば0.1秒といった単位時間ごとに取得したモニター画像101のフレームから視線103の座標を計算する。   The gaze area defining unit 209 has a known face recognition function, and can recognize the photographer 102 registered in advance and identify the face of the photographer 102 from other persons included in the monitor image 101. The gaze region demarcating unit 209 has a known gaze identification function. From the eye movement of the face image 102a included in the monitor image 101 received from the monitor image processing unit 201, the coordinates of the monitor image 101 are detected using eye tracking technology. The position of the line of sight 103 at is identified. FIG. 7 is a diagram for explaining an example of a method for demarcating the gaze regions 105 a and 105 b from the coordinates of the identified line of sight 103. The gaze area defining unit 209 calculates the coordinates of the line of sight 103 from the frame of the monitor image 101 acquired every unit time such as 0.1 seconds.

たとえば、モニター画像101のフレーム・レートが30fpsのときは、連続するフレームについて3フレームごとのモニター画像101から視線103の座標104を計算する。注視領域画定部209は、たとえば1秒といった注視領域105a、105bを画定するための注視時間を設定し、注視時間に計算した10個の座標104のうち、図7(A)に示すように最も外側の座標を通過する矩形領域106aを特定する。注視領域画定部209は矩形領域106aの面積が所定の上限の閾値以下または所定の上下限の閾値の範囲内と判断したときは、注視条件が成立したとみなすことができる。矩形領域106aの面積は注視時間の間の座標104の離散量に相当する。離散量が所定の閾値より小さい場合は、撮影者102が記録に値する特定の被写体をみている可能性が高いとみなすことができる。   For example, when the frame rate of the monitor image 101 is 30 fps, the coordinates 104 of the line of sight 103 are calculated from the monitor image 101 every three frames for consecutive frames. The gaze area defining unit 209 sets a gaze time for demarcating the gaze areas 105a and 105b, for example, 1 second, and among the ten coordinates 104 calculated for the gaze time, as shown in FIG. The rectangular area 106a passing through the outer coordinates is specified. When the gaze area defining unit 209 determines that the area of the rectangular area 106a is equal to or less than a predetermined upper limit threshold value or within a predetermined upper and lower threshold value range, it can be considered that the gaze condition is satisfied. The area of the rectangular area 106a corresponds to a discrete amount of the coordinates 104 during the gaze time. If the discrete amount is smaller than the predetermined threshold, it can be considered that the photographer 102 is likely to be viewing a specific subject worth recording.

注視領域画定部209は、注視条件が成立したときの矩形領域106aを注視領域105a、105bとして画定する。なお、注視領域105a、105bは矩形以外の形状で画定してもよい。また、新聞のような段組みの文章を読むと判断した場合には、視線103はほぼ直線状に動くことを前提にすると、注視領域画定部209にオブジェクト認識機能をもたせて新聞を読んでいると判断したときは、読んだ範囲を記録画像に含めるために、最も外側の座標を越えた範囲に矩形領域106aを定めるようにしてもよい。   The gaze area defining unit 209 defines the rectangular area 106a when the gaze condition is satisfied as the gaze areas 105a and 105b. Note that the gaze regions 105a and 105b may be defined by a shape other than a rectangle. Also, when it is determined that a column-like sentence such as a newspaper is read, assuming that the line of sight 103 moves substantially linearly, the gaze area defining unit 209 is provided with an object recognition function to read the newspaper. If it is determined, the rectangular area 106a may be defined in a range beyond the outermost coordinates in order to include the read range in the recorded image.

注視領域画定部209は、図7(B)に示すように所定の注視時間のなかで同定した10個の座標104が形成する矩形領域106bの面積が、所定の閾値より大きい場合は注視条件が成立しないとみなして注視領域105a、105bを画定しないようにすることができる。この場合は、撮影者102の視線103の動きが大きいため特に興味をもった被写体をみていないと想定する。   As shown in FIG. 7B, the gaze area defining unit 209 determines that the gaze condition is set when the area of the rectangular area 106b formed by the ten coordinates 104 identified in the predetermined gaze time is larger than a predetermined threshold. The gaze areas 105a and 105b can be prevented from being demarcated because they are not established. In this case, since the movement of the line of sight 103 of the photographer 102 is large, it is assumed that a particularly interesting subject is not seen.

注視領域画定部209は、図7(C)に示すように所定の注視時間のなかで同定した10個の座標104が形成する矩形領域106cの面積が、所定値より小さい場合は、見かけ上は特定の方向を注視しているが、撮影者102が意識して風景をみているのではなく考えごとをしたり瞑想したりしているとみなして注視領域105a、105bを画定しないようにすることができる。なお、離散量の下限の閾値は設定しないようにしてもよい。   As shown in FIG. 7C, the gaze area demarcating unit 209 looks apparently when the area of the rectangular area 106c formed by the ten coordinates 104 identified in the predetermined gaze time is smaller than the predetermined value. Although a specific direction is being watched, it is assumed that the photographer 102 is not consciously looking at the landscape but is thinking or meditating so that the gaze areas 105a and 105b are not defined. it can. Note that the threshold of the lower limit of the discrete amount may not be set.

図8は注視条件の成立を判定する他の方法を説明する図である。図8は、横軸が経過時間で縦軸が視線103の座標104の離散距離を示している。離散距離は、座標104の離散量に相当する。時間軸上には、注視領域105a、105bの判断を開始する開始時刻t0、t1、t2・・・をたとえば1秒といった注視時間ごとに設定する。離散距離は各開始時刻における座標104を基準(離散距離0)として、それ以後の各座標104についての開始時刻の座標に対する距離を示している。離散距離には、上限と下限の閾値Th1、Th2を設定する。   FIG. 8 is a diagram illustrating another method for determining whether the gaze condition is satisfied. In FIG. 8, the horizontal axis indicates the elapsed time, and the vertical axis indicates the discrete distance of the coordinate 104 of the line of sight 103. The discrete distance corresponds to a discrete amount of coordinates 104. On the time axis, start times t0, t1, t2,... For starting the determination of the gaze areas 105a, 105b are set for each gaze time, for example, 1 second. The discrete distance indicates the distance with respect to the coordinates of the start time for each coordinate 104 thereafter, with the coordinates 104 at each start time as a reference (discrete distance 0). Upper and lower thresholds Th1 and Th2 are set for the discrete distance.

注視領域画定部209は、たとえば隣接する開始時刻t0、t1の間の注視時間に取得した10個の座標104の中で、離散距離が閾値Th1と閾値Th2の間に入る座標104の数が所定値以上のときは注視条件が成立したと判断し、それ以外のときは不成立と判断することができる。そして注視条件が成立したときは、10個の座標104または、閾値Th1、Th2の範囲に入る座標104に対して図7と同様に矩形領域106aを設定し注視領域105a、105bを画定することができる。注視領域画定部209は、アイ・トラッキング技術に代えて顔の向きと目の間に設定した顔の法線から視線103を推定して、擬似的に視線103を同定することもできる。   For example, the gaze area defining unit 209 has a predetermined number of coordinates 104 in which the discrete distance falls between the threshold Th1 and the threshold Th2 among the ten coordinates 104 acquired at the gaze time between adjacent start times t0 and t1. When the value is greater than or equal to the value, it can be determined that the gaze condition is satisfied, and otherwise it can be determined that the gaze condition is not satisfied. When the gaze condition is satisfied, the rectangular area 106a is set for the ten coordinates 104 or the coordinates 104 that fall within the range of the threshold values Th1 and Th2, as in FIG. 7, and the gaze areas 105a and 105b can be defined. it can. The gaze region demarcating unit 209 can estimate the line of sight 103 from the face normal and the normal of the face set between the eyes instead of the eye tracking technique, and identify the line of sight 103 in a pseudo manner.

注視領域画定部209は、注視条件調整部211から注視条件を調整するための緩和指示、強化指示、または画定指示を受け取ることができる。注視領域画定部209は緩和指示を受け取ったときに、注視時間を短くしたり離散量の閾値を緩めたりして注視条件を緩和することができる。注視領域画定部209は強化指示を受け取ったときに、注視時間を長くしたり離散量の閾値を厳しくしたりして注視条件を強化することができる。注視領域画定部209は画定指示を受け取ったときに、受け取ったタイミングの前後の所定数のフレームから図7または図8を参照して説明した方法で視線103の座標を同定し注視領域105a、105bを画定することができる。   The gaze area defining unit 209 can receive a relaxation instruction, a strengthening instruction, or a defining instruction for adjusting the gaze condition from the gaze condition adjusting unit 211. When receiving the relaxation instruction, the gaze region defining unit 209 can relax the gaze condition by shortening the gaze time or relaxing the threshold of the discrete amount. When receiving the strengthening instruction, the gaze area defining unit 209 can reinforce the gaze condition by increasing the gaze time or increasing the threshold of the discrete amount. When receiving the definition instruction, the gaze area defining unit 209 identifies the coordinates of the line of sight 103 from the predetermined number of frames before and after the received timing by the method described with reference to FIG. 7 or 8, and gaze areas 105a and 105b. Can be defined.

注視条件調整部211は、周知の音声認識機能、顔認識機能、オブジェクト認識機能、および動作認識機能を備えている。注視条件調整部211は、マイクロフォン55、操作ボタン57、加速度センサー59、またはGPSモジュール61の入力を、システムの基準時刻から生成したタイム・スタンプを付加してSSD19のバッファに格納する。注視条件調整部211は、マイクロフォン55が収録した音声データ、操作ボタン57の入力、加速度センサー59が検出した加速度データ、GPSモジュール61が生成したGPSデータまたはモニター画像処理部201から取得したモニター画像101と、入力画面250の調整ウィンドウ257、259、261に入力された調整情報に従って、注視領域画定部209に注視条件を調整するための指示をする。   The gaze condition adjustment unit 211 has a known voice recognition function, face recognition function, object recognition function, and motion recognition function. The gaze condition adjustment unit 211 stores the input of the microphone 55, the operation button 57, the acceleration sensor 59, or the GPS module 61 in the buffer of the SSD 19 with a time stamp generated from the system reference time. The gaze condition adjustment unit 211 includes audio data recorded by the microphone 55, input of the operation button 57, acceleration data detected by the acceleration sensor 59, GPS data generated by the GPS module 61, or the monitor image 101 acquired from the monitor image processing unit 201. In response to the adjustment information input to the adjustment windows 257, 259, and 261 on the input screen 250, the gaze area defining unit 209 is instructed to adjust the gaze condition.

注視条件調整部211は、たとえば調整ウィンドウ257に特定の人物または特定のオブジェクトの音声を認識するための特徴情報が入力されていれば、マイクロフォン55が検出した音声データから当該人物または当該オブジェクトを認識したときに注視領域画定部209に緩和指示をすることができる。音声としては、会議での議論が白熱したときの参加者の音声の高揚を示す特徴情報を入力することもできる。注視条件調整部211は、たとえば調整ウィンドウ257に特定の人物の顔を認識するための特徴情報が入力されていれば、モニター画像101に当該人物の存在を認識したときに注視領域画定部209に緩和指示をすることができる。このときの人物としては、ビジネス上の重要人物や注目している人物とすることができる。   The gaze condition adjusting unit 211 recognizes the person or the object from the sound data detected by the microphone 55 if, for example, feature information for recognizing the sound of the specific person or the specific object is input to the adjustment window 257. When this is done, a relaxation instruction can be given to the gaze area defining unit 209. As the voice, it is also possible to input feature information indicating the uplift of the voice of the participant when the discussion at the meeting is incandescent. For example, if the feature information for recognizing the face of a specific person is input to the adjustment window 257, the gaze condition adjustment unit 211 causes the gaze region definition unit 209 to recognize the presence of the person on the monitor image 101. Can give relaxation instructions. The person at this time can be an important person in business or a person who is paying attention.

注視条件調整部211は、たとえば調整ウィンドウ257にGPSデータが入力されていれば、GPSモジュール61が検出したGPSデータから装着ユニット51が所定の場所に存在すると認識したときに、注視領域画定部209に緩和指示をすることができる。このとき調整ウィンドウ257に入力するGPSデータは、否定論理で入力した記録したくない日常的な移動範囲または肯定論理で入力した撮影者102が特に関心のある場所とすることができる。   For example, if the GPS data is input to the adjustment window 257, the gaze condition adjusting unit 211 recognizes that the mounting unit 51 is present at a predetermined location from the GPS data detected by the GPS module 61. You can give relaxation instructions. At this time, the GPS data input to the adjustment window 257 can be a daily movement range that is input in negative logic and is a place of particular interest to the photographer 102 that is input in positive logic.

注視条件調整部211は、たとえば調整ウィンドウ259に装着ユニット51の姿勢の変化量を示す加速度データが入力されていれば、選択画像120、121を前回生成してから今回生成するまでの間に加速度センサー59が検出した加速度データから装着ユニット51の姿勢の変化が少ないと判断したときに、注視領域画定部209に注視条件を強化するための強化指示をすることができる。装着ユニット51の姿勢の変化が小さいときは、撮影者が同じ被写体をみている可能性が高いため冗長性の高い記録画像の生成を回避することができる。   For example, if the gaze condition adjustment unit 211 receives acceleration data indicating the amount of change in the posture of the mounting unit 51 in the adjustment window 259, the gaze condition adjustment unit 211 accelerates the generation of the selection images 120 and 121 from the previous generation to the current generation. When it is determined from the acceleration data detected by the sensor 59 that the change in the posture of the mounting unit 51 is small, a strengthening instruction for strengthening the gaze condition can be given to the gaze region defining unit 209. When the change in the posture of the mounting unit 51 is small, it is highly possible that the photographer is looking at the same subject, so that it is possible to avoid the generation of a highly redundant recorded image.

注視条件調整部211は、操作ボタン57の入力を受け取ったときは、注視領域画定部209にただちに注視領域105a、105bを画定するように注視条件の画定指示をすることができる。注視条件調整部211は、たとえば調整ウィンドウ261に人物の特定の動作を示す特徴情報が入力されていれば、モニター画像101から当該動作の存在を認識したときに注視領域画定部209に注視条件の画定指示をすることができる。   When receiving the input of the operation button 57, the gaze condition adjusting unit 211 can instruct the gaze area defining unit 209 to define the gaze conditions so as to immediately define the gaze areas 105a and 105b. For example, if feature information indicating a specific action of a person is input to the adjustment window 261, the gaze condition adjusting unit 211 recognizes the gaze condition in the gaze area defining unit 209 when the presence of the action is recognized from the monitor image 101. Definition instructions can be given.

この場合に入力しておく動作は、会議に参加している撮影者102がメモをとったり、プロジェクタを使って説明したりする会議の重要な場面で行われる自然な行為とすることができる。注視条件調整部211は、たとえば調整ウィンドウ261に特定の注目オブジェクトが入力されていれば、モニター画像101が当該注目オブジェクトに対応するオブジェクト画像109を含むときに、注視領域画定部209に注視条件の画定指示をすることができる。注視条件調整部211は、記録再生処理部207の要求に応じて、音声データを記録再生処理部207に送る。   The operation to be input in this case can be a natural action performed in an important scene of the meeting where the photographer 102 participating in the meeting takes notes or explains using a projector. For example, if a specific attention object is input to the adjustment window 261, the gaze condition adjustment unit 211 sets a gaze condition in the gaze area defining unit 209 when the monitor image 101 includes the object image 109 corresponding to the attention object. Definition instructions can be given. The gaze condition adjustment unit 211 sends audio data to the recording / playback processing unit 207 in response to a request from the recording / playback processing unit 207.

上述のように記録画像処理部203は、記録画像130〜150の画質が低下したときにカメラ・モジュール53に対してキャリブレーションを再実行するように要求することがある。このとき、カメラ・モジュール53とモニター画像処理部201と間の通信を無線モジュール24、62で行うと、通信条件によってはモニター画像の転送が遅れて注視領域105a、105bを画定するタイミングが、撮影者102の視線103の動きより遅れて撮影機会を逃す場合がある。   As described above, the recorded image processing unit 203 may request the camera module 53 to re-execute calibration when the image quality of the recorded images 130 to 150 deteriorates. At this time, if communication between the camera module 53 and the monitor image processing unit 201 is performed by the wireless modules 24 and 62, the timing at which the gaze areas 105a and 105b are demarcated due to a delay in the transfer of the monitor image depending on the communication conditions There is a case where the photographing opportunity is missed after the movement of the line of sight 103 of the person 102.

これに対処するために、画像記録再生システム200は、モニター画像処理部201、記録画像処理部203、注視領域画定部209、注視条件調整部211、および機能設定部213を装着ユニット51に実装することもできる。この場合装着ユニット51には、各機能を実現するプログラムと、CPU、システム・メモリ、I/Oコントローラなどのハードウェアとを実装する。   In order to cope with this, the image recording / reproducing system 200 mounts the monitor image processing unit 201, the recorded image processing unit 203, the gaze area defining unit 209, the gaze condition adjusting unit 211, and the function setting unit 213 in the mounting unit 51. You can also. In this case, the mounting unit 51 is mounted with a program for realizing each function and hardware such as a CPU, a system memory, and an I / O controller.

[画像記録再生システムの動作]
つぎに、図9のフローチャートを参照して、画像記録再生システム200の動作を説明する。ブロック301で電子機器10が通常の動作を開始する。ブロック303で撮影者102は入力画面250を通じて動作モードおよび記録モードを設定する。ここでは記録目的のチェック・ボックス251に散歩を設定し、音声記録のチェック・ボックス255を設定し、オブジェクト・ウィンドウ253に注目オブジェクトとして樹木と飛行機を入力し、調整ウィンドウ257、259に緩和情報と強化情報としてそれぞれ異なるGPSデータを入力しているものとする。記録モードは、選択画像131&132を設定しているものとする。
[Operation of image recording and playback system]
Next, the operation of the image recording / reproducing system 200 will be described with reference to the flowchart of FIG. In block 301, the electronic device 10 starts normal operation. In block 303, the photographer 102 sets an operation mode and a recording mode through the input screen 250. Here, a walk is set in the check box 251 for recording, a check box 255 for audio recording is set, a tree and an airplane are input as objects of interest in the object window 253, relaxation information and the adjustment windows 257 and 259 are input. Assume that different GPS data is input as the reinforcement information. It is assumed that the selected image 131 & 132 is set as the recording mode.

ブロック305で加速度センサー59が検出した振動または揺動を示す加速度データが所定値以下のときに、撮影条件が成立して画像記録再生システム200が動作を開始する。ブロック307で、カメラ・モジュール53がモニター被写体100の撮影を開始して、モニター画像101を出力する。モニター画像処理部201は受け取ったモニター画像101にタイム・スタンプを付加してSSD19のバッファに記憶する。   When the acceleration data detected by the acceleration sensor 59 in block 305 or the acceleration data indicating the swing is equal to or less than a predetermined value, the imaging condition is satisfied and the image recording / reproducing system 200 starts operating. In block 307, the camera module 53 starts photographing the monitor subject 100 and outputs the monitor image 101. The monitor image processing unit 201 adds a time stamp to the received monitor image 101 and stores it in the buffer of the SSD 19.

入力画面250で音声記録のチェック・ボックス255が設定されているため、ブロック309で注視条件調整部211は、モニター画像処理部201がモニター画像101を受け取っている時間帯を含むマイクロフォン55が収録した音声データをバッファに記憶するために、タイム・スタンプを付加して記録再生処理部207に送る。なお、注視条件調整部211はいずれかの調整ウィンドウ257、259、261に音声の特徴情報が入力されているときも音声データをバッファに記憶するために、タイム・スタンプを付加して記録再生処理部207に送る。さらに、注視条件調整部211は、操作ボタン57、加速度センサー59およびGPSモジュール61の入力データをバッファに記憶するために、タイム・スタンプを付加して記録再生処理部207に送る。   Since the audio recording check box 255 is set on the input screen 250, the gaze condition adjusting unit 211 records the microphone 55 including the time zone in which the monitor image processing unit 201 receives the monitor image 101 in block 309. In order to store the audio data in the buffer, a time stamp is added and sent to the recording / playback processing unit 207. The gaze condition adjustment unit 211 adds a time stamp and performs recording / reproduction processing in order to store audio data in the buffer even when audio feature information is input to any of the adjustment windows 257, 259, and 261. Send to section 207. Further, the gaze condition adjustment unit 211 adds a time stamp and sends it to the recording / reproduction processing unit 207 in order to store the input data of the operation button 57, the acceleration sensor 59, and the GPS module 61 in the buffer.

画像記録再生システム200は、ブロック301からブロック309までの手順を撮影条件が成立している間は継続して行う。画像記録再生システム200は所定量の画像データがバッファに記憶された段階で記録画像の生成処理を開始してもよいが、好ましくはCPU13の使用率が低下したときに記録処理を開始する。バッファに記憶している画像データ、音声データ、操作ボタンの入力データ、加速度データ、およびGPSデータにはすべて基準時刻のタイム・スタンプを付加しているため画像記録再生システム200は、各データをモニター画像101のフレームを撮影したタイミングに同期させて処理することができる。   The image recording / reproducing system 200 continues the procedure from the block 301 to the block 309 while the imaging condition is satisfied. The image recording / reproducing system 200 may start the recording image generation process when a predetermined amount of image data is stored in the buffer, but preferably starts the recording process when the usage rate of the CPU 13 decreases. Since the image data, audio data, operation button input data, acceleration data, and GPS data stored in the buffer are all appended with a time stamp of the reference time, the image recording / reproducing system 200 monitors each data. Processing can be performed in synchronization with the timing at which the frame of the image 101 is captured.

ブロック311で、注視条件調整部211は、調整ウィンドウ257、259に緩和情報および強化情報として入力されているGPSデータと、GPSモジュール61から取得した装着ユニット51の現在の位置を示すGPSデータとを比較する。注視条件調整部211はブロック313で、緩和情報または強化情報としてのGPSデータと現在位置を示すGPSデータが一致したときは、注視領域画定部209に注視条件の緩和指示または強化指示のいずれかをする。注視条件調整部211は、調整ウィンドウ261に動作を認識するための特徴情報または注目オブジェクトの普通名称が画定情報として入力されているときは、モニター画像101が当該画定情報を含むと判断したときに、注視領域画定部209に注視条件の画定指示をする。   In block 311, the gaze condition adjustment unit 211 obtains GPS data input as relaxation information and enhancement information in the adjustment windows 257 and 259, and GPS data indicating the current position of the mounting unit 51 acquired from the GPS module 61. Compare. In block 313, the gaze condition adjustment unit 211 sends either a gaze condition relaxation instruction or a reinforcement instruction to the gaze area defining unit 209 when the GPS data as the relaxation information or the enhancement information matches the GPS data indicating the current position. To do. When the gaze condition adjusting unit 211 determines that the monitor image 101 includes the definition information when the feature information for recognizing the action or the normal name of the object of interest is input as the definition information in the adjustment window 261. Then, the gaze condition defining unit 209 is instructed to define the gaze condition.

ブロック314で注視領域画定部209は、ディフォルトの注視条件または注視条件調整部211から指示された注視条件にしたがって、モニター画像101が含む顔画像102aから撮影者の視線103を同定して注視領域105a、105bを画定しその座標を記録画像処理部203に送る。ブロック315で記録画像処理部203は、モニター画像101から注視領域105aまたは注視領域105bで囲まれた領域の選択画像120または選択画像121を抽出する。   In block 314, the gaze area defining unit 209 identifies the gaze 103 of the photographer from the face image 102a included in the monitor image 101 according to the default gaze condition or the gaze condition instructed from the gaze condition adjustment unit 211, and gaze area 105a. , 105 b are defined and their coordinates are sent to the recorded image processing unit 203. In block 315, the recorded image processing unit 203 extracts the selected image 120 or the selected image 121 in the area surrounded by the gaze area 105a or the gaze area 105b from the monitor image 101.

ここでは、オブジェクト・ウィンドウ253に樹木および飛行機の注目オブジェクトが入力されているため、ブロック317で記録画像処理部203は、選択画像120、121が、樹木または飛行機のいずれかの注目オブジェクトに対応するオブジェクト画像109を含むか否かを判断する。オブジェクト画像109を含むと判断したときは、それらが選択画像120の中に欠損がない状態で含まれているか否かを判断する。   Here, since the object of interest of the tree and the airplane is input to the object window 253, the recorded image processing unit 203 in block 317 causes the selection images 120 and 121 to correspond to the object of interest of either the tree or the airplane. It is determined whether or not the object image 109 is included. When it is determined that the object images 109 are included, it is determined whether or not they are included in the selected image 120 without any defect.

樹木または飛行機のオブジェクト画像109に欠損がある場合は、それらを完全に含む選択画像をモニター画像処理部201から取得する。選択画像におけるオブジェクト画像109のサイズが小さいときはオブジェクト画像109が中心になるようにしてさらに拡大した選択画像をモニター画像処理部201から取得する。記録画像処理部203は、選択画像から樹木と飛行機のオブジェクト画像だけを抽出する。   If there is a defect in the object image 109 of the tree or airplane, a selection image that completely includes them is acquired from the monitor image processing unit 201. When the size of the object image 109 in the selected image is small, the selected image further enlarged so that the object image 109 becomes the center is acquired from the monitor image processing unit 201. The recorded image processing unit 203 extracts only tree and airplane object images from the selected image.

記録画像処理部203は、選択画像に対して拡大、縮小、回転の処理をして画角およびオブジェクト画像109の天地を調整した記録画像131、132を生成し記録再生処理部207に転送する。記録画像処理部203は、注視領域105bを画定したときは、樹木および飛行機のいずれのオブジェクト画像も含まないため抽出した選択画像121を破棄する。ブロック319で記録再生処理部207は、記録画像131、132をフォルダーに階層化してSSD19に格納する。このとき記録再生処理部207は再生時の検索を容易にするために、格納する複数の選択画像のサムネールを生成し、さらに、注目オブジェクト、撮影日時、撮影場所などのメタ情報を合わせて格納することができる。   The recorded image processing unit 203 enlarges, reduces, and rotates the selected image to generate recorded images 131 and 132 in which the angle of view and the top of the object image 109 are adjusted, and transfers them to the recording / playback processing unit 207. When the gaze area 105b is defined, the recorded image processing unit 203 discards the extracted selection image 121 because it does not include any object images of trees or airplanes. In block 319, the recording / playback processing unit 207 stratifies the recorded images 131 and 132 into folders and stores them in the SSD 19. At this time, the recording / playback processing unit 207 generates thumbnails of a plurality of selected images to be stored in order to facilitate search during playback, and further stores meta information such as the object of interest, shooting date / time, and shooting location together. be able to.

ここでは音声記録のチェック・ボックス255が設定されているためブロック321で記録再生処理部207は、選択画像120を抽出するために注視領域105aを画定した時刻の近辺で収録した音声データも合わせてSSD19に記録する。記録再生処理部207は、処理が終了したフレームの時刻以前のモニター画像101、音声データ、GPSデータ、操作ボタン・データ、加速度データなどを破棄することができる。したがってSSD19には、撮影者102が後に閲覧したい可能性が高い記録画像131、132だけを検索や閲覧が容易な様式で記録することができる。   In this case, since the audio recording check box 255 is set, the recording / playback processing unit 207 in block 321 also combines the audio data recorded in the vicinity of the time when the gaze area 105a is defined in order to extract the selected image 120. Record in SSD 19. The recording / playback processing unit 207 can discard the monitor image 101, audio data, GPS data, operation button / data, acceleration data, and the like before the time of the frame in which the processing is completed. Therefore, only the recorded images 131 and 132 that the photographer 102 is likely to view later can be recorded in the SSD 19 in a format that can be easily searched and viewed.

つぎに、他の記録目的のチェック・ボックス251を設定したときの画像記録再生システム200の特徴的な動作について説明する。記録目的のチェック・ボックス251に会議を設定したときに、たとえば、オブジェクト・ウィンドウ253にプロジェクタと人物を注目オブジェクトとして入力し、音声記録のチェック・ボックス255を設定すると想定する。また、調整ウィンドウ257に重要人物Aを音声認識するための特徴情報と撮影者102の特有の動作を画像認識するための特徴情報を緩和情報として入力し、調整ウィンドウ261に重要人物Bを音声認識するための特徴情報と特有の動作を認識するための特徴情報を画定情報として入力すると想定する。   Next, a characteristic operation of the image recording / reproducing system 200 when another recording purpose check box 251 is set will be described. When a conference is set in the check box 251 for recording purposes, for example, it is assumed that a projector and a person are input as objects of interest in the object window 253 and a check box 255 for audio recording is set. Also, feature information for recognizing the important person A in the adjustment window 257 and feature information for recognizing the specific action of the photographer 102 are input as relaxation information, and the important person B is recognized in the adjustment window 261 as voice. It is assumed that feature information for recognizing and feature information for recognizing a specific action are input as demarcation information.

このとき、ブロック311で注視条件調整部211は、緩和情報に対応する重要人物Aの発言があったと判断したとき、または参加者の特定の動作があったと判断したときに注視領域画定部209に注視条件の緩和指示をすることができる。また注視条件調整部211は、撮影者102がメモをとったり、参加者がプロジェクタを参照して説明しているような、会議における特徴的な行為とみなせる動作があったりしたとき、または重要人物Bが発言したときに注視領域画定部209に注視条件の画定指示をすることができる。このとき、メモを書いた紙やプロジェクタを撮影者102がみていいれば、注視時間や離散量で注視条件が画定しなくてもそのコンテンツを記録画像として記録することができる。さらにその際の発言者の音声データも記録するため、記録画像と音声を後に再生することで会議の重要な場面を振り返ることができる。   At this time, when the gaze condition adjustment unit 211 determines in block 311 that there is an utterance of the important person A corresponding to the mitigation information, or when it is determined that there is a specific action of the participant, the gaze region definition unit 209 You can give instructions to relax the gaze conditions. The gaze condition adjustment unit 211 is also used when the photographer 102 takes notes, or when there is an action that can be regarded as a characteristic action in a conference, such as that a participant explains with reference to a projector, or an important person B Can be instructed to define a gaze condition to the gaze area defining unit 209. At this time, if the photographer 102 looks at the paper or projector on which the memo is written, the content can be recorded as a recorded image even if the gaze condition is not defined by the gaze time or discrete amount. Furthermore, since the voice data of the speaker at that time is also recorded, it is possible to look back on the important scenes of the conference by reproducing the recorded image and voice later.

また、記録目的のチェック・ボックス251に面会を設定し、記録モードのチェック・ボックス263に記録画像131&132を設定して、オブジェクト・ウィンドウ253に人物を認識するための特徴情報および名刺という名称を入力すれば、面会者の顔と名刺を記録画像として記録することができる。このとき音声記録のチェック・ボックス255を設定していれば、面会者と挨拶したときの音声も記録することができる。記録目的のチェック・ボックス251に文章を設定し、記録モードのチェック・ボックス261に記録画像131&132を設定して、注目オブジェクトに文字、写真を認識するための特徴情報を入力すれば、掲示物の文章や写真の中で撮影者102が見ている範囲のコンテンツを記録画像131、132として記録することができる。   In addition, the visit is set in the check box 251 for recording, the recorded images 131 and 132 are set in the check box 263 of the recording mode, and the feature information for recognizing the person and the name of the business card are input in the object window 253 Then, the visitor's face and business card can be recorded as a recorded image. At this time, if the voice recording check box 255 is set, the voice when greeting the visitor can also be recorded. If text is set in the check box 251 for the recording purpose, the recorded images 131 & 132 are set in the check box 261 in the recording mode, and the feature information for recognizing characters and photographs is input to the object of interest, Content in a range that the photographer 102 is viewing in text and photographs can be recorded as recorded images 131 and 132.

記録目的のチェック・ボックス251に旅行を設定し、調整ウィンドウ261に寺院という普通名称を入力すれば、旅行をする間寺院を含む記録画像130〜132、140を記録することができる。記録目的のチェック・ボックス251に点検作業を設定し、オブジェクト・ウィンドウ253に注目オブジェクトとしてボルト、クラック、および錆を入力しておけば、橋梁やトンネルなどの構造物の重要な箇所の目視点検を確実に行って記録に残すことができる。   If a trip is set in the check box 251 for recording purposes and the ordinary name “temple” is input in the adjustment window 261, the recorded images 130 to 132 and 140 including the temple can be recorded during the trip. If inspection work is set in the check box 251 for recording purposes and bolts, cracks, and rust are entered as objects of interest in the object window 253, visual inspection of important parts of structures such as bridges and tunnels can be performed. You can definitely go and keep a record.

これまで、記録画像としてスチール画像を例にして説明したが、本発明は動画像に適用することもできる。たとば、撮影者102が行った腕や指のジェスチャまたは操作ボタン57の操作から動画像を撮影する開始と終了のイベントを生成し、その間に撮影者102の視線103を同定して画定した所定の範囲の被写体の動画像を記録することができる。たとえば、遠方の景色をみている視線103がゆっくりと動く場合は、横長の注視領域を画定してパノラマの記録画像を記録することが可能になる。このとき注視領域画定部209は、注視領域の面積の変化、移動方向の変化などを検知してカメラ・モジュール53のズームイン/アウト、パンライト/レフト、およびパンアップ/パンダウンなどの制御を自動的に行うようにすることができる。   Up to this point, a still image has been described as an example of a recorded image, but the present invention can also be applied to a moving image. For example, a start and end event of capturing a moving image is generated from an arm / finger gesture performed by the photographer 102 or an operation of the operation button 57, and the line of sight 103 of the photographer 102 is identified and defined in the meantime. It is possible to record a moving image of a subject in the range. For example, when the line of sight 103 looking at a distant view moves slowly, it is possible to record a panoramic recorded image by defining a horizontally long gaze area. At this time, the gaze area defining unit 209 automatically detects zoom-in / out, pan right / left, and pan-up / pan-down control of the camera module 53 by detecting changes in the area of the gaze area, changes in the moving direction, and the like. Can be done automatically.

また、撮影者102の目と視線方向の画像を同時に撮影できる超広角レンズ・カメラを使用する画像記録再生システム200を例にして説明したが、スマートフォンやタブレット端末のように筐体の正面と背面にそれぞれ標準レンズを搭載するデジタル・カメラを配置し、正面のデジタル・カメラで視線を撮影し背面のデジタル・カメラで風景を撮影して、注視領域の被写体を撮影してもよい。ただし、この場合は、視線を風景画像の座標上で同定するためには、2つのカメラの光軸を一致させる処理が必要になる。   Further, the image recording / reproducing system 200 using an ultra-wide-angle lens / camera capable of simultaneously capturing images of the photographer's 102 eyes and line-of-sight direction has been described as an example. Alternatively, a digital camera equipped with a standard lens may be arranged in each of the above, and a subject may be photographed in the gaze area by photographing the line of sight with the front digital camera and photographing the landscape with the rear digital camera. However, in this case, in order to identify the line of sight on the coordinates of the landscape image, processing for matching the optical axes of the two cameras is required.

これまで本発明について図面に示した特定の実施の形態をもって説明してきたが、本発明は図面に示した実施の形態に限定されるものではなく、本発明の効果を奏する限り、これまで知られたいかなる構成であっても採用することができることはいうまでもないことである。   Although the present invention has been described with the specific embodiments shown in the drawings, the present invention is not limited to the embodiments shown in the drawings, and is known so far as long as the effects of the present invention are achieved. It goes without saying that any configuration can be adopted.

10 装着式の電子機器
11 本体ユニット
51 装着ユニット
53 カメラ・モジュール
55 マイクロフォン
57 操作ボタン
59 加速度センサー
61 GPSモジュール
100 モニター被写体
102 撮影者
102a 撮影者の顔画像
103 視線
104 視線の座標
105a、105b 注視領域
106a〜106c 矩形領域
107 背景画像
109 オブジェクト画像
120、121 選択画像
130、131、132、140、150 記録画像
200 画像記録再生システム
201 モニター画像処理部
203 記録画像処理部
207 記録再生処理部
211 注視条件調整部
213 機能設定部
250 入力画面
DESCRIPTION OF SYMBOLS 10 Wearable electronic device 11 Main body unit 51 Mounted unit 53 Camera module 55 Microphone 57 Operation button 59 Acceleration sensor 61 GPS module 100 Monitor subject 102 Photographer 102a Photographer's face image 103 Line of sight 104 Line of sight coordinates 105a, 105b 106a to 106c Rectangular area 107 Background image 109 Object image 120, 121 Selected image 130, 131, 132, 140, 150 Recorded image 200 Image recording / playback system 201 Monitor image processing unit 203 Recorded image processing unit 207 Recording / playback processing unit 211 Adjustment unit 213 Function setting unit 250 Input screen

Claims (20)

画像の記録が可能な電子機器であって、
撮影者の顔と周囲の被写体を撮影してモニター画像を出力するデジタル・カメラと、
前記被写体に対する前記撮影者の視線の動きを前記モニター画像から同定して注視領域を画定する注視領域画定部と、
前記注視領域に対応する前記モニター画像の一部から記録装置に記録する記録画像を生成する記録画像処理部と
を有する電子機器。
An electronic device capable of recording images,
A digital camera that shoots the photographer's face and surrounding subjects and outputs a monitor image;
A gaze area defining unit that identifies movement of the photographer's line of sight with respect to the subject from the monitor image and demarcates a gaze area;
An electronic apparatus comprising: a recorded image processing unit that generates a recorded image to be recorded on a recording device from a part of the monitor image corresponding to the gaze area.
前記記録画像処理部は、前記モニター画像の一部から所定の注目オブジェクトに対応するオブジェクト画像を認識しないときに前記記録画像を破棄する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the recorded image processing unit discards the recorded image when an object image corresponding to a predetermined object of interest is not recognized from a part of the monitor image. 前記記録画像処理部は、前記モニター画像の一部から前記オブジェクト画像を認識したときに、前記オブジェクト画像に欠損が生じないでかつ焦点が当たるように前記モニター画像の一部を加工して所定の記録様式の前記記録画像を生成する請求項2に記載の電子機器。   When the object image is recognized from a part of the monitor image, the recorded image processing unit processes a part of the monitor image so that the object image does not have a defect and is focused. The electronic device according to claim 2, wherein the recording image in a recording format is generated. 前記所定の注目オブジェクトが、前記電子機器が保有する前記撮影者の行動履歴に関連するデータを含む請求項2または請求項3に記載の電子機器。   The electronic device according to claim 2, wherein the predetermined object of interest includes data related to the action history of the photographer held by the electronic device. 前記注視領域画定部は、前記モニター画像における視線の座標の離散量と前記注視領域を画定するまでの注視時間で構成した注視条件から前記注視領域を画定する請求項1から請求項4のいずれかに記載の電子機器。   The gaze area demarcating unit demarcates the gaze area from a gaze condition configured by a discrete amount of coordinates of the line of sight in the monitor image and a gaze time until the gaze area is demarcated. The electronic device as described in. 前記注視領域画定部に前記注視条件を調整するための指示をする注視条件調整部を有する請求項5に記載の電子機器。   The electronic device according to claim 5, further comprising: a gaze condition adjusting unit that instructs the gaze area defining unit to adjust the gaze condition. 前記電子機器がマイクロフォンを有し、
前記注視条件調整部は、前記マイクロフォンから受け取った音声データから所定の人物または所定のオブジェクトを認識したときに前記注視領域画定部に前記注視条件を緩和する指示をする請求項6に記載の電子機器。
The electronic device has a microphone;
The electronic device according to claim 6, wherein the gaze condition adjusting unit instructs the gaze area defining unit to relax the gaze condition when a predetermined person or a predetermined object is recognized from audio data received from the microphone. .
前記電子機器がGPSモジュールを有し、
前記注視条件調整部は、前記GPSモジュールから受け取ったGPSデータから認識した前記電子機器の現在位置に基づいて前記注視領域画定部に前記注視条件を調整するための指示をする請求項6または請求項7に記載の電子機器。
The electronic device has a GPS module;
The gaze condition adjusting unit instructs the gaze area defining unit to adjust the gaze condition based on a current position of the electronic device recognized from GPS data received from the GPS module. 7. The electronic device according to 7.
前記電子機器が加速度センサーを有し、
前記注視条件調整部は、前記加速度センサーから受け取った加速度データから前記デジタル・カメラの姿勢の変化が少ないと判断したときに前記注視領域画定部に前記注視条件を強化する指示をする請求項6から請求項8のいずれかに記載の電子機器。
The electronic device has an acceleration sensor;
The gaze condition adjusting unit instructs the gaze area defining unit to strengthen the gaze condition when it is determined from the acceleration data received from the acceleration sensor that the change in posture of the digital camera is small. The electronic device according to claim 8.
前記注視条件調整部は、前記モニター画像が含む人物の動画像から人物の所定の動作を認識したときに前記注視領域画定部に前記注視条件を調整するための指示をする請求項6から請求項9のいずれかに記載の電子機器。   The gaze condition adjusting unit instructs the gaze area defining unit to adjust the gaze condition when a predetermined motion of the person is recognized from a moving image of the person included in the monitor image. 9. The electronic device according to any one of 9. 前記電子機器がマイクロフォンを有し、
前記記録画像を生成した前記モニター画像のフレームの撮影時刻の近辺で前記マイクロフォンが収録した音声データを前記記録画像に対応付けて前記記録装置に記録する記録再生処理部を有する請求項1から請求項10のいずれかに記載の電子機器。
The electronic device has a microphone;
The recording / playback processing unit that records the audio data recorded by the microphone in the vicinity of the shooting time of the frame of the monitor image that generated the recorded image in association with the recorded image on the recording device. 10. The electronic device according to any one of 10.
前記デジタル・カメラが前記撮影者の顔と前記撮影者の周囲の被写体を同時に撮影できる広角レンズまたは超広角レンズを含む請求項1から請求項11のいずれかに記載の電子機器。   The electronic device according to claim 1, wherein the digital camera includes a wide-angle lens or an ultra-wide-angle lens that can simultaneously photograph the photographer's face and a subject around the photographer. 前記超広角レンズを含むデジタル・カメラを前記電子機器の筐体の表面と裏面に配置した請求項12に記載の電子機器。   The electronic device according to claim 12, wherein digital cameras including the super wide-angle lens are disposed on a front surface and a back surface of a housing of the electronic device. 前記電子機器が、人体に装着して使用するウェアラブル・コンピュータである請求項1から請求項13のいずれかに記載の電子機器。   The electronic device according to any one of claims 1 to 13, wherein the electronic device is a wearable computer used by being attached to a human body. 画像の記録が可能な電子機器であって、
前記電子機器の表面に配置して撮影者の顔を撮影することができる標準レンズを備えた第1のデジタル・カメラと、
前記電子機器の裏面に配置して前記撮影者の視線方向の被写体を撮影できる標準レンズを備えた第2のデジタル・カメラ
前記第1のデジタル・カメラおよび前記第2のデジタル・カメラが出力するモニター画像から前記被写体に対する前記撮影者の視線の動きを同定して前記モニター画像に注視領域を画定する注視領域画定部と、
前記注視領域に対応する前記モニター画像の一部から記録装置に記録する記録画像を生成する記録画像処理部と
を有する電子機器。
An electronic device capable of recording images,
A first digital camera provided with a standard lens that can be placed on the surface of the electronic device and photograph a photographer's face;
A second digital camera provided with a standard lens arranged on the back surface of the electronic device and capable of photographing a subject in the direction of the line of sight of the photographer. Monitors output from the first digital camera and the second digital camera A gaze area defining unit that identifies movement of the photographer's line of sight with respect to the subject from an image and demarcates a gaze area in the monitor image;
An electronic apparatus comprising: a recorded image processing unit that generates a recorded image to be recorded on a recording device from a part of the monitor image corresponding to the gaze area.
デジタル・カメラを搭載した電子機器が画像を記録する方法であって、
前記デジタル・カメラが撮影者の顔と周囲の被写体を含むモニター画像を撮影するステップと、
前記モニター画像から前記被写体に対する前記撮影者の視線の動きを同定して前記モニター画像に注視領域を画定するステップと、
前記注視領域に対応する前記モニター画像の一部を記録画像として保存するステップと
を有する方法。
An electronic device equipped with a digital camera is a method for recording images,
The digital camera shooting a monitor image including a photographer's face and surrounding subjects;
Identifying a movement of the photographer's line of sight with respect to the subject from the monitor image and demarcating a gaze area in the monitor image;
Storing a part of the monitor image corresponding to the gaze area as a recorded image.
前記モニター画像の一部が、前記撮影者が注目するオブジェクトに対応するオブジェクト画像を含むか否かを判断するステップと、
前記オブジェクト画像を含まないと判断したときに前記モニター画像の一部を破棄するステップと
を有する請求項16に記載の方法。
Determining whether a part of the monitor image includes an object image corresponding to an object of interest of the photographer;
The method according to claim 16, further comprising: discarding a part of the monitor image when it is determined that the object image is not included.
前記オブジェクト画像を含むと判断したときに前記モニター画像の一部に対して拡大または縮小する処理をしてから所定の記録様式の前記記録画像を生成するステップを有する請求項17に記載の方法。   18. The method according to claim 17, further comprising the step of generating a recording image of a predetermined recording format after performing a process of enlarging or reducing a part of the monitor image when it is determined that the object image is included. 前記注視領域を画定するステップが、前記電子機器が受け取った音声データ、GPSデータ、加速度データ、および前記モニター画像に基づいて前記注視領域を画定するまでの時間を調整するステップを有する請求項16から請求項18のいずれかに記載の方法。   The step of defining the gaze area includes adjusting the time until the gaze area is defined based on audio data, GPS data, acceleration data, and the monitor image received by the electronic device. The method according to claim 18. デジタル・カメラから画像データを受け取ることが可能な電子機器に、
前記デジタル・カメラが撮影した撮影者の顔と風景を含むモニター画像を受け取る機能と、
前記撮影者が注視していた前記モニター画像の領域を画定するステップと、
前記注視していた領域に対応する領域の前記モニター画像を保存するステップと
を有する機能を実現させるためのコンピュータ・プログラム。
To electronic devices that can receive image data from digital cameras,
A function of receiving a monitor image including a photographer's face and landscape taken by the digital camera;
Demarcating a region of the monitor image that the photographer was gazing at;
A computer program for realizing a function including a step of storing the monitor image in an area corresponding to the area being watched.
JP2013270613A 2013-12-27 2013-12-27 Image recording method, electronic device, and computer program Active JP6096654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013270613A JP6096654B2 (en) 2013-12-27 2013-12-27 Image recording method, electronic device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013270613A JP6096654B2 (en) 2013-12-27 2013-12-27 Image recording method, electronic device, and computer program

Publications (2)

Publication Number Publication Date
JP2015126451A true JP2015126451A (en) 2015-07-06
JP6096654B2 JP6096654B2 (en) 2017-03-15

Family

ID=53536850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013270613A Active JP6096654B2 (en) 2013-12-27 2013-12-27 Image recording method, electronic device, and computer program

Country Status (1)

Country Link
JP (1) JP6096654B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037633A1 (en) * 2016-08-26 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 Imaging controller, imaging device, and imaging control method
KR20190038958A (en) * 2017-10-01 2019-04-10 (주)씨어스테크놀로지 Apparatus for presenting Life-Log, method thereof and computer recordable medium storing program to perform the method
WO2019212122A1 (en) * 2018-04-30 2019-11-07 Lee Hwiwon Method for detecting event of object by using wearable device and management server operating same
US11304656B2 (en) 2020-08-19 2022-04-19 Inhandplus Inc. Wearable device for medication adherence monitoring
WO2022149704A1 (en) * 2021-01-07 2022-07-14 삼성전자주식회사 Electronic device and control method therefor
WO2023005338A1 (en) * 2021-07-26 2023-02-02 北京有竹居网络技术有限公司 Photographing method and apparatus, and electronic device, storage medium and computer program product
US11647167B2 (en) 2019-05-07 2023-05-09 Inhandplus Inc. Wearable device for performing detection of events by using camera module and wireless communication device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345756A (en) * 2001-05-25 2002-12-03 Canon Inc Visual line detector and optical equipment
JP2012065311A (en) * 2010-08-20 2012-03-29 Panasonic Corp Imaging apparatus and imaging method
JP2012124767A (en) * 2010-12-09 2012-06-28 Canon Inc Imaging apparatus
JP2013179403A (en) * 2012-02-28 2013-09-09 Sony Corp Information processing device, information processing method, and program
JP2013218278A (en) * 2012-03-16 2013-10-24 Ricoh Co Ltd Imaging system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345756A (en) * 2001-05-25 2002-12-03 Canon Inc Visual line detector and optical equipment
JP2012065311A (en) * 2010-08-20 2012-03-29 Panasonic Corp Imaging apparatus and imaging method
JP2012124767A (en) * 2010-12-09 2012-06-28 Canon Inc Imaging apparatus
JP2013179403A (en) * 2012-02-28 2013-09-09 Sony Corp Information processing device, information processing method, and program
JP2013218278A (en) * 2012-03-16 2013-10-24 Ricoh Co Ltd Imaging system

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037633A1 (en) * 2016-08-26 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 Imaging controller, imaging device, and imaging control method
KR20190038958A (en) * 2017-10-01 2019-04-10 (주)씨어스테크놀로지 Apparatus for presenting Life-Log, method thereof and computer recordable medium storing program to perform the method
KR102025909B1 (en) * 2017-10-01 2019-09-27 (주)씨어스테크놀로지 Apparatus for presenting Life-Log, method thereof and computer recordable medium storing program to perform the method
CN112042181B (en) * 2018-04-30 2023-04-11 掌中加有限公司 Object event sensing method using wearable device and management server using the same
WO2019212122A1 (en) * 2018-04-30 2019-11-07 Lee Hwiwon Method for detecting event of object by using wearable device and management server operating same
CN112042181A (en) * 2018-04-30 2020-12-04 掌中加有限公司 Object event sensing method using wearable device and management server using the same
US11695903B2 (en) 2018-04-30 2023-07-04 Inhandplus Inc. Method for detecting event of object by using wearable device and management server operating same
US11405594B2 (en) 2018-04-30 2022-08-02 Inhandplus Inc. Method for detecting event of object by using wearable device and management server operating same
US11647167B2 (en) 2019-05-07 2023-05-09 Inhandplus Inc. Wearable device for performing detection of events by using camera module and wireless communication device
US11457862B2 (en) 2020-08-19 2022-10-04 Inhandplus Inc. Method for determining whether medication has been administered and server using same
US11660048B2 (en) 2020-08-19 2023-05-30 Inhandplus Inc. Wearable device for medication adherence monitoring
US11304656B2 (en) 2020-08-19 2022-04-19 Inhandplus Inc. Wearable device for medication adherence monitoring
US11832962B2 (en) 2020-08-19 2023-12-05 Inhandplus Inc. Method for determining whether medication has been administered and server using same
US11950922B2 (en) 2020-08-19 2024-04-09 Inhandplus Inc. Wearable device for medication adherence monitoring
WO2022149704A1 (en) * 2021-01-07 2022-07-14 삼성전자주식회사 Electronic device and control method therefor
WO2023005338A1 (en) * 2021-07-26 2023-02-02 北京有竹居网络技术有限公司 Photographing method and apparatus, and electronic device, storage medium and computer program product

Also Published As

Publication number Publication date
JP6096654B2 (en) 2017-03-15

Similar Documents

Publication Publication Date Title
JP6096654B2 (en) Image recording method, electronic device, and computer program
US9245389B2 (en) Information processing apparatus and recording medium
US9927948B2 (en) Image display apparatus and image display method
US9712751B2 (en) Camera field of view effects based on device orientation and scene content
CN106937039B (en) Imaging method based on double cameras, mobile terminal and storage medium
JP5228307B2 (en) Display device and display method
US10083710B2 (en) Voice control system, voice control method, and computer readable medium
CN108399349B (en) Image recognition method and device
KR102018887B1 (en) Image preview using detection of body parts
CN111837174A (en) Head-mounted display, head-mounted display cooperation system and method thereof
JP4826485B2 (en) Image storage device and image storage method
JP2008096868A (en) Imaging display device, and imaging display method
JPWO2016016984A1 (en) Imaging device and subject tracking method thereof
US11438501B2 (en) Image processing apparatus, and control method, and storage medium thereof
WO2022001806A1 (en) Image transformation method and apparatus
KR20200043818A (en) Electronic device and method for obtaining images
JP5664677B2 (en) Imaging display device and imaging display method
CN112351188A (en) Apparatus and method for displaying graphic elements according to objects
US10009545B2 (en) Image processing apparatus and method of operating the same
US20130308829A1 (en) Still image extraction apparatus
JP2013083994A (en) Display unit and display method
JP2014197802A (en) Work support system and program
US8913142B2 (en) Context aware input system for focus control
JP5971298B2 (en) Display device and display method
CN113850709A (en) Image transformation method and device

Legal Events

Date Code Title Description
RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20150410

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20150416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170216

R150 Certificate of patent or registration of utility model

Ref document number: 6096654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250