JP2015082823A - Imaging control apparatus, imaging control method, and program - Google Patents

Imaging control apparatus, imaging control method, and program Download PDF

Info

Publication number
JP2015082823A
JP2015082823A JP2013221431A JP2013221431A JP2015082823A JP 2015082823 A JP2015082823 A JP 2015082823A JP 2013221431 A JP2013221431 A JP 2013221431A JP 2013221431 A JP2013221431 A JP 2013221431A JP 2015082823 A JP2015082823 A JP 2015082823A
Authority
JP
Japan
Prior art keywords
photographing
imaging
shooting
user
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013221431A
Other languages
Japanese (ja)
Inventor
佑治 名屋
Yuji Naya
佑治 名屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013221431A priority Critical patent/JP2015082823A/en
Publication of JP2015082823A publication Critical patent/JP2015082823A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, when a user's ambient environment is automatically imaged by detecting images that are meaningful to the user, a method of imaging the user's ambient environment at every constant period largely consumes a battery.SOLUTION: On the basis of a direction in which a user is facing and a direction in which an object to be imaged is positioned, an image is obtained by imaging the direction in which the user is facing. In addition, on the basis of a result obtained by analyzing the image, a direction in which the object to be imaged is positioned is set.

Description

本発明はユーザの周囲環境を効率良く自動撮影するのに適した撮影制御装置、撮影制御方法およびプログラムに関する。   The present invention relates to a photographing control apparatus, a photographing control method, and a program suitable for efficiently and automatically photographing a user's surrounding environment.

近年、ライフログ・カメラとしてSenseCam技術(非特許文献1)をベースにしたカメラが開発されている。SenseCam技術をベースにしたカメラとして、ユーザの前方を所定時間間隔毎に継続して撮影することで、ユーザの視界を長時間に渡って記録するものがある。また、各種センサ(温度センサ、照度センサ、加速度センサ、地磁気センサ、色センサなど)によって、外界の変化が検出されたときにのみ自動撮影するものや、外界の明暗に応じて自動撮影を抑制するものがある。   In recent years, a camera based on SenseCam technology (Non-Patent Document 1) has been developed as a lifelog camera. Some cameras based on the SenseCam technology record the user's field of view for a long time by continuously photographing the front of the user at predetermined time intervals. In addition, various sensors (temperature sensor, illuminance sensor, acceleration sensor, geomagnetic sensor, color sensor, etc.) are used to automatically shoot only when changes in the outside world are detected, or to suppress automatic shooting according to the brightness of the outside world. There is something.

また、デジタルカメラやカメラ付き携帯端末に地磁気センサ、ジャイロセンサ及び加速度センサなどの各種センサを備えることで、ユーザが意図的にシャッターボタンを押下しなくても撮影が可能になる撮影方法が知られている。例えば、特許文献1では、ユーザが予め撮影する方向を携帯端末に記憶させておくことで、携帯端末は記憶された方向と同一方向になったときに撮影する技術が開示されている。また、特許文献2では、ユーザが撮影する場所・方向・順番をカメラに予め設定しておくことで、カメラが設定された場所、方向及び順番に従って撮影する技術が開示されている。   In addition, there is known a photographing method in which a digital camera or a camera-equipped mobile terminal is equipped with various sensors such as a geomagnetic sensor, a gyro sensor, and an acceleration sensor, so that photographing can be performed without the user intentionally pressing the shutter button. ing. For example, Patent Document 1 discloses a technique in which a mobile terminal stores an image capturing direction in advance in a mobile terminal so that the mobile terminal captures an image in the same direction as the stored direction. Japanese Patent Application Laid-Open No. 2003-228561 discloses a technique for photographing in accordance with a place, direction, and order in which the camera is set by setting in advance the place, direction, and order in which the user takes images.

特開2013−85048号公報JP 2013-85048 A 特開2013−55508号公報JP 2013-55508 A

Microsoft Research/SenseCam, [online]、[平成25年10月2日検索]、インターネット<URL:http://research.microsoft.com/en-us/um/cambridge/projects/sensecam/ >Microsoft Research / SenseCam, [online], [October 2, 2013 search], Internet <URL: http://research.microsoft.com/en-us/um/cambridge/projects/sensecam/>

しかしながら、ユーザの周囲環境を効率良く自動撮影するのに適した技術が存在しない。例えば、非特許文献1の技術によれば、ユーザの前方を継続して自動撮影することができる。しかし、この技術は所定の時間間隔で継続して自動撮影を行うので、撮影間隔が短くなるほどバッテリーの消費量が大きくなってしまう。また、外界の変化が検出されたときに自動撮影することで撮影の量を減らすものがあるが、撮影画像に撮影すべき対象が含まれているかまでは分からず、意味の無いものを撮影してしまうことがある。逆に、ホワイトボードの書き込み内容が更新された場合などのように外界の変化の少ないものでは、変化が検出されずに撮り逃しが発生する可能性がある。   However, there is no technique suitable for efficiently and automatically photographing the user's surrounding environment. For example, according to the technique of Non-Patent Document 1, it is possible to continuously perform automatic shooting in front of the user. However, since this technique continuously performs automatic shooting at predetermined time intervals, the battery consumption increases as the shooting interval decreases. In addition, there are some that reduce the amount of shooting by automatically shooting when a change in the external environment is detected, but it is not known whether the subject to be shot is included in the shot image, so shooting a meaningless shot May end up. On the other hand, when there is little change in the external world, such as when the written content of the whiteboard is updated, there is a possibility that the change will not be detected and shooting may be missed.

また、例えば特許文献1及び特許文献2に開示されている技術によれば、予めユーザが設定した撮影方向にカメラが向いた場合に自動的に撮影することができる。しかし、これらの技術はユーザが明示的に撮影したい方向を設定する必要があり、撮影する方向を自動で設定することができない。   Further, for example, according to the techniques disclosed in Patent Document 1 and Patent Document 2, it is possible to automatically capture images when the camera is directed in a capturing direction set in advance by the user. However, these techniques require the user to explicitly set the direction in which the user wants to shoot, and the shooting direction cannot be set automatically.

本発明にかかる撮影制御装置は、ユーザの向いている方向と、撮影対象が位置する方向とに基づいてユーザの向いている方向を撮影して撮影画像を取得する撮影手段と、前記撮影画像を解析して得られた結果に基づいて撮影対象が位置する方向を設定する設定手段とを有することを特徴とする。   An imaging control apparatus according to the present invention includes an imaging unit that acquires a captured image by capturing an image of a direction that the user is facing based on a direction in which the user is facing and a direction in which an imaging target is located, and the captured image And setting means for setting a direction in which the photographing target is located based on the result obtained by the analysis.

本発明によれば、ユーザの周囲環境を効率良く自動撮影することができる。   ADVANTAGE OF THE INVENTION According to this invention, a user's surrounding environment can be automatically image | photographed efficiently.

撮影制御装置をユーザが装着して利用するイメージ図である。It is an image figure which a user wears and uses an imaging | photography control apparatus. 撮影制御装置のハードブロック図である。It is a hardware block diagram of a photography control device. 撮影制御装置のソフトウェアブロック図である。It is a software block diagram of an imaging | photography control apparatus. 撮影対象を撮影条件に基づいて撮影する処理のフローチャートである。It is a flowchart of the process which image | photographs imaging | photography object based on imaging conditions. 第1の実施例で説明する撮影条件の例である。It is an example of the imaging conditions described in the first embodiment. 第1の実施例で説明する撮影処理のフローチャートである。6 is a flowchart of imaging processing described in the first embodiment. 第1の実施例で説明する矩形領域を撮影条件に設定する例である。This is an example in which a rectangular area described in the first embodiment is set as an imaging condition. 第2の実施例で説明する撮影処理のフローチャートである。It is a flowchart of the imaging | photography process demonstrated in 2nd Example. 第2の実施例で説明する撮影条件の例である。It is an example of the imaging conditions demonstrated in 2nd Example. 第3の実施例で説明する撮影処理のフローチャートである。It is a flowchart of the imaging | photography process demonstrated in a 3rd Example. 第4の実施例で説明する撮影処理のフローチャートである。It is a flowchart of the imaging | photography process demonstrated in the 4th Example. 第4の実施例で説明するマーカー検出時の撮影条件の例である。It is an example of the imaging conditions at the time of marker detection demonstrated in the 4th Example. 第5の実施例で説明する相対位置算出時の撮影する処理のフローチャートである。It is a flowchart of the process which image | photographs at the time of the relative position calculation demonstrated in 5th Example. 第6の実施例で説明する撮影処理のフローチャートである。It is a flowchart of the imaging | photography process demonstrated in a 6th Example. 第6の実施例で説明する撮影条件の例である。It is an example of the imaging conditions demonstrated in a 6th Example. 第6の実施例で説明する撮影対象を撮影条件に基づいて撮影する処理のフローチャートである。It is a flowchart of the process which image | photographs the imaging | photography object demonstrated in a 6th Example based on imaging conditions. 第7の実施例で説明する撮影処理のフローチャートである。It is a flowchart of the imaging | photography process demonstrated in 7th Example.

以下、本発明を実施するための形態について図面を用いて説明する。ただし、この実施の形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention only to them.

<第1の実施例>
以下、本発明の第1の実施例について図面を用いて説明する。図1〜図3で示される撮影制御装置100は、オフィスにいるユーザが装着しており、ユーザが電源をオフにしない限り、常時電源がオンされている状態とする。
<First embodiment>
A first embodiment of the present invention will be described below with reference to the drawings. The imaging control apparatus 100 shown in FIGS. 1 to 3 is worn by a user in the office, and is always in a power-on state unless the user turns off the power.

図1は、本実施例に係る撮影制御装置100をユーザが頭部に装着して利用するイメージ図である。撮影制御装置100の一例としては、ユーザの頭部に装着するメガネ型の装置が挙げられる。ユーザは図1のようなメガネ型の撮影制御装置100を実際のメガネのように頭に装着することが可能である。また、撮影制御装置100に備えられたカメラモジュール102により、ユーザの向いている方向を撮影することができる。なお、本実施例ではメガネ型の撮影制御装置100としているが、ユーザの向いている方向を撮影できるカメラモジュールの撮影を制御する装置であればいずれの形態でもよい。例えば、メガネ型に限らずユーザの首にかける、あるいは、胸元に装着して前方を撮影するような形態でもよい。また、カメラモジュールと無線通信を行うような撮影制御装置であれば、撮影制御装置自体は上述したような装着型の装置でなくてもよい。   FIG. 1 is an image diagram in which a user wears the photographing control apparatus 100 according to the present embodiment on the head and uses it. An example of the imaging control device 100 is a glasses-type device that is worn on the user's head. The user can wear the glasses-type imaging control device 100 as shown in FIG. 1 on the head like actual glasses. In addition, the camera module 102 provided in the imaging control apparatus 100 can capture the direction in which the user is facing. In the present embodiment, the glasses-type shooting control device 100 is used, but any device may be used as long as it controls the shooting of a camera module capable of shooting the direction in which the user is facing. For example, it is not limited to the glasses type, and it may be applied to the user's neck or may be worn on the chest and photographed in front. In addition, as long as the imaging control device performs wireless communication with the camera module, the imaging control device itself may not be a wearable device as described above.

本実施例ではユーザがオフィスにいることを想定し、追跡して撮影する対象物としてホワイトボードのような平面的な矩形の物体を想定する。また、以降の説明において、ユーザの向いている方向(すなわちユーザが見ている方向)と撮影制御装置100の向いている方向(すなわちカメラモジュール102のレンズの向いている方向)は同じであるとする。   In this embodiment, it is assumed that the user is in the office, and a planar rectangular object such as a whiteboard is assumed as an object to be tracked and photographed. In the following description, the direction in which the user is facing (that is, the direction in which the user is viewing) and the direction in which the imaging control device 100 is facing (that is, the direction in which the lens of the camera module 102 is facing) are the same. To do.

図2は、図1における撮影制御装置100のハードウェアの構成例を示すブロック図である。撮影制御装置100は、CPU101、カメラモジュール102、ネットワークモジュール103、ROM104、入力モジュール105、RAM106、表示モジュール107、記憶装置108を有する。また撮影制御装置100は、ジャイロセンサ109、加速度センサ110、方位センサ111、タイマー112を有する。各要素はシステムバス113で接続される。また、バッテリー114によって各部へ電力が供給される。   FIG. 2 is a block diagram illustrating a hardware configuration example of the imaging control apparatus 100 in FIG. The imaging control apparatus 100 includes a CPU 101, a camera module 102, a network module 103, a ROM 104, an input module 105, a RAM 106, a display module 107, and a storage device 108. The imaging control apparatus 100 includes a gyro sensor 109, an acceleration sensor 110, an orientation sensor 111, and a timer 112. Each element is connected by a system bus 113. In addition, power is supplied to each unit by the battery 114.

CPU101は撮影制御装置全般を制御し、後述するプログラムを実行するためのユニットである。ROM104は起動時の制御に用いられるブートローダプログラム及び撮影制御プログラムを格納する。RAM106は揮発性メモリであり、高速アクセスが可能なため、ROM104に記憶されている情報や一時的に使用する情報はここに格納される。撮影制御装置100の電源投入時には、CPU101がROM104に格納されているブートローダプログラムを読み出して実行し、ROM104に格納されている撮影制御プログラムを取り出し、RAM106に格納する。そして、CPU101がRAM106に格納されている撮影制御プログラムを実行し、撮影制御装置100の備える各機能を実行する。   The CPU 101 is a unit for controlling the overall photographing control apparatus and executing a program to be described later. The ROM 104 stores a boot loader program and an imaging control program used for starting control. Since the RAM 106 is a volatile memory and can be accessed at high speed, information stored in the ROM 104 and information used temporarily are stored here. When the imaging control apparatus 100 is turned on, the CPU 101 reads and executes the boot loader program stored in the ROM 104, retrieves the imaging control program stored in the ROM 104, and stores it in the RAM 106. Then, the CPU 101 executes a shooting control program stored in the RAM 106 and executes each function provided in the shooting control apparatus 100.

カメラモジュール102は、レンズやCCD、CMOSと呼ばれる撮像素子などの周知の部品から成り、撮像画像をデジタル画像に変換する。本実施例ではカメラモジュール102の画角を水平方向60度、垂直方向30度とする。ただし、本発明では、これに限らずどんな画角のものでも実施できる。   The camera module 102 includes known components such as a lens, a CCD, and an imaging device called a CMOS, and converts a captured image into a digital image. In this embodiment, the angle of view of the camera module 102 is set to 60 degrees in the horizontal direction and 30 degrees in the vertical direction. However, the present invention is not limited to this, and can be implemented with any angle of view.

ネットワークモジュール103は、ネットワーク9000を介して接続している各種サーバーやパーソナルコンピュータなどの機器とデータの送受信を行う。ネットワークモジュール103により、カメラモジュール102で撮影した画像データをパーソナルコンピュータ・サーバー等に送信して、これらの装置に保存することができる。なお、カメラモジュール102が撮影制御装置から分離されるような構成を採用した場合、ネットワークモジュール103はカメラモジュール102とデータの送受信を行う構成としてもよい。   The network module 103 transmits / receives data to / from devices such as various servers and personal computers connected via the network 9000. The network module 103 can transmit the image data captured by the camera module 102 to a personal computer server or the like and store them in these devices. Note that when a configuration in which the camera module 102 is separated from the imaging control device is adopted, the network module 103 may be configured to transmit and receive data to and from the camera module 102.

入力モジュール105は、撮影制御装置100を装着するユーザが該装置を操作するために使われる。入力モジュール105は、ボタンやタッチパネルなどの周知のUI部品から成り、ユーザは入力モジュール105を使って撮影制御装置100の電源オン・オフを含む各種操作を行うことができる。   The input module 105 is used by a user wearing the imaging control apparatus 100 to operate the apparatus. The input module 105 includes well-known UI parts such as buttons and a touch panel, and the user can perform various operations including power on / off of the imaging control apparatus 100 using the input module 105.

表示モジュール107は、LEDや液晶パネルなどの周知の表示部品から成り、LEDの発光や文字の表示によってユーザが撮影制御装置100の状態を確認することができる。   The display module 107 includes known display components such as an LED and a liquid crystal panel, and the user can check the state of the imaging control apparatus 100 by the light emission of the LED and the display of characters.

記憶装置108は、カメラモジュール102で撮影した画像や各種設定データの保存場所として使用される。また、プログラムが実行処理した結果データの保存場所としても使用することができる。   The storage device 108 is used as a storage location for images taken by the camera module 102 and various setting data. It can also be used as a storage location for result data executed by the program.

ジャイロセンサ109は、撮影制御装置100の角速度を出力することが可能である。ジャイロセンサ109は、出力された角速度を積算することで、基準方向からの相対的な角度を算出することができる。角度は、一般的にピッチ(Pitch)、ヨー(Yaw)、ロール(Roll)として表され、ピッチ、ヨー、ロール表現によって撮影制御装置100の傾きを回転角度として表すことができる。尚、ジャイロセンサ109はコリオリの力を利用した方式の半導体素子等が公知であるが、本発明はこれに限らず任意の方式を用いて実施できる。   The gyro sensor 109 can output the angular velocity of the imaging control device 100. The gyro sensor 109 can calculate a relative angle from the reference direction by integrating the output angular velocities. The angle is generally expressed as pitch, yaw, or roll, and the inclination of the imaging control apparatus 100 can be expressed as a rotation angle by pitch, yaw, or roll expression. As the gyro sensor 109, a semiconductor element using a Coriolis force is known, but the present invention is not limited to this and can be implemented using any method.

加速度センサ110は、撮影制御装置100の加速度を出力することが可能である。出力される加速度の値により、撮影制御装置100の鉛直方向が分かる。尚、加速度センサ110には半導体のチップ内に可動部分があり、外から加わる加速度によって、可動部分のフィンが移動し、非可動部分のフィンとの間隔が変化して、静電容量が変化する。また、加速度センサ110はピエゾ抵抗型や熱検知型等が公知であるが、本発明はこれら公知の任意の方式を用いて実施できる。   The acceleration sensor 110 can output the acceleration of the imaging control device 100. From the output acceleration value, the vertical direction of the imaging control apparatus 100 is known. The acceleration sensor 110 has a movable part in the semiconductor chip, and the acceleration applied from the outside moves the fin of the movable part, the distance between the fin of the non-movable part changes, and the capacitance changes. . The acceleration sensor 110 is known to be a piezoresistive type, a heat detection type, or the like, but the present invention can be implemented using any of these known methods.

方位センサ111は、地磁気によって東西南北の方角を計測することが可能であり、計測した情報をデジタル情報に変換する。方位センサ111によって、物理空間上で東西南北のどの方向に撮影制御装置100が向いているかを把握できる。   The azimuth sensor 111 can measure directions from east, west, south, and north by geomagnetism, and converts the measured information into digital information. With the azimuth sensor 111, it can be grasped in which direction of the east, west, south, and north the physical direction of the imaging control device 100 is directed.

上記のジャイロセンサ109及び加速度センサ110の出力値を信号処理することによって、ユーザの歩行動作を検出することが可能である。具体的には、ユーザの歩行時のジャイロセンサ109及び加速度センサ110の出力値の周期性と振幅とを利用して歩行動作を検出する。また、ジャイロセンサ109、加速度センサ110及び方位センサ111を組み合わせることで、撮影制御装置100のある位置からの相対位置を算出することができる。ユーザの歩行動作及び相対位置の検出処理については、公知の技術(例えば特開2012−145457号公報参照)であるため、ここでの説明は割愛する。   By performing signal processing on the output values of the gyro sensor 109 and the acceleration sensor 110 described above, it is possible to detect the user's walking motion. Specifically, the walking motion is detected using the periodicity and amplitude of the output values of the gyro sensor 109 and the acceleration sensor 110 when the user walks. Further, by combining the gyro sensor 109, the acceleration sensor 110, and the azimuth sensor 111, a relative position from a certain position of the photographing control apparatus 100 can be calculated. Since the user's walking motion and relative position detection processing are well-known techniques (see, for example, Japanese Patent Application Laid-Open No. 2012-145457), description thereof is omitted here.

タイマー112は、クロックジェネレータによって出力されるデータを信号処理することにより現在時刻を計測する。   The timer 112 measures the current time by performing signal processing on data output from the clock generator.

図3は、撮影制御装置100のソフトウェアモジュールのブロック図である。プログラム300はROM104ないしRAM106に格納され、本実施例で説明する処理を実現する為にCPU101で実行されるプログラムである。   FIG. 3 is a block diagram of software modules of the imaging control apparatus 100. A program 300 is stored in the ROM 104 or the RAM 106 and is executed by the CPU 101 in order to realize the processing described in the present embodiment.

撮影制御部301は、カメラモジュール102を制御して、撮影指示及び撮影画像データの受信処理を行う。具体的には、後述の撮影判定部307の判定に従ってカメラモジュール102に撮影指示を行い、そのとき撮影された画像データを受信する。本実施例では、撮影制御部301は、受信した画像データの幾何補正や色調整などの前処理も行うものとする。   The shooting control unit 301 controls the camera module 102 to perform a shooting instruction and received image data reception processing. Specifically, the camera module 102 is instructed to shoot according to the determination of the shooting determination unit 307, which will be described later, and the image data shot at that time is received. In this embodiment, the imaging control unit 301 performs preprocessing such as geometric correction and color adjustment of received image data.

撮影対象判定部302は、撮影画像データの中に追跡して撮影する対象があるか否かを画像処理によって判定する。本実施例では、撮影対象判定部302は、撮影画像データからホワイトボードなどの矩形領域(すなわち矩形の面)を検出し、矩形領域が検出された場合に、その矩形領域を撮影対象と判定する。矩形領域は、例えばオフィスなどでユーザが画像として記録したいものの代表であるからである。例えば、ホワイトボードでの作業記録、プレゼン資料を表示しているプロジェクタの投影、資料を表示しているモニタ画面、ノートの手記、配布資料など、記録しておきたいものは矩形領域として特定できる。そこで、本実施例では、矩形領域を撮影対象と判定する。ただし、矩形領域を全て対象とすると、ユーザにとって有意とは言えない壁の模様や扉などの周囲の矩形領域全てが追跡して撮影する対象となってしまう。そのため、撮影対象と判定される矩形領域は、例えば4:3、16:9などの所定の縦横比に近似のもの(例えば、算出された縦横比がそれぞれ所定の縦横比の10%以内に収まる程度のもの)、かつ、所定の大きさ以上のものとする。ここでいう所定の大きさは、撮影画像のピクセル数で計測できる。矩形領域の検出は、撮影画像中のエッジ線分をハフ変換によって抽出し、抽出されたエッジ線分の集合から縦線2本と横線2本を組み合わせて四角枠(すなわち矩形領域の枠)を生成することによって行われる。矩形領域の縦横比は、生成された四角枠から既知の数式によって数値的に求めることができる。尚、矩形領域の検出及び縦横比の算出は公知の技術(例えば特開2012−238098号公報を参照)であるため、より詳細な説明は割愛する。   The shooting target determination unit 302 determines whether there is an object to be tracked and shot in the shot image data by image processing. In this embodiment, the shooting target determination unit 302 detects a rectangular area (that is, a rectangular surface) such as a whiteboard from the captured image data, and determines that the rectangular area is a shooting target when the rectangular area is detected. . This is because the rectangular area is representative of what the user wants to record as an image in an office, for example. For example, what is desired to be recorded can be specified as a rectangular area, such as a work record on a whiteboard, a projection of a projector displaying a presentation material, a monitor screen displaying a material, a notebook note, and a distribution material. Therefore, in the present embodiment, the rectangular area is determined as an imaging target. However, if all rectangular areas are targeted, all surrounding rectangular areas such as wall patterns and doors that are not significant to the user are tracked and photographed. For this reason, the rectangular area determined as the object to be photographed is approximate to a predetermined aspect ratio such as 4: 3, 16: 9 (for example, the calculated aspect ratio falls within 10% of the predetermined aspect ratio, respectively) It should be of a certain size or larger. The predetermined size here can be measured by the number of pixels of the captured image. In the detection of the rectangular area, the edge line segment in the captured image is extracted by the Hough transform, and a rectangular frame (that is, a rectangular area frame) is formed by combining two vertical lines and two horizontal lines from the set of extracted edge line segments. Done by generating. The aspect ratio of the rectangular area can be numerically obtained from a generated square frame by a known mathematical formula. In addition, since detection of a rectangular area and calculation of an aspect ratio are well-known techniques (for example, refer to Unexamined-Japanese-Patent No. 2012-238098), detailed description is omitted.

画像記録部303は、撮影対象判定部302で撮影する対象となった矩形領域を抜き出し、ユーザが後で見やすいように台形補正した上で記録する。台形補正については公知の技術であるため、ここでの詳細な説明は割愛する。尚、ここでは矩形領域を抜き出すこととするが、撮影対象を含む撮影画像そのものを記録するようにしてもよい。   The image recording unit 303 extracts a rectangular area that is an object to be imaged by the imaging object determination unit 302, records the image after correcting the keystone so that the user can easily see it later. Since trapezoidal correction is a known technique, a detailed description thereof is omitted here. Note that although the rectangular area is extracted here, the captured image itself including the object to be captured may be recorded.

画像保持部304は、画像記録部303で記録された撮影画像を記憶装置108に保持する。   The image holding unit 304 holds the captured image recorded by the image recording unit 303 in the storage device 108.

撮影条件設定部305は、ある方向を次に撮影するか否かを判定するための撮影条件を設定する。具体的には、撮影対象判定部302により撮影対象と判定された矩形領域がある場合には、撮影制御装置100の方向にもとづいて矩形領域の左右上下の端の方向を角度で算出し、矩形領域の中心方向を設定する。撮影対象判定部302により撮影対象が無いと判定された場合には、撮影制御装置100の方向とカメラの画角とにもとづいて、矩形領域の無い範囲を左右上下の端の角度として設定する。また、設定した時刻も同時に設定する。撮影条件設定の例については図6、図7を用いて後述するので、ここでのより詳細な説明は割愛する。   The photographing condition setting unit 305 sets photographing conditions for determining whether or not to photograph next in a certain direction. Specifically, when there is a rectangular area that is determined as a shooting target by the shooting target determination unit 302, the directions of the left and right and upper and lower ends of the rectangular area are calculated as angles based on the direction of the shooting control apparatus 100. Sets the center direction of the area. When the shooting target determination unit 302 determines that there is no shooting target, based on the direction of the shooting control device 100 and the angle of view of the camera, a range without a rectangular area is set as the angle of the left, right, top, and bottom ends. The set time is also set at the same time. An example of shooting condition setting will be described later with reference to FIGS. 6 and 7, and a more detailed description thereof is omitted here.

撮影条件保持部306は、撮影条件設定部305で設定された撮影条件の設定データを記憶装置108に保持する。   The shooting condition holding unit 306 holds the shooting condition setting data set by the shooting condition setting unit 305 in the storage device 108.

撮影判定部307は、撮影条件保持部306で保持されている撮影条件と方向検出部308で検出した現在の方向とタイマー112の出力する現在時刻とにもとづいて、撮影するか否かを判定する。具体的には、撮影判定部307は、撮影条件から現在の方向が矩形領域の中心の方向であるかを判定する。現在の方向が矩形領域の中心の方向であり、かつ、所定時間が経過している場合には、撮影判定部307は撮影すると判定し、そうでなければ撮影しないと判定する。撮影判定については図4を用いて後述するため、ここでのより詳細な説明は割愛する。   The shooting determination unit 307 determines whether to shoot based on the shooting conditions held by the shooting condition holding unit 306, the current direction detected by the direction detection unit 308, and the current time output by the timer 112. . Specifically, the shooting determination unit 307 determines whether the current direction is the direction of the center of the rectangular area from the shooting conditions. If the current direction is the direction of the center of the rectangular area and a predetermined time has elapsed, the shooting determination unit 307 determines that shooting is to be performed, and otherwise determines that shooting is not to be performed. Since the shooting determination will be described later with reference to FIG. 4, a more detailed description is omitted here.

方向検出部308は、方位センサ111、ジャイロセンサ109及び加速度センサ110の出力にもとづいて、撮影制御装置100が現在向いている方向を検出する。具体的には方位センサ111を用いてコンパスと同じ原理で地球の地磁気から東西南北の方向を計測する。ただし、屋内では建物の鉄筋等によって地磁気の信頼性が低くなることがある。そのため、方位センサ111の信頼性が低いと判断された場合は、加速度センサ110及びジャイロセンサ109の出力値から鉛直成分と水平成分を抽出し、基準とする方向に対する相対的な水平角を算出する。ジャイロセンサ109及び加速度センサ110による水平角、仰俯角の算出方法は公知の技術(例えば特開2012−145457号公報参照)であるため、これ以上のより詳細な説明は割愛する。尚、以降の説明では簡単のため、ヨー軸を天頂方向(鉛直の反対方向)の軸、ロール軸をユーザが直立して見ている水平方向の軸、ピッチ軸をロール軸から時計方向に90度回転した水平方向の軸とする。また、ヨー軸周りの角度は北を0度、東を90度、南を180度、西を270度とする0度〜359度で表し、軸の時計周りを正とする。ピッチ軸周りの角度は真上を90度(すなわち仰角90度)、水平を0度、真下を−90度(すなわち俯角90度)とする90度〜−90度で表し、軸の時計周りを正とする。ロール軸周りの角度はユーザが頭を傾けていない状態を0度、右に直角に傾けたときを90度、左に直角に傾けたときを−90度とする90度〜−90度で表し、軸の時計周りを正の回転方向とする。   The direction detection unit 308 detects the direction in which the imaging control apparatus 100 is currently facing based on the outputs of the direction sensor 111, the gyro sensor 109, and the acceleration sensor 110. Specifically, the direction from the earth's geomagnetism to the east, west, south, and north is measured using the direction sensor 111 on the same principle as the compass. However, the reliability of geomagnetism may be lowered indoors due to building reinforcement. Therefore, when it is determined that the reliability of the direction sensor 111 is low, the vertical component and the horizontal component are extracted from the output values of the acceleration sensor 110 and the gyro sensor 109, and the relative horizontal angle with respect to the reference direction is calculated. . Since the calculation method of the horizontal angle and the elevation angle by the gyro sensor 109 and the acceleration sensor 110 is a known technique (see, for example, Japanese Patent Application Laid-Open No. 2012-145457), a more detailed description is omitted. In the following description, for the sake of simplicity, the yaw axis is the axis in the zenith direction (opposite to the vertical direction), the roll axis is the horizontal axis that the user is looking upright, and the pitch axis is 90 clockwise from the roll axis. The horizontal axis that is rotated in degrees. The angle around the yaw axis is represented by 0 degree to 359 degrees where 0 degrees is north, 90 degrees east, 180 degrees south, and 270 degrees west, and the clockwise direction of the axis is positive. The angle around the pitch axis is expressed as 90 to -90 degrees, with 90 degrees directly above (that is, 90 degrees of elevation), 0 degrees horizontally, and -90 degrees directly below (that is, 90 degrees depression). Positive. The angle around the roll axis is expressed as 90 degrees to -90 degrees, with 0 degrees when the user is not tilting his head, 90 degrees when tilted to the right and 90 degrees when tilted to the right and -90 degrees when tilted to the left. The clockwise direction of the shaft is defined as the positive rotation direction.

歩行検出部309は、ジャイロセンサ109及び加速度センサ110によってユーザの歩行動作を検出する。ユーザが歩行しているか否かは、前述の方向検出部308の鉛直成分の振幅の大きさから求めることができる。また、人の歩行動作には各センサの鉛直成分及び水平成分に周期的な特徴が現れることが分かっており、この特徴と各センサ出力値とのパターンマッチングにより歩数を計測することができる。歩行動作の検出処理については公知の技術(例えば特開2012−145457号公報参照)であるため、より詳細な説明は割愛する。   The walking detection unit 309 detects the user's walking motion using the gyro sensor 109 and the acceleration sensor 110. Whether or not the user is walking can be determined from the amplitude of the vertical component of the direction detection unit 308 described above. Further, it is known that periodic features appear in the vertical component and horizontal component of each sensor in human walking motion, and the number of steps can be measured by pattern matching between this feature and each sensor output value. Since the walking motion detection process is a known technique (see, for example, Japanese Patent Laid-Open No. 2012-145457), a more detailed description is omitted.

画像比較部310は、画像保持部304に保持される複数画像の特徴点・特徴量を算出し、各画像の類似度を比較する。特徴点検出にはDoG(Difference Of Gaussian)と呼ばれる技術が一般的に用いられる。各特徴点の特徴量抽出はSIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)と呼ばれる画像処理技術が一般的に用いられる。特徴点・特徴量による画像比較については公知の技術であるため、ここでのより詳細な説明は割愛する。画像比較部310を用いた例に関しては、実施例2で述べる。   The image comparison unit 310 calculates feature points / features of a plurality of images held in the image holding unit 304, and compares the similarities of the images. A technique called DoG (Difference Of Gaussian) is generally used for feature point detection. For the feature quantity extraction of each feature point, an image processing technique called SIFT (Scale-Invariant Feature Transform) or SURF (Speeded Up Robust Features) is generally used. Since image comparison based on feature points and feature amounts is a known technique, a more detailed description thereof is omitted here. An example using the image comparison unit 310 will be described in Example 2.

表示出力部311は、画像比較部310の比較結果に応じて、表示モジュール107への表示出力を行う。表示出力部311を用いた例に関しては、実施例2で述べる。   The display output unit 311 performs display output to the display module 107 according to the comparison result of the image comparison unit 310. An example using the display output unit 311 will be described in a second embodiment.

入力判定部312は、入力モジュール105からのユーザの入力操作を判定する。例えば、入力モジュール105のボタンの1回押し(シングルプッシュ)、2回連続押し(ダブルプッシュ)、長押しなどを判定することができる。   The input determination unit 312 determines a user input operation from the input module 105. For example, it is possible to determine whether the button of the input module 105 is pressed once (single push), continuously pressed twice (double push), or long pressed.

位置算出部313は、ユーザのある地点に対する相対位置を算出する。ユーザのある地点に対する相対位置は、歩数とユーザの重力方向の加速度の大きさとから推測される歩幅から推測される移動速度と、ユーザの向いている方向と、にもとづいて算出する。ジャイロセンサ109、加速度センサ110及び方位センサ111からユーザの相対位置を算出する技術は公知の技術(例えば特開2012−145457号公報参照)であるため、より詳細な説明は割愛する。   The position calculation unit 313 calculates the relative position of the user with respect to a certain point. The relative position of the user with respect to a certain point is calculated based on the moving speed estimated from the stride estimated from the number of steps and the magnitude of the acceleration in the gravity direction of the user, and the direction in which the user is facing. Since the technique for calculating the relative position of the user from the gyro sensor 109, the acceleration sensor 110, and the azimuth sensor 111 is a known technique (see, for example, Japanese Patent Laid-Open No. 2012-145457), a more detailed description is omitted.

次に、図4及び図5を用いて、撮影対象を撮影条件にもとづいて撮影する処理について説明する。図4は撮影条件にもとづいて撮影する処理のフローチャートである。図5は、撮影条件保持部306に保持される撮影条件の例である。   Next, with reference to FIG. 4 and FIG. 5, processing for photographing a photographing target based on photographing conditions will be described. FIG. 4 is a flowchart of processing for photographing based on photographing conditions. FIG. 5 is an example of shooting conditions held in the shooting condition holding unit 306.

図4のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。   The flowchart in FIG. 4 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100.

ステップS401において方向検出部308は、ユーザの向いている方向を検出する。方向検出の詳細については、前述したためここでの説明は割愛する。   In step S401, the direction detection unit 308 detects the direction in which the user is facing. Since the details of the direction detection have been described above, description thereof is omitted here.

ステップS402において歩行検出部309は、ユーザの歩行を検出する。歩行検出の詳細については、前述したためここでの説明は割愛する。   In step S402, the walking detection unit 309 detects the user's walking. Since the details of the walking detection have been described above, the description thereof is omitted here.

ステップS403において歩行検出部309は、ステップS402の検出結果にもとづきユーザが歩行しているか否かを判定する。ここでは、2歩以上歩行していると判定されればステップS405へ進み、そうでなければステップS404へ進む。ここでは歩数を2歩以上としたが、本発明はこれに限らず任意の歩数に設定できる。   In step S403, the walking detection unit 309 determines whether the user is walking based on the detection result in step S402. Here, if it is determined that the user is walking two or more steps, the process proceeds to step S405; otherwise, the process proceeds to step S404. Here, the number of steps is two or more, but the present invention is not limited to this and can be set to an arbitrary number of steps.

ステップS404において撮影条件設定部305は、撮影条件保持部306に保持されている撮影条件をクリアする。すなわち、ステップS403でユーザが歩行していると判定された場合に、撮影条件設定部305は撮影条件を消去する。本実施例では、撮影対象となる矩形領域の方向をユーザが向いているか否かで撮影条件を設定している。ユーザが歩行している場合には、撮影対象となる矩形領域の方向が変化してしまうので、ここではユーザが歩行していると判定された場合に、撮影条件設定部305は撮影条件保持部306に保持されている撮影条件を消去する。ステップS404で撮影条件をクリアした後、後述するステップS412に進む。   In step S <b> 404, the shooting condition setting unit 305 clears the shooting conditions held in the shooting condition holding unit 306. That is, when it is determined in step S403 that the user is walking, the shooting condition setting unit 305 deletes the shooting condition. In this embodiment, the shooting condition is set depending on whether or not the user is facing the direction of the rectangular area to be shot. When the user is walking, the direction of the rectangular area to be imaged changes, so when it is determined that the user is walking here, the imaging condition setting unit 305 is an imaging condition holding unit. The shooting conditions held in 306 are deleted. After the shooting conditions are cleared in step S404, the process proceeds to step S412 described later.

ステップS405において方向検出部308は、撮影制御装置100のロール軸周りの角度が−10度〜10度以内か否かを判定する。角度が10度〜10度以内であればステップS406へ進み、そうでなければステップS412へ進む。ここで、−10度〜10度は任意に設定できる値であり、これに限らない。ロール軸周りの角度が−10度〜10度以内と判定するのは、ユーザの頭の傾きが小さい状態か否か判定して撮影を行うためである。本実施例では、頭の傾きをなるべく考慮しないで済むよう、例えばオフィスで頭を大きく傾けた状態では撮影しないように本ステップS405を用いて制御する。なお、後述する撮影条件においてロール軸を含めた設定を行い、ロール軸を用いた制御を行うようにしてもよい。その場合、本ステップS405は省略してもよい。   In step S405, the direction detection unit 308 determines whether the angle around the roll axis of the imaging control apparatus 100 is within −10 degrees to 10 degrees. If the angle is within 10 degrees to 10 degrees, the process proceeds to step S406; otherwise, the process proceeds to step S412. Here, −10 degrees to 10 degrees is a value that can be arbitrarily set, and is not limited thereto. The reason why the angle around the roll axis is determined to be within −10 degrees to 10 degrees is to determine whether the inclination of the user's head is small or not and perform shooting. In the present embodiment, control is performed using this step S405 so as not to consider the tilt of the head as much as possible, for example, so as not to shoot in a state where the head is greatly tilted in the office. It should be noted that setting including the roll axis may be performed in the imaging conditions described later, and control using the roll axis may be performed. In that case, step S405 may be omitted.

ステップS406において撮影判定部307は、撮影条件保持部306に保持されている撮影条件を読み込む。具体的には、撮影条件は図5に示すようなデータとして保持される。   In step S <b> 406, the shooting determination unit 307 reads the shooting conditions held in the shooting condition holding unit 306. Specifically, the shooting conditions are held as data as shown in FIG.

ここで、図5のデータの見方を説明する。図5の撮影条件は、ユーザの周囲のどの方向に矩形領域(すなわち矩形の面)が存在するか、もしくは存在しないかを示している。すなわち、図5の撮影条件は、既に撮影済みの領域において矩形領域(すなわち矩形の面)が存在するか、もしくは存在しないかを示している。ID列は、各行を一意に特定するための番号である。矩形有無列は、矩形領域の存在があるか否かを示している。矩形中心方向は、ユーザから見た矩形領域の中心方向の角度を示している。矩形領域(左右上下端)列は、矩形領域の四角枠(すなわち矩形領域の枠)の左右上下の線分がどの方向にあるかを、ユーザから見た角度で示している。非矩形領域(左右上下端)列は、矩形が無いと判明している領域を、ユーザから見た領域の左右上下の端の角度で示している。更新時刻列は、各行を最後に更新した時刻を示している。   Here, how to read the data in FIG. 5 will be described. The shooting conditions in FIG. 5 indicate in which direction around the user a rectangular area (that is, a rectangular surface) exists or does not exist. That is, the shooting conditions in FIG. 5 indicate whether or not a rectangular area (that is, a rectangular surface) exists or does not exist in an already shot area. The ID column is a number for uniquely identifying each row. The rectangle presence / absence column indicates whether or not a rectangular area exists. The rectangular center direction indicates the angle in the central direction of the rectangular area as viewed from the user. The rectangular area (upper and lower left and right) columns indicate in which direction the left and right and upper and lower line segments of the rectangular frame of the rectangular area (that is, the frame of the rectangular area) are in an angle viewed from the user. The non-rectangular region (left and right upper and lower ends) column indicates a region that is known to have no rectangle as the angle of the left and right and upper and lower ends of the region viewed from the user. The update time column indicates the time when each row was last updated.

具体的には、ID01の行は矩形領域が存在する方向を示しており、矩形領域の中心はヨー軸周りの115度方向、ピッチ軸周りの3.5度方向にあることが分かる。ID01の矩形領域(左右上下端)列は、矩形の四角枠の左端の線分の中心点がヨー軸周りの100度、右端の線分の中心点がヨー軸周りの130度であることを示している。また、上端の線分の四角枠中心から最も離れた点がピッチ軸周りの10度、下端の線分の四角枠中心から最も離れた点がピッチ軸周りの−3度であることを示している。ここで、以降簡単のため矩形領域の範囲を矩形領域(100度、130度、10度、−3度)と表すこととする。ID01を最後に更新した時刻は2013/8/1 9:30:00である。ID02行は、ヨー軸周りの0度〜100度、ピッチ軸周りの30度〜−40度の範囲に矩形領域が存在しないことを示している。ここで、以降簡単のため矩形領域の存在しない範囲を非矩形領域(0度、100度、30度、−40度)と表すこととする。角度の具体的な算出方法については図6、図7で後述する。   Specifically, the row of ID01 indicates the direction in which the rectangular area exists, and it can be seen that the center of the rectangular area is in the 115 degree direction around the yaw axis and in the 3.5 degree direction around the pitch axis. The ID01 rectangular area (left and right upper and lower ends) column indicates that the center point of the leftmost line segment of the rectangular rectangular frame is 100 degrees around the yaw axis, and the center point of the right end line segment is 130 degrees around the yaw axis. Show. In addition, the point farthest from the center of the square frame of the upper end line segment is 10 degrees around the pitch axis, and the point farthest from the center of the square frame of the lower end line segment is −3 degrees around the pitch axis. Yes. Here, for the sake of simplicity, the range of the rectangular area is represented as a rectangular area (100 degrees, 130 degrees, 10 degrees, -3 degrees). The time when ID01 was last updated is 2013/8/1 9:30:00. The ID02 line indicates that there is no rectangular area in the range of 0 degrees to 100 degrees around the yaw axis and 30 degrees to -40 degrees around the pitch axis. Here, for the sake of simplicity, a range in which no rectangular area exists will be expressed as a non-rectangular area (0 degrees, 100 degrees, 30 degrees, and -40 degrees). A specific method for calculating the angle will be described later with reference to FIGS.

ステップS407において撮影判定部307は、現在向いている方向の撮影領域(すなわちカメラモジュール102が撮影する範囲)に未撮影領域が含まれるか否かを判定する。未撮影領域は、例えば図5にある各撮影条件の矩形領域又は非矩形領域の各領域(すなわち撮影済の領域)を除く領域である。ステップS407で撮影判定部307は、未撮影領域が現在向いている方向の撮影領域に所定角度以上含まれるか否かを判定する。例えば、現在撮影制御装置100が向いている方向がヨー軸周りの250度、ピッチ軸周りの0度とする。そのとき、カメラの画角から撮影領域はヨー軸周りの220度〜280度、ピッチ軸周りの15度〜−15度の範囲となる。以降簡単のためこの撮影領域を撮影領域(220度、280度、15度、−15度)と表す。現在向いている方向が撮影領域(220度、280度、15度、−15度)である場合、撮影領域は図5の撮影条件として設定されている領域に含まれない。すなわち、撮影済みの領域である矩形領域(100度、130度、10度、−3度)、非矩形領域(0度、100度、30度、−40度)及び非矩形領域(130度、200度、20度、−30度)のいずれにも含まれない。従って、撮影判定部307は、撮影領域に未撮影領域が含まれると判定し、ステップS410に処理を進める。   In step S <b> 407, the shooting determination unit 307 determines whether or not a shooting area in the direction in which the camera is currently facing (that is, a range in which the camera module 102 is shooting) includes an unshooted area. The unphotographed area is an area excluding, for example, each rectangular area or non-rectangular area (that is, a photographed area) of each photographing condition shown in FIG. In step S407, the photographing determination unit 307 determines whether or not the unphotographed area is included in the photographing area in the direction in which the unphotographed area is currently directed at a predetermined angle or more. For example, the direction in which the imaging control device 100 is currently facing is 250 degrees around the yaw axis and 0 degrees around the pitch axis. At that time, from the angle of view of the camera, the imaging region is in the range of 220 to 280 degrees around the yaw axis and 15 to -15 degrees around the pitch axis. Hereinafter, for the sake of simplicity, this imaging area is represented as an imaging area (220 degrees, 280 degrees, 15 degrees, and -15 degrees). When the current direction is the shooting area (220 degrees, 280 degrees, 15 degrees, and -15 degrees), the shooting area is not included in the areas set as the shooting conditions in FIG. That is, a rectangular area (100 degrees, 130 degrees, 10 degrees, -3 degrees), a non-rectangular area (0 degrees, 100 degrees, 30 degrees, -40 degrees) and a non-rectangular area (130 degrees, 200 degrees, 20 degrees, and -30 degrees). Therefore, the shooting determination unit 307 determines that the shooting area includes an un-shot area, and proceeds to step S410.

なお、撮影領域(10度、70度、15度、−15度)の場合には、撮影領域が非矩形領域(0度、100度、30度、−40度)に含まれるので、撮影判定部307は撮影領域に未撮影領域が含まれないと判定し、ステップS408へ処理を進める。なお、撮影領域と撮影済みの領域とが重なっている場合には、未撮影領域がヨー軸周り又はピッチ軸周りで20度以上含まれていれば、撮影判定部307は、未撮影領域が撮影領域に含まれると判定し、そうでなければ含まれないと判定する。ただし、ここでは20度以上としたが、20度に限らず任意の角度に設定することができる。   Note that in the case of the shooting region (10 degrees, 70 degrees, 15 degrees, and -15 degrees), the shooting area is included in the non-rectangular areas (0 degrees, 100 degrees, 30 degrees, and -40 degrees), and thus the shooting determination is performed. The unit 307 determines that the non-photographed area is not included in the photographing area, and advances the process to step S408. If the imaged area and the imaged area overlap, if the unphotographed area includes 20 degrees or more around the yaw axis or the pitch axis, the image capturing determination unit 307 captures the unphotographed area. It is determined that it is included in the region, otherwise it is determined that it is not included. However, although it is 20 degrees or more here, it is not limited to 20 degrees and can be set to an arbitrary angle.

ステップS408において撮影判定部307は、最後に撮影した時刻から所定時間以上経過しているか否かを判定する。例えば該所定時間が10秒の場合、最後に撮影した時刻から10秒以上経過していればステップS409へ進み、そうでなければステップS412へ進む。所定時間は任意に設定できるものであり、10秒に限るものではない。   In step S408, the shooting determination unit 307 determines whether or not a predetermined time has elapsed since the last shooting time. For example, if the predetermined time is 10 seconds, the process proceeds to step S409 if 10 seconds or more have elapsed since the last photographing time, and the process proceeds to step S412 otherwise. The predetermined time can be arbitrarily set, and is not limited to 10 seconds.

ステップS409において撮影判定部307は、現在の向いている方向が撮影する方向であるか否かを判定する。すなわち、撮影判定部307は、現在向いている方向の撮影領域が矩形領域のある方向か又は非矩形領域のある方向かを判定する。例えば、図5の撮影条件のとき、現在の方向がヨー軸周り115度、ピッチ軸周り3.5度(以降簡単のため現在方向(115度、3.5度)と表す)である場合、現在の方向が矩形中心方向である。従って、撮影判定部307は、現在向いている方向は撮影する方向と判定してステップS411に進む。そうでなければステップS410に進む。ここで、各センサ値や手ブレなどの誤差を許容するため、現在の方向が矩形中心方向に対してヨー軸又はピッチ軸の各軸周りで±10度以内であれば、撮影判定部307は撮影する方向として判定する。ここで、±10度という数値はマージンとして任意に設定できる値であり、これに限るものではない。   In step S409, the shooting determination unit 307 determines whether or not the current direction is the shooting direction. In other words, the shooting determination unit 307 determines whether the shooting area in the current direction is a direction with a rectangular area or a direction with a non-rectangular area. For example, if the current direction is 115 degrees around the yaw axis and 3.5 degrees around the pitch axis (hereinafter referred to as the current direction (115 degrees, 3.5 degrees for simplicity)) in the shooting conditions of FIG. The current direction is the rectangle center direction. Accordingly, the shooting determination unit 307 determines that the current direction is the shooting direction, and proceeds to step S411. Otherwise, the process proceeds to step S410. Here, in order to allow errors such as sensor values and camera shake, if the current direction is within ± 10 degrees around each axis of the yaw axis or the pitch axis with respect to the center direction of the rectangle, the imaging determination unit 307 It is determined as the shooting direction. Here, the numerical value of ± 10 degrees is a value that can be arbitrarily set as a margin, and is not limited to this.

ステップS410において撮影判定部307は、現在の時刻が、現在向いている撮影しない方向(すなわち非矩形領域と設定されている方向)に関連付けられている更新時刻から所定時間以上経過しているか否かを判定する。すなわち、その撮影しない方向を最後に撮影した時刻から所定時間以上経過しているか否かを判定する。つまり、撮影しない方向と認識している現在の方向に新たな矩形領域が現れていないかを確認するため、所定時間以上経過したときには、非矩形領域を向いていても撮影を行う。ここで、所定時間は3分であるとする。例えば、図5のID03の非矩形領域の方向を向いているとき、現在時刻が2013/8/1 9:36:00とすると、ID03の更新時刻から3分50秒経過しているため、撮影判定部307は所定時間以上経過していると判定しステップS411へ進む。そうでなければステップS412へ進む。この場合、ID03の更新時刻は現在の時刻2013/8/1 9:36:00で更新されることになる。なお、ここでは所定時間を3分であるとして説明したが、任意の値に設定することができ、3分に限られるものではない。   In step S410, the shooting determination unit 307 determines whether or not the current time has passed a predetermined time or more from the update time associated with the current shooting direction (that is, the direction set as the non-rectangular region). Determine. That is, it is determined whether or not a predetermined time or more has passed since the last shooting time in the non-shooting direction. In other words, in order to check whether a new rectangular area has appeared in the current direction recognized as a direction not to be photographed, photographing is performed even when facing a non-rectangular area when a predetermined time has elapsed. Here, it is assumed that the predetermined time is 3 minutes. For example, if the current time is 2013/8/1 9:36:00 when facing the non-rectangular area of ID03 in FIG. 5, 3 minutes and 50 seconds have passed since the update time of ID03. The determination unit 307 determines that the predetermined time or more has elapsed, and proceeds to step S411. Otherwise, the process proceeds to step S412. In this case, the update time of ID03 is updated at the current time 2013/8/1 9:36:00. Although the predetermined time is 3 minutes here, it can be set to any value and is not limited to 3 minutes.

ステップS411において撮影制御部301は、撮影処理を行う。撮影処理の詳細は図6のフローチャートで説明するため、ここでの説明は割愛する。   In step S411, the shooting control unit 301 performs shooting processing. Details of the photographing process will be described with reference to the flowchart of FIG.

ステップS412において入力判定部312は、撮影制御装置100の終了が行われたか否かを判定する。具体的には、撮影制御装置の電源ボタンの長押しなどにより、電源がオフされたときには撮影制御処理を終了し、そうでなければステップS401へ戻る。   In step S412, the input determination unit 312 determines whether the photographing control apparatus 100 has been terminated. Specifically, the shooting control process is terminated when the power is turned off by, for example, pressing and holding the power button of the shooting control device, and otherwise the process returns to step S401.

次に。図6、図7を用いて、撮影時に撮影条件を設定する処理について説明する。図6は、図4のステップS411における撮影処理のフローチャートの一例を示す図である。図7は、矩形領域を撮影条件に設定するイメージ図と撮影条件の例である。   next. The process for setting the shooting conditions during shooting will be described with reference to FIGS. FIG. 6 is a diagram illustrating an example of a flowchart of the photographing process in step S411 in FIG. FIG. 7 is an image diagram for setting a rectangular area as a shooting condition and an example of the shooting condition.

図6のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。   The flowchart in FIG. 6 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100.

ステップS601において撮影制御部301は、現在向いている方向をカメラモジュール102を制御することで撮影する。例えば、ステップS601によって図7(a)の701もしくは図7(d)の702のような撮影画像を示すデータが取得できる。   In step S <b> 601, the imaging control unit 301 captures an image by controlling the camera module 102 in the current direction. For example, in step S601, data indicating a captured image such as 701 in FIG. 7A or 702 in FIG. 7D can be acquired.

ステップS602において撮影対象判定部302は、ステップS601で撮影された画像中の矩形を検出する。例えば、図7(b)の破線702で囲まれた枠が検出された矩形の枠である。矩形の検出方法については、図3の撮影対象判定部302の項で述べたため、ここでの説明は割愛する。   In step S602, the shooting target determination unit 302 detects a rectangle in the image shot in step S601. For example, a frame surrounded by a broken line 702 in FIG. 7B is a detected rectangular frame. Since the method of detecting the rectangle has been described in the section of the photographing target determination unit 302 in FIG. 3, the description thereof is omitted here.

ステップS603において撮影対象判定部302は、ステップS602の矩形検出によって矩形が検出されたか否かを判定する。矩形が検出されたならばステップS604に進み、そうでなければステップS607へ進む。例えば、図7(b)のように破線702で囲まれた矩形が検出されたならばステップS604に進む。   In step S603, the imaging target determination unit 302 determines whether a rectangle is detected by the rectangle detection in step S602. If a rectangle is detected, the process proceeds to step S604; otherwise, the process proceeds to step S607. For example, if a rectangle surrounded by a broken line 702 is detected as shown in FIG. 7B, the process proceeds to step S604.

ステップS604において撮影対象判定部302は、検出した矩形が所定の条件に合致するか否かを判定する。具体的には、矩形が所定の縦横比に収まっているか、所定の大きさ以上であるかを判定する。例えば、図7(b)の矩形を表す破線702が所定の条件に合致するか否かを判定する。詳細については図3の撮影対象判定部302の項で述べたため、ここでの説明は割愛する。所定の条件に合致していればステップS605へ進み、そうでなければステップS607へ進む。ここで、図7(b)の矩形は所定の条件に合致しているとする。   In step S604, the imaging target determination unit 302 determines whether or not the detected rectangle matches a predetermined condition. Specifically, it is determined whether the rectangle is within a predetermined aspect ratio or is a predetermined size or more. For example, it is determined whether or not a broken line 702 representing a rectangle in FIG. 7B meets a predetermined condition. Details have been described in the section of the photographing target determination unit 302 in FIG. 3, and thus description thereof will be omitted. If the predetermined condition is met, the process proceeds to step S605; otherwise, the process proceeds to step S607. Here, it is assumed that the rectangle in FIG. 7B meets a predetermined condition.

ステップS605において撮影条件設定部305は、ステップS602で検出した矩形領域を、追跡して撮影する矩形領域として撮影条件に設定する。例えば、図7(a)の矩形を撮影した画像から、撮影条件を図7(e)のID01〜ID05のように設定する。ID02は、破線702で表される矩形の撮影条件である。ID02の矩形領域(左右上下端)列は、図7(b)の破線702の左右上下の線分のユーザから見た方向を表わしている。具体的には、図7(b)の破線702の左右の線分の中心点がそれぞれ52.5度(704)、75度(705)と表され、上下の線分の矩形中心から最も遠い点がそれぞれ13.1度(706)、−3.8度(707)と表される。また、図7(c)の網掛け領域(708〜711)はそれぞれID01,ID03〜ID05に対応している。具体的には、網掛け領域708はID01に対応する。網掛け領域709はID03に対応する。網掛け領域710はID04に対応する。網掛け領域711はID05に対応する。網掛け領域708はヨー軸周りの30度〜52.5度、ピッチ軸周りの15度〜−15度に矩形が存在しないため、ID01のように矩形無しとして非矩形領域(左右上下端)が前記の角度として設定される。ID03〜ID05もID01と同様に設定される。   In step S605, the shooting condition setting unit 305 sets the rectangular area detected in step S602 as the shooting condition as a rectangular area to be tracked and shot. For example, from the image obtained by photographing the rectangle in FIG. 7A, the photographing conditions are set as ID01 to ID05 in FIG. ID02 is a rectangular imaging condition represented by a broken line 702. The rectangular area (left and right upper and lower end) columns of ID02 represent the directions viewed from the user of the left and right and upper and lower line segments of the broken line 702 in FIG. Specifically, the center points of the left and right line segments of the broken line 702 in FIG. 7B are represented as 52.5 degrees (704) and 75 degrees (705), respectively, and are farthest from the rectangular centers of the upper and lower line segments. The points are expressed as 13.1 degrees (706) and -3.8 degrees (707), respectively. Further, the shaded areas (708 to 711) in FIG. 7C correspond to ID01 and ID03 to ID05, respectively. Specifically, the shaded area 708 corresponds to ID01. The shaded area 709 corresponds to ID03. The shaded area 710 corresponds to ID04. The shaded area 711 corresponds to ID05. The shaded area 708 has no rectangle at 30 ° to 52.5 ° around the yaw axis and 15 ° to −15 ° around the pitch axis. It is set as the angle. ID03 to ID05 are set similarly to ID01.

ステップS606で画像記録部303は、ステップS602で検出した矩形領域を台形補正した上で画像保持部304に記録・保持する。図3の画像記録部303の項で説明したように、台形補正については公知の技術であるため、ここでの詳細な説明は割愛する。また、ここでは矩形領域を抜き出して記録する例を説明しているが、撮影対象を含む撮影画像データそのものを記録するようにしてもよい。   In step S <b> 606, the image recording unit 303 performs keystone correction on the rectangular area detected in step S <b> 602 and records / holds it in the image holding unit 304. As described in the section of the image recording unit 303 in FIG. 3, trapezoidal correction is a known technique, and thus detailed description thereof is omitted here. Although an example in which the rectangular area is extracted and recorded is described here, the captured image data itself including the subject to be captured may be recorded.

ステップS607において撮影条件設定部305は、撮影した領域を、追跡して撮影しない領域として撮影条件に設定する。例えば、図7(d)は矩形が写っていないときの撮影画像の例である。このとき、前記撮影画像の方向を追跡して撮影しない領域として図7(e)のID06のように撮影条件を設定する。具体的には、非矩形領域(左右上下端)をカメラの撮影範囲である100度〜160度、10度〜−20度として設定する。   In step S <b> 607, the shooting condition setting unit 305 sets the shooting area as the shooting condition as an area to be tracked and not shot. For example, FIG. 7D shows an example of a photographed image when no rectangle is captured. At this time, an imaging condition is set as ID06 in FIG. 7E as an area where the direction of the captured image is tracked and the image is not captured. Specifically, the non-rectangular region (left and right upper and lower ends) is set as a camera photographing range of 100 degrees to 160 degrees, 10 degrees to -20 degrees.

このように、第1の実施例では、例えば矩形を含む第1の領域が撮影領域となる第1の方向を自動で撮影し、さらに、第1の領域と重複しない領域であって矩形を含まない第2の領域が撮影領域となる第2の方向を自動で撮影する。その後に、カメラモジュール102を第1の方向に向けた場合にその第1の方向を自動で撮影する一方で、カメラモジュール102を第2の方向に向けた場合に第2の方向を撮影しないように制御する。また、カメラモジュール102を第1の方向及び第2の方向と重複しない第3の方向に向けた場合に第3の方向を自動で撮影するように制御する。   As described above, in the first embodiment, for example, the first area including the rectangle is automatically captured in the first direction in which the imaging area is the imaging area, and further, the area does not overlap with the first area and includes the rectangle. The second direction in which the second region that is not present becomes the photographing region is automatically photographed. Thereafter, when the camera module 102 is pointed in the first direction, the first direction is automatically shot, while when the camera module 102 is pointed in the second direction, the second direction is not shot. To control. Further, when the camera module 102 is directed in a third direction that does not overlap with the first direction and the second direction, control is performed so that the third direction is automatically captured.

第1の実施例では、撮影条件から矩形領域や未知領域を撮影する処理、及び、撮影した画像と現在向いている方向から撮影条件を設定する例を示した。これにより、撮影条件に基づいて撮影対象が存在する方向を、消費電力が少ない各センサを活用して追跡して撮影することができるので、撮影回数を減らし、バッテリーの消耗を防ぐことができる。   In the first embodiment, the processing for capturing a rectangular area or an unknown area from the shooting conditions and the example of setting the shooting conditions from the direction that is currently facing the captured image are shown. Thereby, the direction in which the subject is to be photographed can be tracked and photographed using each sensor with low power consumption based on the photographing condition, so that the number of photographing can be reduced and battery consumption can be prevented.

<第2の実施例>
以下、本発明を実施するための第2の実施例について説明する。第1の実施例では、撮影した画像から矩形領域を検出し、検出した矩形領域を撮影対象として撮影条件を設定する例を示した。第2の実施例では、過去の矩形領域と現在の矩形領域との画像パターンマッチングを行い、変化が無い画像は追跡して撮影する対象の矩形領域から除外する例を示す。
<Second embodiment>
A second embodiment for carrying out the present invention will be described below. In the first embodiment, an example is shown in which a rectangular area is detected from a captured image, and shooting conditions are set with the detected rectangular area as a shooting target. In the second embodiment, an example is shown in which image pattern matching between a past rectangular area and a current rectangular area is performed, and an image having no change is excluded from the rectangular area to be captured and tracked.

以降、第1の実施例との差分を中心に説明する。図8、図9を用いて実施例2の撮影条件の設定方法について説明する。図8は、実施例2における撮影処理のフローチャートの一例を示す図である。図9は、実施例2における撮影条件の例である。図8のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。   Hereinafter, a description will be given centering on differences from the first embodiment. A method for setting shooting conditions according to the second embodiment will be described with reference to FIGS. FIG. 8 is a diagram illustrating an example of a flowchart of imaging processing according to the second embodiment. FIG. 9 is an example of imaging conditions in the second embodiment. The flowchart in FIG. 8 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100.

ステップS801〜S805、ステップS813及びステップS814は第1の実施例で説明した図6のステップS601〜S607と同様であるため、ここでは第1の実施例との差分を中心に説明する。   Steps S801 to S805, step S813, and step S814 are the same as steps S601 to S607 in FIG. 6 described in the first embodiment, and therefore, here, the difference from the first embodiment will be mainly described.

第1の実施例との差分は、ステップS806〜S812によって、現在の矩形領域と過去の矩形領域とのパターンマッチングにより変化の少ない矩形領域を検出し、検出した変化の少ない矩形領域を追跡して撮影するか否かをユーザに選択させるところである。これによって、変化の無い矩形領域をユーザに通知し、ユーザがボタン入力することで以降の撮影を除外することができる。また、図9は撮影禁止フラグ列以外は第1の実施例の図5と同様である。第1の実施例との差分は、ユーザのボタン入力により、撮影条件に撮影禁止フラグを設定できるところである。   The difference from the first embodiment is that steps S806 to S812 detect a rectangular area with little change by pattern matching between the current rectangular area and a past rectangular area, and track the detected rectangular area with little change. This is where the user selects whether to shoot. Accordingly, the user can be notified of a rectangular area having no change, and the subsequent shooting can be excluded when the user inputs a button. FIG. 9 is the same as FIG. 5 of the first embodiment except for the photographing prohibition flag string. The difference from the first embodiment is that the shooting prohibition flag can be set in the shooting condition by the user's button input.

ステップS806において撮影条件設定部305は、検出した矩形領域と同じ領域(すなわち図9の矩形領域(左右上下端)の角度で囲まれる範囲)に、過去に検出した矩形領域があるか否かを判定する。具体的には、新たに検出した矩形と、撮影条件に保持される過去の矩形領域の左右上下端の各角度の比較を行い、各値が±5度以内であれば、同じ矩形領域と判定する。±5度の値は任意に設定できるものであり、これに限るものではない。   In step S806, the imaging condition setting unit 305 determines whether or not there is a rectangular area detected in the past in the same area as the detected rectangular area (that is, a range surrounded by the angle of the rectangular area (left and right upper and lower ends) in FIG. 9). judge. Specifically, the newly detected rectangle is compared with the respective angles of the upper, lower, upper and lower corners of the past rectangular area held in the shooting conditions, and if each value is within ± 5 degrees, it is determined as the same rectangular area To do. The value of ± 5 degrees can be arbitrarily set, and is not limited to this.

ステップS807において撮影条件設定部305は、ステップS806で判定された過去に検出された矩形領域の撮影条件に関連付けられて画像保持部304に保持される矩形領域画像のうち、最も古い画像が60秒以上前に保存されたものか否かを判定する。60秒以上前に保存されたものであればステップS808へ進み、そうでなければステップS813へ進む。一定時間以上経過している場合、矩形領域に何かしらの変化がある場合、あるいは変化がない場合がはっきりしている可能性が高まる。また、常に後述のパターンマッチングを行うと効率が悪い。従って、本実施例では保存されている矩形領域画像が保存された時刻から所定の時間が経過している場合に後述するパターンマッチングを行う。なお、ここでは60秒として説明したが、任意の値を用いてよい。また、ここでは比較対象を最も古い画像として説明するが、最も新しい画像と比較してもよい。   In step S807, the shooting condition setting unit 305 determines that the oldest image is 60 seconds among the rectangular area images held in the image holding unit 304 in association with the shooting conditions of the rectangular area detected in the past determined in step S806. It is determined whether or not it has been previously saved. If it has been saved 60 seconds or more ago, the process proceeds to step S808, and if not, the process proceeds to step S813. When a certain time has passed, there is a high possibility that it is clear that there is some change in the rectangular area or there is no change. Moreover, it is inefficient if pattern matching described later is always performed. Therefore, in this embodiment, pattern matching, which will be described later, is performed when a predetermined time has elapsed since the saved rectangular area image was saved. In addition, although demonstrated here as 60 seconds, you may use arbitrary values. Although the comparison target is described as the oldest image here, it may be compared with the newest image.

ステップS808において画像比較部310は、検出した矩形領域画像と過去に撮影した最も古い矩形領域画像のパターンマッチングを行い、一致率を算出する。画像のパターンマッチングについては、図3の画像比較部310の項で述べたため、ここでの説明は割愛する。   In step S808, the image comparison unit 310 performs pattern matching between the detected rectangular area image and the oldest rectangular area image captured in the past, and calculates a matching rate. Since the image pattern matching has been described in the section of the image comparison unit 310 in FIG. 3, the description thereof is omitted here.

ステップS809において画像比較部310は、画像のパターンマッチングの一致率が所定の閾値以下であれば、変化があるとみなしてステップS813へ進み、そうでなければステップS810へ進む。例えば、一致率が95%以上のときには変化が無いとみなし、ステップS810へ進む。一致率は、算出された特徴点数と各画像の一致した特徴点の割合から求めることができる。変化がある場合、その変化があった矩形を撮影するため、ステップS813に進み、矩形領域を撮影する領域として撮影条件に設定することになる。一方、変化がない場合、その矩形領域を引き続き撮影するのかをユーザに確認するため、ステップS810に進む。   In step S809, if the coincidence rate of the pattern matching of the image is equal to or less than a predetermined threshold, the image comparison unit 310 regards that there is a change, and proceeds to step S813, otherwise proceeds to step S810. For example, when the coincidence rate is 95% or more, it is considered that there is no change, and the process proceeds to step S810. The matching rate can be obtained from the calculated number of feature points and the ratio of the feature points that match each image. If there is a change, the process proceeds to step S813 in order to capture the rectangle in which the change has occurred, and the rectangular area is set as the capture condition as the capture area. On the other hand, if there is no change, the process proceeds to step S810 in order to confirm with the user whether or not to continue photographing the rectangular area.

ステップS810において表示出力部は、表示モジュール107(例えばLED)を所定時間点滅させることで、矩形領域画像に変化が無いことをユーザに通知する。例えば、3秒間点滅させることでユーザに矩形領域画像に変化が無いことを通知する。   In step S810, the display output unit blinks the display module 107 (for example, LED) for a predetermined time to notify the user that there is no change in the rectangular area image. For example, by blinking for 3 seconds, the user is notified that there is no change in the rectangular area image.

ステップS811において入力判定部312は、撮影制御装置100へのユーザによる入力が、LED点滅開始から所定時間以内にあったか否かを判定する。例えば、LEDが点滅してから5秒以内にユーザによるダブルプッシュを検出した場合に所定の入力があったと判定し、ステップS813へ進む。そうでなければステップS812へ進む。   In step S811, the input determination unit 312 determines whether or not an input by the user to the imaging control device 100 is within a predetermined time from the start of LED blinking. For example, when a double push by the user is detected within 5 seconds after the LED blinks, it is determined that there is a predetermined input, and the process proceeds to step S813. Otherwise, the process proceeds to step S812.

ステップS812において撮影条件設定部305は、ステップS802で検出した矩形領域の撮影条件に撮影禁止のフラグを設定する。具体的には、図9のID01のように撮影禁止フラグがONに設定される。これにより、ID01は矩形領域であっても追跡して撮影する対象から外れる。撮影判定部307は、撮影禁止フラグがONに設定されている場合、その矩形領域を撮影しないと判定する。   In step S812, the shooting condition setting unit 305 sets a shooting prohibition flag in the shooting condition of the rectangular area detected in step S802. Specifically, the photographing prohibition flag is set to ON as in ID01 in FIG. As a result, even if ID01 is a rectangular region, it is excluded from the subject to be tracked and photographed. When the shooting prohibition flag is set to ON, the shooting determination unit 307 determines that the rectangular area is not shot.

第2の実施例では、追跡して撮影している矩形領域の変化を画像のパターンマッチングにより検出し、変化の無い矩形領域がある場合にその領域を以後撮影しないようにユーザに選ばせる。これによって、変化の無い画像を継続して撮影することを停止するので、撮影の回数を減らすことができる。   In the second embodiment, a change in a rectangular area that is tracked and photographed is detected by image pattern matching, and if there is a rectangular area that does not change, the user is allowed to choose not to photograph that area thereafter. As a result, the continuous shooting of images without change is stopped, so that the number of shootings can be reduced.

<第3の実施例>
以下、本発明を実施するための第3の実施例について説明する。第1、第2の実施例では、条件に合う検出した矩形を全て追跡撮影するよう撮影条件に設定する例を示した。第3の実施例では、複数の矩形を検出した場合には、一番大きな矩形を選択して撮影条件に設定する例を示す。
<Third embodiment>
Hereinafter, a third embodiment for carrying out the present invention will be described. In the first and second embodiments, an example is shown in which shooting conditions are set so that all detected rectangles that meet the conditions are tracked. The third embodiment shows an example in which, when a plurality of rectangles are detected, the largest rectangle is selected and set as the shooting condition.

以降、第1の実施例との差分を中心に説明する。図10は、実施例3における撮影処理のフローチャートの一例である。図10のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。なお、ステップS1001〜S1004、ステップS1007〜S1008は第1の実施例で説明した図6のステップS601〜S607と同様であるのでここでの説明は省略する。   Hereinafter, a description will be given centering on differences from the first embodiment. FIG. 10 is an example of a flowchart of imaging processing in the third embodiment. The flowchart in FIG. 10 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100. Note that steps S1001 to S1004 and steps S1007 to S1008 are the same as steps S601 to S607 of FIG. 6 described in the first embodiment, and thus description thereof is omitted here.

第1の実施例との差分は、ステップS1005〜S1006において撮影対象判定部302が、矩形が複数あった場合に、一番大きな矩形領域を抽出するところである。これによって、複数の矩形があった場合に一番大きな矩形領域を抽出するので、代表的な矩形領域のみを撮影・保存することができる。例えば、ホワイトボードを見ていたユーザが手元のPCの画面を見る場合、PCの画面の背面でホワイトボードの矩形領域が抽出される場合が想定される。この場合、ユーザとしては、自身が着目している、より近い距離にありより大きな矩形領域として抽出されるPCの画面を撮影して保存すれば自動撮影の目的を達することができる。よって、本実施例では、矩形が複数あった場合に、一番大きな矩形領域を抽出する。   The difference from the first embodiment is that, in steps S1005 to S1006, the imaging target determination unit 302 extracts the largest rectangular area when there are a plurality of rectangles. As a result, when there are a plurality of rectangles, the largest rectangular area is extracted, so that only a representative rectangular area can be photographed and stored. For example, when a user who is looking at a whiteboard looks at the screen of the PC at hand, it is assumed that a rectangular area of the whiteboard is extracted on the back of the PC screen. In this case, the user can achieve the purpose of automatic shooting by shooting and saving the PC screen that is focused on and is extracted as a larger rectangular area at a closer distance. Therefore, in this embodiment, when there are a plurality of rectangles, the largest rectangular area is extracted.

ステップS1005において撮影対象判定部302は、ステップS1004で判定された矩形領域が複数あるか否かを判定する。複数ある場合はステップS1006へ進み、そうでなければステップS1007へ進む。   In step S1005, the shooting target determination unit 302 determines whether there are a plurality of rectangular regions determined in step S1004. If there are more than one, the process proceeds to step S1006; otherwise, the process proceeds to step S1007.

ステップS1006において撮影対象判定部302は、複数ある矩形の四角枠の長さを算出し、最も枠の長い矩形を一番大きな矩形領域として抽出する。   In step S1006, the imaging target determination unit 302 calculates the length of a plurality of rectangular square frames, and extracts the rectangle with the longest frame as the largest rectangular region.

第3の実施例では、一番大きな代表的な矩形のみを撮影するよう設定する。これによって、付加的に検出される小さな矩形を除外するので、余分な撮影を減らすことができる。   In the third embodiment, only the largest representative rectangle is set to be photographed. This eliminates small rectangles that are additionally detected, thereby reducing extra shooting.

<第4の実施例>
以下、本発明を実施するための第4の実施例について説明する。第1、第2、第3の実施例では、検出した矩形を撮影条件に設定する例を示した。第4の実施例では、撮影画像から予め用意したマーカーを検出したときの撮影条件設定方法について示す。
<Fourth embodiment>
The fourth embodiment for carrying out the present invention will be described below. In the first, second, and third embodiments, the detected rectangle is set as the shooting condition. In the fourth embodiment, an imaging condition setting method when a marker prepared in advance from a captured image is detected will be described.

以降、第1の実施例との差分を中心に説明する。図11、図12を用いて実施例4の撮影条件の設定方法について説明する。図11は、実施例4における撮影処理のフローチャートの一例である。図12は、実施例4における撮影画像のイメージ図と撮影条件の例である。 図11のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。なお、ステップS1101、S1110〜S1115は第1の実施例の図6で説明したステップS601〜S607と同様であるのでここでの説明は省略する。   Hereinafter, a description will be given centering on differences from the first embodiment. A method for setting shooting conditions according to the fourth embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is an example of a flowchart of photographing processing in the fourth embodiment. FIG. 12 is an example of a photographed image and photographing conditions in the fourth embodiment. The flowchart in FIG. 11 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100. Steps S1101 and S1110 to S1115 are the same as steps S601 to S607 described with reference to FIG. 6 of the first embodiment, and thus description thereof is omitted here.

第1の実施例との差分は、ステップS1102〜S1109によって、撮影禁止のマーカーまたは撮影要求のマーカーを検出した場合には、撮影している領域をそれぞれ撮影しない領域または撮影する領域に設定するところである。これによって、撮影禁止のマーカーによって撮影画像を残したくない領域の撮影画像を記録せず、以降の撮影を禁止することができる。また撮影要求のマーカーによって、矩形が検出されない領域であっても、撮影を促すことができる。   The difference from the first embodiment is that when the shooting prohibition marker or the shooting request marker is detected in steps S1102 to S1109, the shooting area is set as a non-shooting area or a shooting area, respectively. is there. As a result, it is possible to prohibit the subsequent shooting without recording the shot image of the area where the shot image is not desired to be left by the shooting prohibition marker. Further, it is possible to prompt photographing even in an area where a rectangle is not detected by a marker for photographing request.

ステップS1102において撮影対象判定部302は、撮影画像からマーカーを検出する。例えば、マーカーは図12(a)の1202、または図12(b)の1204のようなものである。一般的に、マーカーの検出は、予め定められた枠を撮影画像から画像処理によって検出することで行われる。また、マーカーの枠内の図柄によって、異なる種類のマーカーを識別することができる。マーカーの検出技術は、公知の技術であるため、これ以上の詳細な説明は割愛する。   In step S1102, the shooting target determination unit 302 detects a marker from the shot image. For example, the marker is like 1202 in FIG. 12 (a) or 1204 in FIG. 12 (b). In general, the marker is detected by detecting a predetermined frame from a captured image by image processing. Also, different types of markers can be identified by the design within the marker frame. Since the marker detection technique is a known technique, further detailed description is omitted.

ステップS1103において撮影対象判定部302は、ステップS1102でマーカーを検出したか否かを判定する。マーカーを検出した場合は、ステップS1104へ進み、そうでなければステップS1110へ進む。   In step S1103, the shooting target determination unit 302 determines whether a marker is detected in step S1102. If a marker is detected, the process proceeds to step S1104; otherwise, the process proceeds to step S1110.

ステップS1104において撮影対象判定部302は、検出したマーカーが図12(a)に示すような撮影禁止マーカー1202であるか否かを判定する。撮影禁止マーカーであった場合はステップS1105へ進み、そうでなければステップS1106へ進む。   In step S1104, the photographing target determination unit 302 determines whether or not the detected marker is a photographing prohibition marker 1202 as illustrated in FIG. If it is a photographing prohibition marker, the process proceeds to step S1105; otherwise, the process proceeds to step S1106.

ステップS1105において撮影条件設定部305は、撮影条件に撮影禁止の条件を設定する。具体的には、図12(c)のID01のように、マーカー列を撮影禁止とする。また、図12(a)で示されるように、撮影禁止マーカー1202の中心の方向を現在の方向と画像処理によって算出し、マーカーの中心方向をヨー軸、ピッチ軸周りの角度として図12(c)のマーカー方向に設定する。これにより、撮影判定部307は、撮影制御装置100の撮影画像にマーカー1202が含まれると判定される方向を向いている場合には撮影を行わないように制御する。   In step S1105, the shooting condition setting unit 305 sets shooting prohibition conditions as shooting conditions. Specifically, as shown by ID01 in FIG. 12C, the marker row is prohibited from being shot. Also, as shown in FIG. 12A, the center direction of the photographing prohibition marker 1202 is calculated by the current direction and image processing, and the center direction of the marker is an angle around the yaw axis and the pitch axis. ) Marker direction. As a result, the shooting determination unit 307 performs control so that shooting is not performed when the shooting image of the shooting control apparatus 100 faces a direction in which it is determined that the marker 1202 is included.

ステップS1106において撮影対象判定部302は、検出したマーカーが図12(b)で示すような撮影要求マーカー1204であるか否かを判定する。撮影要求マーカーであった場合はステップS1107へ進み、そうでなければステップS1108へ進む。   In step S1106, the shooting target determination unit 302 determines whether the detected marker is a shooting request marker 1204 as illustrated in FIG. If it is a photographing request marker, the process proceeds to step S1107, and if not, the process proceeds to step S1108.

ステップS1107において撮影条件設定部305は、撮影条件に撮影要求の条件を設定する。具体的には、図12(c)のID02のように、マーカー列を撮影要求とする。また、ステップS1105と同様にして、図12(b)の撮影要求マーカー1204の中心方向を算出し、ヨー軸、ピッチ軸周りの角度として図12(c)のマーカー方向に設定する。これにより、矩形領域撮影と同様に、撮影制御装置100の現在方向とマーカー方向が一致すると判定される場合には、撮影を行うように制御する。   In step S1107, the shooting condition setting unit 305 sets shooting request conditions as shooting conditions. Specifically, a marker row is set as an imaging request, as indicated by ID02 in FIG. Similarly to step S1105, the center direction of the imaging request marker 1204 in FIG. 12B is calculated, and the angles around the yaw axis and the pitch axis are set in the marker direction in FIG. Thus, as in the rectangular area shooting, when it is determined that the current direction of the shooting control apparatus 100 matches the marker direction, control is performed to perform shooting.

ステップS1108において画像記録部303は、ステップS1101で撮影した撮影画像を画像保持部304に記録する。   In step S1108, the image recording unit 303 records the captured image captured in step S1101 in the image holding unit 304.

ステップS1109において撮影制御装置100は、本実施例で述べるマーカー以外の別のマーカーを検出した場合に、その他の処理を行う。その他の処理は、処理を規定するものでなく、何も処理を行わなくてもよい。   In step S1109, when the imaging control apparatus 100 detects another marker other than the markers described in this embodiment, the imaging control apparatus 100 performs other processing. The other processing does not define the processing, and no processing may be performed.

第4の実施例では、撮影禁止マーカーまたは撮影要求マーカーを撮影した場合の撮影条件の設定方法について述べた。これによって、オフィス内に貼ってあるマーカーに応じて撮影条件を設定するので、より柔軟に撮影を制御することができる。   In the fourth embodiment, the method for setting the shooting condition when shooting the shooting prohibition marker or the shooting request marker is described. As a result, shooting conditions are set according to the markers attached in the office, so that shooting can be controlled more flexibly.

<第5の実施例>
以下、本発明を実施するための第5の実施例について説明する。第1、第2、第3、第4の実施例では、撮影した画像の解析と現在の方向にもとづいて撮影条件を設定する例を示した。第5の実施例では、ユーザがある場所から移動して撮影条件がクリアされた後、ユーザが再び元の場所に戻った場合について述べる。
<Fifth embodiment>
The fifth embodiment for carrying out the present invention will be described below. In the first, second, third, and fourth embodiments, an example is shown in which shooting conditions are set based on analysis of a shot image and the current direction. In the fifth embodiment, a case will be described in which after the user moves from a certain place and the photographing condition is cleared, the user returns to the original place again.

以降、第1の実施例との差分を中心に説明する。図13は、実施例5における撮影条件にもとづいて撮影する処理のフローチャートである。図13のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。ステップS1301〜S1303、S1308〜S1316は第1の実施例の図4のステップS401〜S412と同様であるのでここでの説明は省略する。   Hereinafter, a description will be given centering on differences from the first embodiment. FIG. 13 is a flowchart of processing for photographing based on photographing conditions in the fifth embodiment. The flowchart in FIG. 13 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100. Steps S1301 to S1303 and S1308 to S1316 are the same as steps S401 to S412 in FIG. 4 of the first embodiment, and thus description thereof is omitted here.

第1の実施例との差分は、ステップS1303のYESの場合、ステップS1304〜S1307によって、ユーザの相対位置を算出することで、ユーザが元の位置に戻った場合はクリアしてしまった撮影条件をリストアするところである。これによって、ユーザが移動した場合でも、元の位置に戻ればそれまでに保持した撮影条件で再び撮影を制御することができる。   The difference from the first embodiment is that, in the case of YES in step S1303, the imaging conditions that have been cleared when the user returns to the original position by calculating the relative position of the user in steps S1304 to S1307. Is about to restore. As a result, even when the user moves, if the user returns to the original position, the shooting can be controlled again with the shooting conditions held so far.

ステップS1304で位置算出部313は、撮影制御装置100の向いている方向と移動速度とから、ある地点に対するユーザの相対位置を算出する。ユーザの相対位置の算出は、図3の位置算出部313の項で述べたため、ここでの説明は割愛する。   In step S <b> 1304, the position calculation unit 313 calculates the relative position of the user with respect to a certain point from the direction in which the imaging control device 100 is facing and the moving speed. Since the calculation of the relative position of the user has been described in the section of the position calculation unit 313 in FIG. 3, the description here is omitted.

ステップS1305で撮影条件設定部305は、ステップS1304で算出される現在の相対位置が歩行開始時の位置であるか否かを判定する。相対位置が歩行開始時の位置であればステップS1307へ進み、そうでなければステップS1306へ進む。   In step S1305, the imaging condition setting unit 305 determines whether or not the current relative position calculated in step S1304 is a position at the start of walking. If the relative position is the position at the start of walking, the process proceeds to step S1307; otherwise, the process proceeds to step S1306.

ステップS1306で撮影条件設定部305は、撮影条件保持部306に保持される撮影条件の一時的なバックアップをとる。バックアップは、所定時間(例えば5分)経過した場合には、ユーザが元の位置に戻ってこないと見なされクリアされる。   In step S <b> 1306, the shooting condition setting unit 305 takes a temporary backup of the shooting conditions held in the shooting condition holding unit 306. When a predetermined time (for example, 5 minutes) elapses, the backup is regarded as the user does not return to the original position and is cleared.

ステップS1307において撮影条件設定部305は、ステップS1304でユーザが移動前の位置に戻ったと判定されるので、ステップS1308でクリアした撮影条件をバックアップからリストアする。ただし、ステップS1306で行われた撮影条件のバックアップは所定時間(例えば5分)経過後にクリアされる。そのため、リストアはステップS1306で行われたバックアップが残っている時間以内に限り有効とする。   In step S1307, since the shooting condition setting unit 305 determines that the user has returned to the position before movement in step S1304, the shooting condition cleared in step S1308 is restored from the backup. However, the backup of the imaging conditions performed in step S1306 is cleared after a predetermined time (for example, 5 minutes) has elapsed. Therefore, the restoration is valid only within the time when the backup performed in step S1306 remains.

第5の実施例では、ユーザの歩行を検出して撮影条件がクリアされた後、元の位置に戻った場合は撮影条件を復元する例を示した。これにより、ユーザが一時的に移動しても、元の位置に戻れば同じ条件で撮影を開始できるので、再び撮影条件を設定する必要がなくなる。従って、既に設定している撮影しない方向をそのまま利用できるので、余分な撮影を減らすことができる。   In the fifth embodiment, an example is shown in which the shooting conditions are restored when the user's walking is detected and the shooting conditions are cleared and then the original position is restored. Thus, even if the user moves temporarily, shooting can be started under the same conditions as long as the user returns to the original position, so that it is not necessary to set the shooting conditions again. Therefore, since the previously set direction for non-photographing can be used as it is, extra photographing can be reduced.

<第6の実施例>
以下、本発明を実施するための第6の実施例について説明する。第1、第2、第3、第4、第5の実施例では、矩形全体が撮影されたときの撮影条件を設定する例を示した。第6の実施例では、矩形領域が部分的に写った場合の撮影条件設定の例と、撮影判定の仕方について述べる。
<Sixth embodiment>
The sixth embodiment for carrying out the present invention will be described below. In the first, second, third, fourth, and fifth embodiments, the example is shown in which the shooting conditions are set when the entire rectangle is shot. In the sixth embodiment, an example of shooting condition setting when a rectangular area is partially captured and a method of shooting determination will be described.

以降、第1の実施例との差分を中心に説明する。図14、図15、図16を用いて実施例6の撮影条件設定と撮影する処理について説明する。図14は、実施例6における撮影処理のフローチャートである。図15は、実施例6における撮影画像のイメージ図と撮影条件の例である。図14のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。   Hereinafter, a description will be given centering on differences from the first embodiment. The shooting condition setting and shooting process of the sixth embodiment will be described with reference to FIGS. FIG. 14 is a flowchart of imaging processing according to the sixth embodiment. FIG. 15 is an image diagram of captured images and an example of shooting conditions in the sixth embodiment. The flowchart in FIG. 14 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100.

ステップS1401〜S1403、S1406〜S1409は第1の実施例の図6のステップS601〜S607と同様であるでの説明を省略する。   Steps S1401 to S1403 and S1406 to S1409 are the same as steps S601 to S607 in FIG. 6 of the first embodiment, and a description thereof will be omitted.

第1の実施例との差分は、ステップS1403でNOの場合、ステップS1404〜S1405によって、撮影画像の両端に掛かる形で矩形らしい対象が含まれるかを判定し、該対象を含む領域を撮影対象として撮影条件に設定するところである。矩形らしい対象とは、例えば図15(a)に示すように、コの字型の枠線が挙げられる。コの字型の枠線は、撮影画像の端部を1辺とする矩形ともいえる。矩形らしい対象のことを準矩形と称する。該対象がある場合は、コの字型の枠線が撮影画像から切れずになるべく大きく入る(例えば図15(b))タイミングで、直ちに撮影するようにする。これにより、矩形らしい領域を素早く、かつ正確に撮影するので、矩形らしい対象が矩形か否かすぐに判定することができる。また、これまでの実施例においては、矩形らしい領域は矩形ではないので撮影しない領域として撮影条件に設定していたため撮り逃しが発生する可能性があったが、本実施例によって撮り逃しの可能性が減る。   When the difference from the first embodiment is NO in step S1403, in steps S1404 to S1405, it is determined whether or not a rectangular object is included at both ends of the captured image, and an area including the target is determined as an imaging target. The shooting conditions are set as follows. Examples of a rectangular object include a U-shaped frame line as shown in FIG. The U-shaped frame line can be said to be a rectangle having one side as the end of the captured image. A rectangular object is called a quasi-rectangle. If there is such an object, the image is taken immediately at the timing when the U-shaped frame line enters as large as possible without being cut off from the photographed image (for example, FIG. 15B). Thereby, since the area | region like a rectangle is image | photographed quickly and correctly, it can be determined immediately whether the object like a rectangle is a rectangle. Further, in the embodiments so far, since the rectangular area is not a rectangle, the shooting condition may be set as a non-shooting area. Therefore, there is a possibility that the shooting may be missed. Decrease.

ステップS1404において撮影対象判定部302は、撮影画像両端のいずれかに掛かるコの字型の枠線があるか否かを判定する。例えば、図15(a)の破線1502が撮影画像1501の左端に掛かるコの字型の枠線のイメージである。枠線の検出は、矩形の検出と同様に行うことができるため、詳細な説明は割愛する。コの字型の枠線があると判定された場合はステップS1405へ進み、そうでなければステップS1409へ進む。   In step S <b> 1404, the shooting target determination unit 302 determines whether there is a U-shaped frame line that covers either end of the shot image. For example, a broken line 1502 in FIG. 15A is an image of a U-shaped frame line that is applied to the left end of the photographed image 1501. Since the detection of the frame line can be performed in the same manner as the detection of the rectangle, the detailed description is omitted. If it is determined that there is a U-shaped frame line, the process proceeds to step S1405; otherwise, the process proceeds to step S1409.

ステップS1405において撮影条件設定部305は、コの字型の枠線を含む矩形領域を次に撮影するよう撮影条件を設定する。具体的には、図15(a)に示すような破線1502を検出したときに、図15(c)のID02の矩形有無列を未確定として撮影条件を設定する。また、矩形の右上下の枠線が検出されているため、矩形領域(左右上下端)列の左線分の方向を―(不明)として値を設定する。   In step S1405, the shooting condition setting unit 305 sets shooting conditions so that a rectangular area including a U-shaped frame line is shot next. Specifically, when a broken line 1502 as shown in FIG. 15A is detected, the imaging condition is set with the rectangular presence / absence column of ID02 in FIG. In addition, since the upper right and lower frame lines of the rectangle are detected, the value is set by setting the direction of the left line of the rectangular region (left and right upper and lower end) columns as-(unknown).

次に図16を用いて実施例6における撮影条件にもとづいて撮影する処理を説明する。図16のフローチャートは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。ステップS1601〜S1606、S1608〜S1613は第1の実施例の図4のステップS401〜S412と同様であるのでここでの説明は省略する。   Next, a process of shooting based on shooting conditions in the sixth embodiment will be described with reference to FIG. The flowchart in FIG. 16 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100. Steps S1601 to S1606 and S1608 to S1613 are the same as steps S401 to S412 in FIG. 4 of the first embodiment, and thus description thereof is omitted here.

第1の実施例との差分は、S1607によって現在の方向がコの字型の領域が大きく写る方向か否かを判定するところである。ステップS1607で撮影判定部307は、現在方向が、撮影条件のコの字型の領域を大きく写す方向か否かを判定する。例えば、撮影方向が図15(b)のように写る方向か否かを判定する。すなわち、準矩形のうちの確定している3辺を含み、かつ、未確定の1辺を形成していた撮影画像の端部と逆方向の位置に3辺が位置する方法か否かを判定する。具体的には、図14のステップS1405で設定された撮影条件である図15(c)により、コの字型の領域の右上下が75度、13.1度、−3.8度の方向にあり、左端が未確定の枠線であることが分かっている。そこで、撮影判定部307は、矩形の左端が写るようにコの字型領域の右端がなるべく撮影方向の右端に寄っているか否かを判定する。ここでは、コの字型領域の右端が75度であるので、ヨー軸周りの撮影方向が80度〜85度の範囲にあるときに撮影すると判定する。75度のすれすれではなく80度〜85度としたのは、センサの誤差やブレなどを考慮しているためであり、数値はこれに限らない。   The difference from the first embodiment is that, in S1607, it is determined whether or not the current direction is a direction in which a U-shaped region is greatly reflected. In step S <b> 1607, the shooting determination unit 307 determines whether or not the current direction is a direction in which a U-shaped region of the shooting condition is enlarged. For example, it is determined whether or not the shooting direction is a direction as shown in FIG. That is, it is determined whether or not the method includes three sides of the quasi-rectangle that are located in the opposite direction to the edge of the photographed image that includes three sides that have been confirmed and that has formed one undefined side. To do. Specifically, according to FIG. 15C, which is the imaging condition set in step S1405 in FIG. 14, the right and top directions of the U-shaped region are directions of 75 degrees, 13.1 degrees, and -3.8 degrees. It is known that the left end is an undetermined frame line. Therefore, the shooting determination unit 307 determines whether or not the right end of the U-shaped region is as close to the right end of the shooting direction as possible so that the left end of the rectangle can be seen. Here, since the right end of the U-shaped region is 75 degrees, it is determined that the photographing is performed when the photographing direction around the yaw axis is in the range of 80 degrees to 85 degrees. The reason why the angle is set to 80 ° to 85 ° instead of 75 ° is because a sensor error or blur is taken into consideration, and the numerical value is not limited to this.

ステップS1607でYESの場合、その後のステップS1612の撮影処理により、ユーザが矩形1503の右端が写る方向を向いたタイミングで所定時間(例えば10秒)を待つこと無く図15(d)で示すような撮影条件を設定することができる。   When YES is determined in the step S1607, as shown in FIG. 15D without waiting for a predetermined time (for example, 10 seconds) at the timing when the user faces the direction in which the right end of the rectangle 1503 is captured by the photographing process in the subsequent step S1612. Shooting conditions can be set.

第6の実施例では、矩形領域が中途半端に写った場合に、該領域が矩形であるか判定するための撮影を早く正確に行う例を示した。これにより、矩形が中途半端に写ってしまった場合であっても、所定時間を待つこと無く、直ちに撮影する条件を設定できる。   In the sixth embodiment, an example is shown in which when a rectangular area is shown halfway, shooting for determining whether the area is rectangular is performed quickly and accurately. As a result, even when the rectangle appears halfway, it is possible to set conditions for immediately capturing without waiting for a predetermined time.

<第7の実施例>
以下、本発明を実施するための第7の実施例について説明する。第1、第2、第3、第4、第5、第6の実施例では、矩形及び撮影用マーカーの方向を撮影する方向として撮影条件に設定する例を示した。第7の実施例では、所謂特定物体認識によりホワイトボード、あるいはディスプレイなどの特定物体を画像中で認識した場合の撮影条件設定の例について述べる。
<Seventh embodiment>
The seventh embodiment for carrying out the present invention will be described below. In the first, second, third, fourth, fifth, and sixth embodiments, an example in which the direction of the rectangle and the shooting marker is set as the shooting direction is shown. In the seventh embodiment, an example of shooting condition setting when a specific object such as a whiteboard or a display is recognized in an image by so-called specific object recognition will be described.

以降、第1の実施例との差分を中心に説明する。図17を用いて実施例7の撮影処理について説明する。図17は、実施例7における撮影処理のフローチャートである。   Hereinafter, a description will be given centering on differences from the first embodiment. The shooting process according to the seventh embodiment will be described with reference to FIG. FIG. 17 is a flowchart of imaging processing according to the seventh embodiment.

図17のフローチャートのは、撮影制御装置100のROM104に格納されたプログラムをCPU101が実行することによって実現される。   The flowchart in FIG. 17 is realized by the CPU 101 executing a program stored in the ROM 104 of the imaging control apparatus 100.

ステップS1701及びS1706は第1の実施例の図6のステップS601及びS607と同様であるのでここでの説明は省略する。   Steps S1701 and S1706 are the same as steps S601 and S607 in FIG. 6 of the first embodiment, and a description thereof will be omitted here.

第1の実施例との差分は、ステップS1702〜S1705によって、検出した矩形を撮影する対象として設定するのではなく、特定物体認識によって認識された特定の対象を撮影する対象として設定するところである。特定物体認識により、予め特定した物体を撮影する対象として設定できるので、矩形以外の任意の物体を撮影する対象として設定できる。   The difference from the first embodiment is that, in steps S1702 to S1705, the detected rectangle is not set as an object to be imaged, but a specific object recognized by specific object recognition is set as an object to be imaged. Since specific object recognition can be set as a target for photographing a previously specified object, any object other than a rectangle can be set as a target for photographing.

ステップS1702において撮影対象判定部302は、撮影画像から特定物体を認識する。特定物体認識では、物体としてホワイトボードやディスプレイなどのユーザに有意な物体を予め特定しておくことで、撮影画像から特定物体を認識することができる。特定物体認識では、認識する物体の特徴量(例えば、HOG、haar−likeなど)を予め多数の正解画像と非正解画像により学習しておき、識別器を生成する。前記識別器と所与の画像から、画像中に特定物体が存在するか否かを判定することができる。尚、特定物体認識は公知の技術であるため、これ以上の詳細な説明は割愛する。   In step S1702, the shooting target determination unit 302 recognizes a specific object from the shot image. In the specific object recognition, a specific object can be recognized from a captured image by specifying an object significant to the user such as a whiteboard or a display in advance. In the specific object recognition, feature quantities (for example, HOG, haar-like, etc.) of an object to be recognized are learned in advance from a large number of correct images and non-correct images, and a discriminator is generated. From the classifier and a given image, it can be determined whether a specific object is present in the image. In addition, since specific object recognition is a well-known technique, the detailed description beyond this is omitted.

ステップS1703において撮影対象判定部302は、ホワイトボードやディスプレイなどの特定物体が認識されたか否かを判定する。特定物体が認識された場合はステップS1704へ進み、そうでなければステップS1706へ進む。   In step S1703, the shooting target determination unit 302 determines whether a specific object such as a whiteboard or a display has been recognized. If the specific object is recognized, the process proceeds to step S1704; otherwise, the process proceeds to step S1706.

ステップS1704において撮影条件設定部305は、ステップS1702で認識された特定物体を、撮影する領域として撮影条件に設定する。一般的に、特定物体認識では撮影画像中のどこに特定物体があるかを矩形の枠で示す。本実施例では、実施例1の図7(b)と同様の方法で、矩形枠として抜き出された特定物体の矩形中心方向を、撮影する方向として撮影条件に設定する。     In step S1704, the shooting condition setting unit 305 sets the specific object recognized in step S1702 as shooting conditions as shooting conditions. In general, in specific object recognition, a rectangular frame indicates where a specific object is in a captured image. In the present embodiment, the rectangular center direction of the specific object extracted as a rectangular frame is set as a shooting condition as a shooting direction by the same method as in FIG. 7B of the first embodiment.

ステップS1705で撮影条件設定部305は、ステップS1702で認識された特定物体の画像を画像保持部304に記録する。ここでは、記録する画像として矩形枠で特定物体を抜き出した領域とするが、ステップS1701で撮影された特定物体を含む全体画像でもよい。   In step S1705, the shooting condition setting unit 305 records the image of the specific object recognized in step S1702 in the image holding unit 304. In this example, the area to be recorded is an area where a specific object is extracted with a rectangular frame, but an entire image including the specific object photographed in step S1701 may be used.

第7の実施例では、ホワイトボードやディスプレイなどの特定物体を認識した場合に、該特定物体の方向を撮影する方向として撮影条件に設定する例を示した。これにより、予め特定した任意の物体を認識できるので、矩形以外の物体も撮影する対象として設定できる。   In the seventh embodiment, when a specific object such as a whiteboard or a display is recognized, an example in which the direction of the specific object is set as a shooting direction is shown. Thereby, since an arbitrary object specified in advance can be recognized, an object other than a rectangle can be set as an object to be imaged.

<その他の実施例>
第1〜第7の実施例では、撮影制御装置100によって矩形領域、所定のマーカー及び特定物体をユーザに有意の撮影する方向として撮影条件に設定する場合について述べた。しかし、前記以外にも、ユーザが明示的に撮影した方向、文字が書かれている領域、変化の多い領域などを追跡して撮影する方向として撮影条件に設定してもよい。また、実施例では、撮影条件として撮影する方向を予め設定しているが、撮影対象とユーザの位置が測位できるならば、お互いの位置関係から撮影する方向を算出するようにしてもよい。
<Other examples>
In the first to seventh embodiments, the case has been described in which the shooting control apparatus 100 sets the rectangular area, the predetermined marker, and the specific object as shooting directions that are significant for the user. However, in addition to the above, the shooting condition may be set as a direction in which the user explicitly captures a direction, a region in which characters are written, a region where there is much change, and the like. In the embodiment, the shooting direction is set in advance as the shooting condition. However, if the shooting target and the position of the user can be measured, the shooting direction may be calculated from the mutual positional relationship.

また、実施例1などでは、ユーザの向いている角度と撮影対象の位置する領域を示す角度とが一致している場合、その撮影対象の位置する領域を示す角度を撮影条件に設定し、撮影を行う例を説明した。ここで、ユーザの向いている角度と撮影対象の位置する領域を示す角度とは完全に一致していなくてもよく、所定の誤差を許容できる旨を説明した。すなわち、ユーザの向いている角度と、撮影対象の位置する領域を示す角度とが対応している場合、その撮影対象の位置する領域を示す角度を撮影条件に設定し、撮影を行うことができる。なお、同様に、ある角度(領域、方向)が所定の誤差を許容する他の角度(領域、方向)に一致していることを、ある角度(領域、方向)が所定の誤差を許容する他の角度(領域、方向)に対応する、と表現する。   In Example 1 or the like, when the angle at which the user is facing and the angle indicating the area where the shooting target is located coincide with each other, the angle indicating the area where the shooting target is positioned is set as the shooting condition, and shooting is performed. An example of performing is described. Here, it has been described that the angle at which the user is facing and the angle indicating the region where the photographing target is not necessarily completely coincide with each other, and a predetermined error can be allowed. That is, when the angle at which the user is facing and the angle indicating the area where the shooting target is located correspond to each other, the angle indicating the area where the shooting target is positioned can be set as a shooting condition and shooting can be performed. . Similarly, a certain angle (region, direction) matches another angle (region, direction) that allows a predetermined error, and a certain angle (region, direction) allows a predetermined error. Corresponding to the angle (region, direction).

また、第2〜第7の実施例は、それぞれ第1の実施例との差異を中心に説明したが、第1〜第7の実施例を適宜組み合わせた形の実施例においても本発明は適用可能である。   Although the second to seventh embodiments have been described mainly with respect to differences from the first embodiment, the present invention is also applicable to embodiments in which the first to seventh embodiments are appropriately combined. Is possible.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (30)

ユーザの向いている方向と、撮影対象が位置する方向とに基づいてユーザの向いている方向を撮影して撮影画像を取得する撮影手段と、
前記撮影画像を解析して得られた結果に基づいて撮影対象が位置する方向を設定する設定手段と
を有する撮影制御装置。
Photographing means for capturing a captured image by capturing the direction the user is facing based on the direction in which the user is facing and the direction in which the photographing target is located;
A shooting control apparatus comprising: setting means for setting a direction in which a shooting target is located based on a result obtained by analyzing the shot image.
前記設定手段は、前記撮影画像が矩形を含む場合、前記矩形が位置する方向を前記撮影対象が位置する方向として設定することを特徴とする請求項1に記載の撮影制御装置。   The imaging control apparatus according to claim 1, wherein when the captured image includes a rectangle, the setting unit sets a direction in which the rectangle is positioned as a direction in which the imaging target is positioned. 前記設定手段は、前記撮影画像が所定の縦横比を有する矩形を含む場合、前記矩形が位置する方向を前記撮影対象が位置する方向として設定することを特徴とする請求項1または2に記載の撮影制御装置。   The said setting means sets the direction in which the said rectangle is located as a direction in which the said imaging | photography object is located, when the said picked-up image contains the rectangle which has predetermined | prescribed aspect ratio. Shooting control device. 前記設定手段は、前記撮影画像が所定の縦横比を有する矩形を含む場合、前記矩形が位置する方向を前記撮影対象が位置する方向として設定することを特徴とする請求項1から3のいずれか一項に撮影制御装置。   The said setting means sets the direction in which the said rectangle is located as a direction in which the said imaging | photography object is located, when the said picked-up image contains the rectangle which has predetermined | prescribed aspect ratio. One item is a photographing control device. 前記設定手段は、前記撮影画像が複数の矩形を含む場合、複数のうち中で大きい矩形が位置する方向を前記撮影対象が位置する方向として設定することを特徴とする請求項1から4のいずれか一項に記載の撮影制御装置。   5. The setting unit according to claim 1, wherein when the captured image includes a plurality of rectangles, the setting unit sets a direction in which a large rectangle among the plurality of rectangles is positioned as a direction in which the imaging target is positioned. An imaging control device according to claim 1. 前記設定手段は、前記撮影画像が矩形を含まない場合、前記撮影画像を撮影した方向を、撮影対象が位置しない方向として設定することを特徴とする請求項1から5のいずれか一項に記載の撮影制御装置。   The said setting means sets the direction which image | photographed the said picked-up image as a direction where a picked-up object is not located, when the said picked-up image does not contain a rectangle, The any one of Claim 1 to 5 characterized by the above-mentioned. Shooting control device. 前記設定手段は、撮影した時刻を前記方向に関連付けて設定することを特徴とする請求項1から6のいずれか一項に記載の撮影制御装置。   The imaging control apparatus according to claim 1, wherein the setting unit sets a shooting time in association with the direction. 前記撮影手段は、ユーザの向いている方向が、前記設定手段によって撮影対象が位置しない方向として設定された方向に対応する場合、前記ユーザの向いている方向を撮影しないことを特徴とする請求項1から7のいずれか一項に記載の撮影制御装置。   The photographing unit does not photograph the direction in which the user is facing when the direction in which the user is facing corresponds to a direction set by the setting unit as a direction in which a photographing target is not located. The imaging control device according to any one of 1 to 7. 前記撮影手段は、ユーザの向いている方向が、前記設定手段によって撮影対象が位置する方向として設定された方向に対応する場合、及び、前記設定手段による設定がされていない方向に対応する場合、前記ユーザの向いている方向を撮影することを特徴とする請求項1から8のいずれか一項に記載の撮影制御装置。   When the shooting unit corresponds to a direction set by the setting unit as a direction in which a shooting target is located, and a direction that is not set by the setting unit, The imaging control apparatus according to claim 1, wherein the imaging direction of the user is captured. 前記撮影手段は、最後の撮影から所定時間が経過していない場合、前記ユーザの向いている方向を撮影しないことを特徴とする請求項1から9のいずれか一項に記載の撮影制御装置。   10. The photographing control apparatus according to claim 1, wherein the photographing unit does not photograph the direction in which the user is facing when a predetermined time has not elapsed since the last photographing. 前記撮影手段は、ユーザの向いている方向が、前記設定手段によって撮影対象が位置しない方向として設定された方向に対応する場合であり、かつ、前記ユーザの向いている方向を撮影してから所定時間が経過している場合、前記ユーザの向いている方向を撮影することを特徴とする請求項1から10のいずれか一項に記載の撮影制御装置。。   The photographing unit is a case where a direction in which the user is facing corresponds to a direction set by the setting unit as a direction in which a photographing target is not located, and a predetermined direction after photographing the direction in which the user is facing The imaging control apparatus according to claim 1, wherein when the time has elapsed, the direction in which the user is facing is captured. . 前記設定手段は、ユーザの歩行が検出された場合、これまでの設定を消去することを特徴とする請求項1から11のいずれか一項に記載の撮影制御装置。   The imaging control apparatus according to claim 1, wherein the setting unit deletes the previous setting when a user's walking is detected. 前記設定手段は、ユーザが元の位置に戻ったことが検出された場合、消去した設定を復元することを特徴とする請求項12に記載の撮影制御装置。   13. The photographing control apparatus according to claim 12, wherein the setting unit restores the deleted setting when it is detected that the user has returned to the original position. 前記設定手段によって前記撮影対象が位置する方向として設定される場合、前記撮影対象を含む画像を記憶手段に記憶する手段をさらに有することを特徴とする請求項1から13のいずれか一項に記載の撮影制御装置。   14. The apparatus according to claim 1, further comprising a storage unit configured to store an image including the shooting target when the setting unit sets the direction in which the shooting target is located. Shooting control device. ユーザの向いている方向が前記設定手段によって撮影対象が位置する方向として設定された方向に対応する場合に撮影手段によって撮影された撮影画像と、該方向を過去に撮影して前記記憶手段に記憶されている画像とを比較する比較手段と、
前記比較手段で比較した結果、変化がないことをユーザに通知する通知手段と
をさらに有することを特徴とする請求項14に記載の撮影制御装置。
When the direction in which the user is facing corresponds to the direction set by the setting unit as the direction in which the imaging target is located, the captured image captured by the imaging unit and the direction captured in the past are stored in the storage unit A comparison means for comparing the image with
15. The photographing control apparatus according to claim 14, further comprising notification means for notifying a user that there is no change as a result of comparison by the comparison means.
前記設定手段は、前記通知手段の通知の結果に応じたユーザからの指示に応じて、前記撮影対象が位置する方向の撮影を禁止する設定をする請求項15に記載の撮影制御装置。   The imaging control device according to claim 15, wherein the setting unit is configured to prohibit imaging in a direction in which the imaging target is located, in accordance with an instruction from a user according to a result of notification by the notification unit. 前記比較手段は、画像の特徴量のパターンマッチングを用いて比較を行うことを特徴とする請求項15または16に記載の撮影制御装置。   17. The photographing control apparatus according to claim 15 or 16, wherein the comparison unit performs comparison using pattern matching of image feature amounts. 前記設定手段は、前記撮影画像が撮影禁止マーカーを含む場合、前記撮影禁止マーカーが位置する方向を撮影しない方向として設定することを特徴とする請求項1から17のいずれか一項に記載の撮影制御装置。   18. The photographing according to claim 1, wherein when the photographed image includes a photographing prohibition marker, the setting unit sets a direction in which the photographing prohibition marker is located as a direction in which photographing is not performed. Control device. 前記設定手段は、前記撮影画像が撮影要求マーカーを含む場合、前記撮影要求マーカーが位置する方向を撮影する方向として設定することを特徴とする請求項1から18のいずれか一項に記載の撮影制御装置。   19. The photographing according to claim 1, wherein when the photographed image includes a photographing request marker, the setting unit sets a direction in which the photographing request marker is located as a photographing direction. Control device. 前記設定手段は、撮影画像の端部を1辺とする矩形である準矩形を含む場合、準矩形のうち前記1辺を未確定とした前記準矩形の位置を、前記撮影対象が位置する方向として設定することを特徴とする請求項1から19のいずれか一項に記載の撮影制御装置。   In a case where the setting unit includes a quasi-rectangle that is a rectangle having one end of the captured image as one side, the position of the quasi-rectangle in which the one side of the quasi-rectangle is undetermined is a direction in which the shooting target is located. The imaging control device according to claim 1, wherein the imaging control device is set as follows. 前記撮影手段は、前記ユーザの向いている方向が、前記準矩形のうちの確定している3辺を含みかつ3辺が前記端部の位置から離れた位置の方向に対応する場合、前記ユーザの向いている方向を撮影することを特徴とする請求項20に記載の撮影制御装置。   If the direction in which the user is facing includes three determined sides of the quasi-rectangle and the three sides correspond to the direction of the position away from the position of the end, the user 21. The photographing control apparatus according to claim 20, wherein a photographing direction is taken. 前記設定手段は、前記撮影画像を解析して得られた結果が特定物体である場合、前記撮影画像を撮影した方向を、撮影対象が位置する方向として設定することを特徴とする請求項1から21のいずれか一項に記載の撮影制御装置。   The setting unit sets a direction in which the photographed image is photographed as a direction in which the photographing object is located when a result obtained by analyzing the photographed image is a specific object. The imaging control device according to any one of 21. ユーザの向いている方向と、撮影対象が位置する方向とに基づいてユーザの向いている方向を撮影して撮影画像を取得する撮影手段と、
前記撮影画像を解析して得られた結果に基づいて撮影対象が位置する方向を設定する設定手段と
を有する撮影装置。
Photographing means for capturing a captured image by capturing the direction the user is facing based on the direction in which the user is facing and the direction in which the photographing target is located;
An imaging apparatus comprising: setting means for setting a direction in which an imaging target is located based on a result obtained by analyzing the captured image.
撮影手段と、
矩形を含む第1の領域が撮影領域となる第1の方向を前記撮影手段で撮影し、第1の領域と重複しない領域であって矩形を含まない第2の領域が撮影領域となる第2の方向を前記撮影手段で撮影した後に、
前記撮影手段を前記第1の方向に向けた場合に前記第1の方向を前記撮影手段で撮影し、
前記撮影手段を前記第2の方向に向けた場合に前記第2の方向を前記撮影手段で撮影しない
ように制御する制御手段と
を有することを特徴とする撮影制御装置。
Photographing means;
A first direction in which a first area including a rectangle is an imaging area is imaged by the imaging means, and a second area that does not overlap with the first area and does not include a rectangle is an imaging area. After shooting the direction of with the shooting means,
When the photographing means is oriented in the first direction, the first direction is photographed by the photographing means,
And a control unit that controls the second direction not to be imaged by the imaging unit when the imaging unit is oriented in the second direction.
前記制御手段は、
前記第1の方向を前記撮影手段で撮影し、前記第2の方向を前記撮影手段で撮影した後に、
前記撮影手段を前記第1の方向及び前記第2の方向と重複しない第3の方向に向けた場合に前記第3の方向を前記撮影手段で撮影するように制御することを特徴とする請求項24に記載の撮影制御装置。
The control means includes
After photographing the first direction with the photographing means and photographing the second direction with the photographing means,
The control unit is configured to control the third direction to be photographed by the photographing unit when the photographing unit is directed in a third direction that does not overlap with the first direction and the second direction. 24. A photographing control apparatus according to 24.
前記第3の方向は、矩形を含む領域及び矩形を含まない領域のいずれにも対応することを特徴とする請求項25に記載の撮影制御装置。   26. The photographing control apparatus according to claim 25, wherein the third direction corresponds to both a region including a rectangle and a region not including a rectangle. 前記撮影手段は、ユーザからの指示なしで前記撮影を行うことを特徴とする請求項24から26のいずれか一項に記載の撮影制御装置。   27. The photographing control apparatus according to claim 24, wherein the photographing unit performs the photographing without an instruction from a user. 撮影手段を用いてユーザの向いている方向と、撮影対象が位置する方向とに基づいてユーザの向いている方向を撮影して撮影画像を取得する撮影工程と、
前記撮影画像を解析して得られた結果に基づいて撮影対象が位置する方向を設定する設定工程と
を有する撮影制御方法。
An imaging step of capturing a captured image by capturing the direction the user is facing based on the direction in which the user is facing using the capturing unit and the direction in which the capturing target is located
A setting control step of setting a direction in which the shooting target is located based on a result obtained by analyzing the shot image.
矩形を含む第1の領域が撮影領域となる第1の方向を撮影手段で撮影し、第1の領域と重複しない領域であって矩形を含まない第2の領域が撮影領域となる第2の方向を前記撮影手段で撮影した後に、
前記撮影手段を前記第1の方向に向けた場合に前記第1の方向を前記撮影手段で撮影し、
前記撮影手段を前記第2の方向に向けた場合に前記第2の方向を前記撮影手段で撮影しない
ように制御する制御工程を有することを特徴とする撮影制御方法。
The first direction including the first area including the rectangle is imaged by the imaging unit, and the second area that does not overlap the first area and does not include the rectangle is the imaging area. After shooting the direction with the shooting means,
When the photographing means is oriented in the first direction, the first direction is photographed by the photographing means,
An imaging control method, comprising: a control step of controlling the second direction not to be imaged by the imaging unit when the imaging unit is directed in the second direction.
コンピュータを請求項1から22のいずれか一項に記載の撮影制御装置として機能させるためのプログラム。   The program for functioning a computer as an imaging | photography control apparatus as described in any one of Claim 1 to 22.
JP2013221431A 2013-10-24 2013-10-24 Imaging control apparatus, imaging control method, and program Pending JP2015082823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013221431A JP2015082823A (en) 2013-10-24 2013-10-24 Imaging control apparatus, imaging control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013221431A JP2015082823A (en) 2013-10-24 2013-10-24 Imaging control apparatus, imaging control method, and program

Publications (1)

Publication Number Publication Date
JP2015082823A true JP2015082823A (en) 2015-04-27

Family

ID=53013202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013221431A Pending JP2015082823A (en) 2013-10-24 2013-10-24 Imaging control apparatus, imaging control method, and program

Country Status (1)

Country Link
JP (1) JP2015082823A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185668A1 (en) * 2015-05-18 2016-11-24 パナソニックIpマネジメント株式会社 Directionality control system and sound output control method
JP2017126888A (en) * 2016-01-14 2017-07-20 パナソニックIpマネジメント株式会社 Directivity control system and sound output control method
JP2018067875A (en) * 2016-10-21 2018-04-26 京セラドキュメントソリューションズ株式会社 Spectacle type terminal and image formation system
JP2020095702A (en) * 2018-11-29 2020-06-18 キヤノン株式会社 Information processing device, imaging device, method for controlling information processing device, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016185668A1 (en) * 2015-05-18 2016-11-24 パナソニックIpマネジメント株式会社 Directionality control system and sound output control method
US10497356B2 (en) 2015-05-18 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Directionality control system and sound output control method
JP2017126888A (en) * 2016-01-14 2017-07-20 パナソニックIpマネジメント株式会社 Directivity control system and sound output control method
JP2018067875A (en) * 2016-10-21 2018-04-26 京セラドキュメントソリューションズ株式会社 Spectacle type terminal and image formation system
JP2020095702A (en) * 2018-11-29 2020-06-18 キヤノン株式会社 Information processing device, imaging device, method for controlling information processing device, and program

Similar Documents

Publication Publication Date Title
JP6351870B1 (en) Omni-directional shooting of mobile devices
JP6532217B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM
US9875579B2 (en) Techniques for enhanced accurate pose estimation
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
US10404915B1 (en) Method and system for panoramic video image stabilization
KR20170136750A (en) Electronic apparatus and operating method thereof
US10250800B2 (en) Computing device having an interactive method for sharing events
CN107770452B (en) Photographing method, terminal and related medium product
US10999480B2 (en) Methods for camera movement compensation
US7720364B2 (en) Triggering data capture based on pointing direction
CN107690305B (en) Generating images from video
US20150215532A1 (en) Panoramic image capture
WO2018157464A1 (en) Image display method and electronic device
BR112016013424B1 (en) method and terminal for acquiring panoramic image
US20210084228A1 (en) Tracking shot method and device, and storage medium
US20160084932A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
CN112040126A (en) Shooting method, shooting device, electronic equipment and readable storage medium
JP2015082823A (en) Imaging control apparatus, imaging control method, and program
WO2015154359A1 (en) Method and device for implementing photographing
US20140009385A1 (en) Method and system for rotating display image
WO2022016909A1 (en) Method and apparatus for acquiring spatial distribution of wi-fi fingerprints, and electronic device
TW201403454A (en) Screen rotating method and system
CN113302908A (en) Control method, handheld cloud deck, system and computer readable storage medium
JP2020510336A (en) Method for generating directional information of an omnidirectional image and apparatus for performing such method
TWI662438B (en) Methods, devices, and storage medium for preventing dangerous selfies