JP2020057901A - Information processing apparatus, control method thereof, and program - Google Patents

Information processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2020057901A
JP2020057901A JP2018186376A JP2018186376A JP2020057901A JP 2020057901 A JP2020057901 A JP 2020057901A JP 2018186376 A JP2018186376 A JP 2018186376A JP 2018186376 A JP2018186376 A JP 2018186376A JP 2020057901 A JP2020057901 A JP 2020057901A
Authority
JP
Japan
Prior art keywords
condition
imaging
unit
scene
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018186376A
Other languages
Japanese (ja)
Inventor
伸彦 今井
Nobuhiko Imai
伸彦 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2018186376A priority Critical patent/JP2020057901A/en
Publication of JP2020057901A publication Critical patent/JP2020057901A/en
Pending legal-status Critical Current

Links

Images

Abstract

To perform desired imaging by a user, for example, by controlling an imaging apparatus such that both the facial expression and characteristics of a person as a subject and the entire costume or clothes of the person as a subject can be imaged in detail.SOLUTION: An information processing apparatus that transmits an imaging condition to an imaging unit includes condition determining means that determines whether data analyzed by a captured image captured by the imaging unit satisfies a predetermined condition, set value storage means that stores a set value for changing the imaging condition of the imaging unit to a predetermined imaging condition when the condition determining means determines that a predetermined condition is satisfied, imaging condition transmitting means that transmits the imaging condition of the imaging unit as information for changing to the set value stored in the set value storage means when the condition determining means determines that a predetermined condition is satisfied, and display means that displays the captured image of the imaging unit in which the imaging condition is changed by the imaging condition transmitting means.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置を制御する情報処理装置、及び撮像装置の制御方法、プログラムに関する。   The present invention relates to an information processing device that controls an imaging device, a method of controlling the imaging device, and a program.

ビデオカメラで結婚式の様子などを撮像する時に、ユーザがカメラを持って撮像すると、ユーザの撮影技術に左右されるため、撮像結果が想像した通りにならないことがある。たとえば、撮影技術が未熟なユーザが撮像した動画は、被写体をうまく追随できなかったり、ズーム率が適切でなく、極端に小さく撮影されることなどがある。または、カメラを激しく動かして撮像した場合、後から観づらい映像になったりする。   When a user captures an image of a wedding or the like with a video camera while holding the camera, the imaging result may not be as imagined because it depends on the imaging technique of the user. For example, a moving image captured by a user with an inexperienced shooting technology may not be able to follow a subject well, or may not be properly zoomed, and may be captured extremely small. Alternatively, when the camera is moved violently to capture an image, the image may be difficult to view later.

特許文献1には、無人で被写体追尾、ズーム制御を行うことにより、被写体を無理なく自然に追尾することができ、ダイナミックかつ観やすい映像を提供する自動動画撮影装置を提供する技術が開示されている。   Patent Literature 1 discloses a technique for providing an automatic moving image photographing apparatus that can dynamically and easily track a subject by performing unmanned subject tracking and zoom control, and that provides a dynamic and easy-to-view image. I have.

特開2003−274257号公報JP 2003-274257 A

しかし、特許文献1では、動いている被写体を追跡しやすくし、動画を見る側も観やすい映像を得るための手段が記載されているが、結婚式などの動きがほとんどない被写体を撮像する際には、新郎や新婦を追いかけるだけの動画になる可能性があり、また、新郎や新婦、来賓者の顔の表情から全身の衣装までを詳細に撮像することはできない。   However, Patent Literature 1 describes means for making it easy to track a moving subject and obtain an image that is easy to see even for a moving image viewer. In this case, there is a possibility that the moving image will only be a chase for the groom or the bride, and it is not possible to take detailed images of the groom, the bride, and the guests' facial expressions to the entire body costume.

また、ネットワークカメラにより人や物を監視するサービスの場合でも、不審者などの追跡はできるが、詳細な顔の特徴を捉えるか、全体の服装の特徴を捉えるかのどちらかしかできず、顔の特徴と全体の服装の両方を捉えるのは難しい。   Also, in the case of a service that monitors people and things with a network camera, suspicious persons can be tracked, but it is only possible to capture the characteristics of detailed faces or the characteristics of overall clothes, It is difficult to capture both the characteristics and overall clothing.

本発明は、被写体の人物の顔の表情や特徴と、被写体の人物の全体の衣装や服装との両方とも詳細に撮像可能に撮像装置を制御させるなど、ユーザの所望の撮像を行うことを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to perform desired imaging by a user, such as controlling an imaging apparatus to be able to image in detail both the facial expression and characteristics of the face of a subject person and the entire costume and clothing of the subject person. And

本発明は、撮像部に対する撮像条件を送信する情報処理装置であって、前記撮像部により撮像される撮像画像により解析されるデータが所定の条件を満たすか判断する条件判断手段と、前記条件判断手段により所定の条件を満たすと判断された際に、撮像部の撮像条件を所定の撮像条件に変更する設定値を記憶する設定値記憶手段と、前記条件判断手段により所定の条件を満たすと判断された場合、撮像部の撮像条件を前記設定値記憶手段に記憶された設定値に変更する情報として送信する撮像条件送信手段と、前記撮像条件送信手段により撮像条件を変更した撮像部の撮像画像を表示する表示手段と、を備えることを特徴とする。   The present invention is an information processing apparatus for transmitting an imaging condition to an imaging unit, wherein the condition determination unit determines whether data analyzed by a captured image captured by the imaging unit satisfies a predetermined condition, Setting means for storing a set value for changing an imaging condition of the imaging unit to the predetermined imaging condition when the predetermined condition is determined by the means; and determining that the predetermined condition is satisfied by the condition determining means. If the imaging condition is transmitted, an imaging condition transmitting unit that transmits the imaging condition of the imaging unit to the setting value stored in the setting value storage unit, and an image captured by the imaging unit whose imaging condition is changed by the imaging condition transmitting unit And a display means for displaying

本発明によれば、被写体の人物の顔の表情や特徴と、被写体の人物の全体の衣装や服装との両方とも詳細に撮像可能に撮像装置を制御させるなど、ユーザの所望の撮像を行うことができる。   ADVANTAGE OF THE INVENTION According to the present invention, it is possible to perform a user's desired imaging, for example, by controlling an imaging device to be able to capture both the facial expression and characteristics of the face of a subject person and the entire costume and clothing of the subject person in detail. Can be.

本発明の実施形態における、撮像制御システムのシステム構成の一例を示すである。1 is a diagram illustrating an example of a system configuration of an imaging control system according to an embodiment of the present invention. 本発明の実施形態における、携帯端末102、動画像保存サーバ103に適用可能な情報処理装置のハードウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration of an information processing apparatus applicable to the mobile terminal 102 and the moving image storage server 103 according to the embodiment of the present invention. 本発明の実施形態における、ネットワークカメラ101のハードウェアの構成を示す構成図である。FIG. 2 is a configuration diagram illustrating a hardware configuration of a network camera 101 according to the embodiment of the present invention. 本発明の実施形態における、撮像制御システム全体の処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing of the entire imaging control system according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の撮影シーンを登録する処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of a process for registering a shooting scene of the mobile terminal according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の撮影シーンを変更する条件を登録する処理の一例を示すフローチャートである。9 is a flowchart illustrating an example of a process of registering a condition for changing a shooting scene of the mobile terminal according to the embodiment of the present invention. 本発明の実施形態における、撮像制御システムの自動撮像処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of an automatic imaging process of the imaging control system according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の表示部(ディスプレイ装置210)に表示される表示画面800の一例である。5 is an example of a display screen 800 displayed on a display unit (display device 210) of the mobile terminal 102 according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の表示部(ディスプレイ装置210)に表示される表示画面900の一例である。5 is an example of a display screen 900 displayed on a display unit (display device 210) of the mobile terminal 102 according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の表示部(ディスプレイ装置210)に表示される表示画面1000の一例である。5 is an example of a display screen 1000 displayed on a display unit (display device 210) of the mobile terminal 102 according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の外部メモリ等の記憶手段に記憶されている各種データの一例を示す図である。FIG. 4 is a diagram illustrating an example of various data stored in a storage unit such as an external memory of the mobile terminal 102 according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の外部メモリ等の記憶手段に記憶されている各種データの一例を示す図である。FIG. 4 is a diagram illustrating an example of various data stored in a storage unit such as an external memory of the mobile terminal 102 according to the embodiment of the present invention. 本発明の実施形態における、携帯端末102の表示部(ディスプレイ装置210)に表示される表示画面の遷移の例を示す模式図である。FIG. 7 is a schematic diagram illustrating an example of transition of a display screen displayed on a display unit (display device 210) of the mobile terminal 102 according to the embodiment of the present invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の情報処理システムのシステム構成の一例を示すである。   FIG. 1 shows an example of a system configuration of the information processing system of the present invention.

図1に示す情報処理システムは、ネットワークカメラ101(撮像部)と、携帯端末102と動画像保存サーバ103とがネットワーク104を介して相互に通信可能に接続され構成されている。   The information processing system shown in FIG. 1 is configured such that a network camera 101 (imaging unit), a mobile terminal 102, and a moving image storage server 103 are communicably connected via a network 104.

ネットワークカメラ101は、例えば、結婚式会場や宴会場などに設置された動画像を記録するためのカメラである。ネットワークカメラは、監視カメラとして、防犯、防災、計測などの目的で設置されたものでもよく、また屋内、屋外は問わない。さらにネットワークカメラ101は、Webカメラでも良いし、ユーザが家庭などで使う民生用ビデオカメラでも良い。民生用ビデオカメラの場合は携帯端末102から制御可能な雲台に載せることが望ましい。   The network camera 101 is, for example, a camera for recording a moving image installed in a wedding hall, a banquet hall, or the like. The network camera may be installed as a surveillance camera for crime prevention, disaster prevention, measurement, and the like, and may be indoors or outdoors. Further, the network camera 101 may be a Web camera or a consumer video camera used by a user at home or the like. In the case of a consumer video camera, it is desirable to mount it on a camera platform that can be controlled from the portable terminal 102.

動画像保存サーバ103は、ネットワークカメラ101から送信された各映像を受信して保存する機能を有する。なお、動画像保存サーバ103は、映像解析して、その解析結果を携帯端末102に送信する機能を備えていても良く、動画像保存サーバ103の機能をネットワークカメラ101が有していても良い。たとえば、ネットワークカメラ101が前述した民生用ビデオカメラの場合は、映像を保存する筐体はネットワークカメラ101と同じ筐体となる。   The moving image storage server 103 has a function of receiving and storing each video transmitted from the network camera 101. Note that the moving image storage server 103 may have a function of performing video analysis and transmitting the analysis result to the mobile terminal 102, and the function of the moving image storage server 103 may be included in the network camera 101. . For example, when the network camera 101 is the consumer video camera described above, the housing for storing the video is the same housing as the network camera 101.

携帯端末102は、ネットワークカメラ101から取得した映像を受信し、携帯端末102の表示部(ディスプレイ装置210)に表示する。また、ネットワークカメラ101のパン・チルト・ズームを制御することができる(PTZ制御)。   The mobile terminal 102 receives the video acquired from the network camera 101 and displays the video on the display unit (display device 210) of the mobile terminal 102. In addition, pan / tilt / zoom of the network camera 101 can be controlled (PTZ control).

携帯端末102及び動画像保存サーバ103は、コンピュータ等の情報処理装置である。   The mobile terminal 102 and the moving image storage server 103 are information processing devices such as a computer.

図2は、図1に示す携帯端末102及び動画像保存サーバ103に適用可能な情報処理装置のハードウェア構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of an information processing apparatus applicable to the mobile terminal 102 and the moving image storage server 103 illustrated in FIG.

図2に示すように、情報処理装置は、システムバス204を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)203、RAM(Random Access Memory)202、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、および通信I/Fコントローラ208が接続される。   As shown in FIG. 2, the information processing apparatus includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 203, a RAM (Random Access Memory) 202, an input controller 205, a video controller 206, via a system bus 204. The memory controller 207 and the communication I / F controller 208 are connected.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 generally controls each device and controller connected to the system bus 204.

ROM203あるいは外部メモリ211等の記憶装置は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。   A storage device such as the ROM 203 or the external memory 211 stores a basic input / output system (BIOS) or an operating system (OS), which is a control program executed by the CPU 201, or a computer-readable program for implementing the information processing method. And various necessary data (including data tables).

RAM202は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM203あるいは外部メモリ211からRAM202にロードし、ロードしたプログラムを実行することで各種動作を実現する。   The RAM 202 functions as a main memory, a work area, and the like for the CPU 201. The CPU 201 loads various programs and the like necessary for executing processing from the ROM 203 or the external memory 211 to the RAM 202, and realizes various operations by executing the loaded programs.

入力コントローラ205は、入力装置209(入力デバイス)からの入力を制御する。入力装置209としては、キーボード、タッチパネル、マウス等のポインティングデバイス等が挙げられる。   The input controller 205 controls an input from the input device 209 (input device). Examples of the input device 209 include a keyboard, a touch panel, a pointing device such as a mouse, and the like.

なお、入力装置209がタッチパネルの場合、ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができることとする。   When the input device 209 is a touch panel, various instructions can be given by the user pressing (touching with a finger or the like) in accordance with an icon, cursor, or button displayed on the touch panel.

また、タッチパネルは、マルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。   Further, the touch panel may be a touch panel that can detect a position touched by a plurality of fingers, such as a multi-touch screen.

ビデオコントローラ206は、ディスプレイ装置210などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作により受け付け可能な装置については、入力装置209を提供する。   The video controller 206 controls display on an external output device such as the display device 210. The display shall include a notebook computer display integrated with the main unit. The external output device is not limited to a display, but may be, for example, a projector. In addition, an input device 209 is provided for a device that can be received by the above-described touch operation.

なおビデオコントローラ206は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM202の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。   Note that the video controller 206 can control a video memory (VRAM) for performing display control, can use a part of the RAM 202 as a video memory area, or can provide a dedicated video memory separately. It is possible.

メモリコントローラ207は、外部メモリ211へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)などのメモリ等を利用可能である。   The memory controller 207 controls access to the external memory 211. As the external memory, an external storage device (hard disk) for storing a boot program, various applications, font data, user files, edit files, various data, and the like, a memory such as a flexible disk (FD), or the like can be used.

通信I/Fコントローラ208は、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信、Wi−Fi、および3G回線、LTE回線を用いた通信が可能である。   The communication I / F controller 208 connects and communicates with an external device via a network, and executes communication control processing on the network. For example, communication using TCP / IP, Wi-Fi, and communication using 3G lines and LTE lines are possible.

なお、外部メモリ211等の記憶装置は情報を永続的に記憶するための媒体であって、その形態をハードディスク等の記憶装置に限定するものではない。例えば、SSD(Solid State Drive)などの媒体であってもよい。   Note that a storage device such as the external memory 211 is a medium for permanently storing information, and is not limited to a storage device such as a hard disk. For example, a medium such as SSD (Solid State Drive) may be used.

また本実施形態における通信端末で行われる各種処理時の一時的なメモリエリアとしても利用可能である。   Further, it can be used as a temporary memory area at the time of various processes performed by the communication terminal in the present embodiment.

尚、CPU201は、例えばRAM202内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ装置210上での表示を可能としている。また、CPU201は、ディスプレイ装置210上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the display device 210 by executing, for example, an outline font developing (rasterizing) process on a display information area in the RAM 202. Further, the CPU 201 enables a user instruction with a mouse cursor (not shown) on the display device 210.

次に、図3を用いて、図1に示したネットワークカメラ101のハードウェア構成の一例について説明する。   Next, an example of a hardware configuration of the network camera 101 shown in FIG. 1 will be described with reference to FIG.

図3は、ネットワークカメラ101のハードウェアの構成を示す構成図である。   FIG. 3 is a configuration diagram illustrating a hardware configuration of the network camera 101.

CPU301は、システムバス304に接続される各デバイスやコントローラを統括的に制御する。また、ROM302あるいは外部メモリ305には、CPU301の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、画像処理サーバ108の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。   The CPU 301 controls each device and controller connected to the system bus 304 as a whole. Further, the ROM 302 or the external memory 305 includes a BIOS (Basic Input / Output System), an operating system program (hereinafter, OS), which is a control program of the CPU 301, and a function required to realize the function executed by the image processing server 108. Various programs and the like to be described later are stored. The RAM 303 functions as a main memory, a work area, and the like for the CPU 301.

CPU301は、処理の実行に際して必要なプログラム等をRAM303にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 301 loads various programs and the like necessary for executing the processing into the RAM 303 and executes the programs to realize various operations.

メモリコントローラ(MC)306は、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ、画像データ等を記憶するハードディスク(HD)やPCMCIAカードスロットにアダプタを介して接続されるスマートメディア(登録商標)等の外部メモリ305へのアクセスを制御する。   A memory controller (MC) 306 is connected to a hard disk (HD) storing a boot program, various applications, font data, user files, editing files, various data, image data, and the like via an adapter to a PCMCIA card slot via an adapter. The access to the external memory 305 such as a media (registered trademark) is controlled.

ネットワークカメラ101におけるカメラ部307は、画像処理部308と接続されており、監視対象に対して向けられたレンズを透過して得られた光をCCDやCMOS等の受光セルによって光電変換を行った後、RGB信号や補色信号を画像処理部308に対して出力する。   A camera unit 307 of the network camera 101 is connected to the image processing unit 308, and performs photoelectric conversion of light obtained through a lens directed to a monitoring target by a light receiving cell such as a CCD or a CMOS. Thereafter, an RGB signal and a complementary color signal are output to the image processing unit 308.

ネットワークカメラ101における画像処理部308は、RGB信号や捕色信号に基づいて、ホワイトバランス調整、ガンマ処理、シャープネス処理を行い、更に、YC信号処理を施して輝度信号Yとクロマ信号(以下、YC信号)を生成し、YC信号を所定の圧縮形式(例えばJPEGフォーマット、あるいはMotionJPEGフォーマット等)で圧縮し、この圧縮されたデータは、画像データとして外部メモリ305へ一時保管される。   The image processing unit 308 in the network camera 101 performs white balance adjustment, gamma processing, and sharpness processing based on the RGB signal and the color capture signal, and further performs YC signal processing to perform a luminance signal Y and a chroma signal (hereinafter, YC). ), And the YC signal is compressed in a predetermined compression format (for example, JPEG format or Motion JPEG format), and the compressed data is temporarily stored in the external memory 305 as image data.

マイク310(集音部)は、音声入力コントローラ311と接続されており、ネットワークカメラ101周辺の音声を集音し、デジタル信号化して音声入力コントローラ311に出力する。   The microphone 310 (sound collecting unit) is connected to the sound input controller 311, collects sound around the network camera 101, converts the sound into a digital signal, and outputs the digital signal to the sound input controller 311.

ネットワークカメラ101における音声入力コントローラ311は、デジタル化された音声情報を圧縮形式(たとえばMPEG Audio Layer−3(MP3)フォーマット、あるいはAdvanced Audio Coding(AAC、先進的音響符号化))で圧縮し、圧縮されたデータは、音声データとして外部メモリ305へ一時保管される。   The audio input controller 311 in the network camera 101 compresses the digitized audio information in a compression format (for example, MPEG Audio Layer-3 (MP3) format or Advanced Audio Coding (AAC, Advanced Audio Coding)) and compresses it. The obtained data is temporarily stored in the external memory 305 as audio data.

通信I/Fコントローラ(通信I/FC)309は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行しており、外部メモリ305に記憶された画像データや音声データは、通信I/Fコントローラ309によって外部機器へ送信される。   A communication I / F controller (communication I / FC) 309 connects and communicates with an external device via a network, executes communication control processing on the network, and stores images stored in the external memory 305. Data and audio data are transmitted to an external device by the communication I / F controller 309.

次に、図4に示すフローチャートを用いて、ネットワークカメラ101、携帯端末102が実行する処理について説明する。   Next, the processing executed by the network camera 101 and the mobile terminal 102 will be described using the flowchart shown in FIG.

図4は、本発明の実施形態における、撮像制御システム全体の処理の一例を示すフローチャートであり、図中のS401〜S424は各ステップを示す。各ステップの処理の内、S401〜S412は、携帯端末102のCPUが、外部メモリ211に格納されたプログラムをRAM202にロードして実行することにより実現され、S421〜S424の各ステップの処理は、ネットワークカメラ101のCPU301が、外部メモリ305もしくはROM302に格納されたプログラムをRAM303にロードして実行することにより実現される。   FIG. 4 is a flowchart illustrating an example of the processing of the entire imaging control system according to the embodiment of the present invention, and S401 to S424 in the figure indicate each step. Of the processing of each step, S401 to S412 are realized by the CPU of the portable terminal 102 loading the program stored in the external memory 211 into the RAM 202 and executing the program. The processing of each step of S421 to S424 is as follows. This is realized by the CPU 301 of the network camera 101 loading a program stored in the external memory 305 or the ROM 302 into the RAM 303 and executing the program.

図4のフローチャートは、ユーザが携帯端末102からネットワークカメラ101を使って自動撮影を行おうとする際に開始される処理の流れである。   The flowchart of FIG. 4 is a flow of a process that is started when the user attempts to perform automatic shooting from the mobile terminal 102 using the network camera 101.

まず、携帯端末102のCPU201は、ネットワークカメラ101から、ネットワークカメラ101が保持、もしくは取得する情報を受信する処理を行う(ステップS401)。   First, the CPU 201 of the mobile terminal 102 performs a process of receiving information held or obtained by the network camera 101 from the network camera 101 (step S401).

次にネットワークカメラ101のCPU301は、携帯端末102の要求により、ネットワークカメラ101が撮像している画像、ネットワークカメラ101が保持しているパン機能の設定値・チルト機能の設定値・ズーム機能の設定値(PTZ値)を携帯端末102に送信する(ステップS421)。   Next, the CPU 301 of the network camera 101 sets the image captured by the network camera 101, the set value of the pan function, the set value of the tilt function, and the setting of the zoom function held by the network camera 101 at the request of the mobile terminal 102. The value (PTZ value) is transmitted to the portable terminal 102 (step S421).

次に、ステップS402において、携帯端末102のCPU201は、ユーザからネットワークカメラ101が撮像する範囲(画角)の変更操作を受け付ける。この処理は、撮像したい範囲(画角)を登録しておくことにより、所定の条件になると、自動撮影時にユーザが登録している画角に変更するために行う。ステップS402で、ユーザからPTZ値の変更操作を受け付ける処理を、図8の携帯端末102のディスプレイ部210に表示された画面を参照して説明する。   Next, in step S402, the CPU 201 of the mobile terminal 102 accepts a user's operation of changing the range (angle of view) captured by the network camera 101. This process is performed to register the range (angle of view) to be imaged and to change to the angle of view registered by the user at the time of automatic shooting when a predetermined condition is satisfied. The process of accepting a PTZ value change operation from the user in step S402 will be described with reference to the screen displayed on the display unit 210 of the mobile terminal 102 in FIG.

図8は、本発明の実施形態における、携帯端末102の表示部(ディスプレイ部210)に表示される表示画面800の一例である。   FIG. 8 is an example of a display screen 800 displayed on the display unit (display unit 210) of the portable terminal 102 in the embodiment of the present invention.

図8の800が携帯端末102のディスプレイ部210に表示された画面イメージであり、真ん中の最も広い領域801にネットワークカメラ101から受信した撮像画像を表示する。   8 is a screen image displayed on the display unit 210 of the mobile terminal 102, and displays a captured image received from the network camera 101 in the widest area 801 in the middle.

802は、ネットワークカメラ101のズーム設定を調整するレバー状のコントローラであり、802の丸部分を前後(図面では上下)させることにより、ネットワークカメラ101のズーム設定値を変更することができる。   Reference numeral 802 denotes a lever-shaped controller that adjusts the zoom setting of the network camera 101. The zoom setting value of the network camera 101 can be changed by moving the round portion of 802 forward and backward (up and down in the drawing).

803は、ネットワークカメラ101のパン設定(すなわち水平方向への左右の首振り設定)を調整するレバー状のコントローラであり、803の丸部分を左右に移動させることにより、ネットワークカメラ101のパン設定値を変更することができる。   Reference numeral 803 denotes a lever-shaped controller that adjusts the pan setting of the network camera 101 (that is, the horizontal swing setting in the horizontal direction). Can be changed.

804は、ネットワークカメラ101のチルト設定(すなわち垂直方向への上下の首振り設定)を調整するレバー状のコントローラであり、804の丸部分を上下に移動させることにより、ネットワークカメラ101のチルト設定値を変更することができる。   Reference numeral 804 denotes a lever-shaped controller for adjusting the tilt setting of the network camera 101 (that is, setting of vertical swinging in the vertical direction). Can be changed.

ステップS402において、携帯端末102は、802〜804の操作によりユーザからのPTZ値の変更を受け付けたかどうか判断する。PTZ値の変更操作を受け付けた場合、ステップS403へと処理を遷移し、PTZ値の変更操作を受け付けていない場合は、ステップS404へと処理を遷移する。   In step S402, the portable terminal 102 determines whether or not a change in the PTZ value from the user has been received by the operation of 802 to 804. If the operation for changing the PTZ value is received, the process proceeds to step S403. If the operation for changing the PTZ value is not received, the process proceeds to step S404.

ステップS403へと処理を遷移すると、携帯端末102のCPU201は、ステップS402で変更されたPTZ値(撮像条件)をネットワークカメラ101に送信する。   When the process proceeds to step S403, the CPU 201 of the mobile terminal 102 transmits the PTZ value (imaging condition) changed in step S402 to the network camera 101.

変更されたPTZ値を受信したネットワークカメラ101のCPU301は、ステップS422において、受信したPTZ値へとカメラのレンズの角度とズーム値を調整して、画角を変更する。   In step S422, the CPU 301 of the network camera 101 that has received the changed PTZ value adjusts the angle of the camera lens and the zoom value to the received PTZ value and changes the angle of view.

次に、ステップS423において、ネットワークカメラ101のCPU301は、ステップS422で変更したネットワークカメラ101の画角の撮像画像を携帯端末102に送信し、携帯端末102の処理へと移行する。   Next, in step S423, the CPU 301 of the network camera 101 transmits the captured image of the angle of view of the network camera 101 changed in step S422 to the mobile terminal 102, and shifts to processing of the mobile terminal 102.

ステップS402において、PTZ値の変更操作を受け付けていない場合、もしくはPTZ値の変更操作を受け付け、ネットワークカメラ101から撮像画像を受け取った場合、ステップS404において、携帯端末102のCPU201は、ネットワークカメラ101から受信した撮像画像を携帯端末102のディスプレイ部210(図8の例で説明すると、801のエリア)に表示する。   In step S402, when the operation for changing the PTZ value is not received, or when the operation for changing the PTZ value is received and the captured image is received from the network camera 101, the CPU 201 of the portable terminal 102 The received captured image is displayed on the display unit 210 (area 801 in the example of FIG. 8) of the mobile terminal 102.

次に、ステップS405において、携帯端末102のCPU201は、現在表示されている撮像画像の画角を登録するかユーザからの操作により判断する。図8を参照して、ユーザの操作を受け付ける例を説明する。   Next, in step S405, the CPU 201 of the mobile terminal 102 determines whether to register the angle of view of the currently displayed captured image or to perform an operation from the user. An example in which a user operation is received will be described with reference to FIG.

図8の800において、ユーザは撮像されている画角が801に表示されている撮像範囲で良いと判断した際に、シーン登録ボタン805を押下する。この処理により、現在撮像範囲として表示されている画角のPTZ値を携帯端末102に登録する処理を行う。図4のフローチャートの説明に戻る。   At 800 in FIG. 8, when the user determines that the angle of view being captured is within the imaging range displayed at 801, the user presses the scene registration button 805. With this process, a process of registering the PTZ value of the angle of view currently displayed as the imaging range in the portable terminal 102 is performed. Returning to the description of the flowchart of FIG.

図4のフローチャートのステップS405において、ユーザから現在のシーン(画角)を登録する処理(シーン登録ボタン805の押下)を受け付けると、ステップS406へと処理を遷移する。一方、シーンを登録する処理を受け付けなかった場合、ステップS407へと処理を遷移する。   In step S405 of the flowchart of FIG. 4, when the process of registering the current scene (angle of view) from the user (pressing of the scene registration button 805) is received, the process proceeds to step S406. On the other hand, if the process of registering a scene has not been received, the process proceeds to step S407.

ステップS406へと処理を遷移すると、携帯端末102のCPU201は、携帯端末102が保持しているネットワークカメラ101のPTZ値をシーン名とともに登録する処理(設定値記憶処理)を行う。詳細な処理を、図5を参照して説明する。   When the process proceeds to step S406, the CPU 201 of the mobile terminal 102 performs a process of registering the PTZ value of the network camera 101 held by the mobile terminal 102 along with the scene name (set value storage process). Detailed processing will be described with reference to FIG.

図5は、本発明の実施形態における、携帯端末102の撮影シーンを登録する処理の一例を示すフローチャートであり、図中のS501〜S508は各ステップを示す。各ステップの処理は、携帯端末102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM202上にロードして実行することにより実現される。   FIG. 5 is a flowchart illustrating an example of a process of registering a shooting scene of the mobile terminal 102 in the embodiment of the present invention, and S501 to S508 in the drawing indicate each step. The processing of each step is realized by the CPU 201 of each system loading the application program stored in the external memory 211 of the mobile terminal 102 onto the RAM 202 and executing the application program.

図5のフローチャートは、図4のフローチャートのステップS406に遷移した際に開始される処理の流れであり、図中のS501〜S508は各ステップを示す。各ステップのS501〜S508の処理は、携帯端末102のCPUが、外部メモリ211に格納されたプログラムをRAM202にロードして実行することにより実現される。   The flowchart of FIG. 5 is a flow of a process that is started when the process proceeds to step S <b> 406 of the flowchart of FIG. 4. The processing of S501 to S508 in each step is realized by the CPU of the portable terminal 102 loading a program stored in the external memory 211 into the RAM 202 and executing the program.

図5のフローチャートは、図4のステップS406へと処理が遷移した際に開始される処理の流れである。   The flowchart of FIG. 5 is a flow of a process that is started when the process transitions to step S406 of FIG.

まず、ステップS501において、携帯端末102のCPU201は、携帯端末102が保持しているネットワークカメラ101のPTZ値を記憶する。この際、携帯端末102はネットワークカメラ101から情報を取得し、そのPTZ値を記憶しても良い。   First, in step S501, the CPU 201 of the mobile terminal 102 stores the PTZ value of the network camera 101 held by the mobile terminal 102. At this time, the mobile terminal 102 may acquire information from the network camera 101 and store the PTZ value.

次に、ステップS502において、携帯端末102のCPU201は、携帯端末102の表示部210にシーン登録に関する画面を表示させる。図9を参照して、携帯端末102の表示部210に表示された画面イメージを説明する、
図9は、本発明の実施形態における、携帯端末102の表示部(ディスプレイ装置210)に表示される表示画面900の一例である。
Next, in step S502, the CPU 201 of the mobile terminal 102 causes the display unit 210 of the mobile terminal 102 to display a screen relating to scene registration. A screen image displayed on the display unit 210 of the mobile terminal 102 will be described with reference to FIG.
FIG. 9 is an example of a display screen 900 displayed on the display unit (display device 210) of the portable terminal 102 in the embodiment of the present invention.

図9の900が携帯端末102のディスプレイ部210に表示されたシーン登録画面のイメージであり、シーン名入力欄901には、登録したい画面のシーンの名前を入力装置209(キーボードやタッチパネルなど)により受け付ける。   9 is an image of a scene registration screen displayed on the display unit 210 of the mobile terminal 102. In the scene name input field 901, the name of the scene of the screen to be registered is input by the input device 209 (keyboard, touch panel, or the like). Accept.

902には既に登録されている登録シーン一覧が表示されている。この登録シーン一覧からユーザがシーンの一つを選び、削除ボタン903を押下すると、選ばれたシーンを削除することができる。図5のフローチャートの説明に戻る。   A list of registered scenes 902 is displayed. When the user selects one of the scenes from the registered scene list and presses a delete button 903, the selected scene can be deleted. Returning to the description of the flowchart of FIG.

図5のフローチャートのステップS502において、たとえば図9のような画面を表示すると、次のステップS503において、携帯端末102のCPU201は、登録シーンリスト902から、一つもしくは複数の登録シーンの選択を受け付ける。   When a screen as shown in FIG. 9 is displayed in step S502 of the flowchart in FIG. 5, for example, in the next step S503, the CPU 201 of the portable terminal 102 receives a selection of one or a plurality of registered scenes from the registered scene list 902. .

次に、ステップS504において、携帯端末102のCPU201は、削除ボタン(図9の903)が押下されたか判断する。削除ボタン903が押下された場合、ステップS505へと処理を遷移し、削除ボタン903が押下されない場合はステップS506へと処理を遷移する。   Next, in step S504, the CPU 201 of the mobile terminal 102 determines whether the delete button (903 in FIG. 9) has been pressed. If the delete button 903 has been pressed, the process proceeds to step S505. If the delete button 903 has not been pressed, the process proceeds to step S506.

ステップS505へと処理が遷移すると、携帯端末102のCPU201は、図9の登録シーン一覧902内で選択されている登録シーンを携帯端末102の外部メモリ211から削除(登録シーン一覧の名前でPTZ値を登録しているデータを削除)する処理を行う。図9と図12を参照して登録シーンの削除の処理を説明する。   When the process shifts to step S505, the CPU 201 of the mobile terminal 102 deletes the registered scene selected from the registered scene list 902 in FIG. 9 from the external memory 211 of the mobile terminal 102 (the PTZ value by the name of the registered scene list). Is performed). The process of deleting a registered scene will be described with reference to FIGS.

図12は、本発明の実施形態における、携帯端末102の外部メモリ等の記憶手段に記憶されている登録シーンの一覧データの一例を示す図であり、これらの設定値をネットワークカメラ101に送信することにより、ネットワークカメラ101の撮影範囲(画角)を制御する。   FIG. 12 is a diagram illustrating an example of list data of registered scenes stored in a storage unit such as an external memory of the portable terminal 102 according to the embodiment of the present invention. These set values are transmitted to the network camera 101. Thus, the shooting range (angle of view) of the network camera 101 is controlled.

図12のデータテーブルは、図9のシーン登録画面のイメージに対応するデータを登録した図の例であり、1番目のデータが「全体シーン」として登録されている。図12の例では、「全体シーン」には「パン設定値」(左右の首振り角度)が0度、「チルト設定値」(上下の首振り角度)が0度、「ズーム倍率」が1倍(ワイド端)というデータが登録されている。また、2番目のデータである「メインシーン」には、たとえば「パン設定値」が右側に10度、「チルト設定値」が下方向に5度、「ズーム倍率」が4.5倍というデータが登録されている例である。   The data table in FIG. 12 is an example of a diagram in which data corresponding to the image of the scene registration screen in FIG. 9 is registered, and the first data is registered as “whole scene”. In the example of FIG. 12, in the “whole scene”, the “pan setting value” (left and right swing angles) is 0 degrees, the “tilt set value” (up and down swing angles) is 0 degrees, and the “zoom magnification” is 1 Double (wide end) data is registered. The second data “main scene” includes, for example, data in which “pan setting value” is 10 degrees to the right, “tilt setting value” is 5 degrees downward, and “zoom magnification” is 4.5 times. Is an example in which is registered.

これら図12のようなデータテーブルを記憶する外部メモリ211のデータを図9の900のような画面イメージで登録シーン名で表示し、ステップS503において、902内の登録シーンを選択する。その後、ステップS504において、削除ボタン903が押下されると、ステップS503で選択された登録シーンのデータをステップS505において削除する。図5のフローチャートの説明に戻る。   The data in the external memory 211 that stores the data table as shown in FIG. 12 is displayed as a registered scene name in a screen image 900 as shown in FIG. 9, and in step S503, a registered scene in 902 is selected. Thereafter, when the delete button 903 is pressed in step S504, the data of the registered scene selected in step S503 is deleted in step S505. Returning to the description of the flowchart of FIG.

次にステップS506へと処理を移行すると、携帯端末102のCPU201は、たとえば、図9のシーン名欄901へ名前の入力を受け付ける。   Next, when the process proceeds to step S506, the CPU 201 of the mobile terminal 102 receives, for example, an input of a name in the scene name column 901 in FIG.

次にステップS507において、携帯端末102のCPU201は、登録ボタン(図9の904)が押下されたか判断する。登録ボタン904が押下された場合、ステップS508へと処理を遷移し、登録ボタン904が押下されない場合はステップS502、もしくはステップS503へと処理を遷移する。   Next, in step S507, the CPU 201 of the mobile terminal 102 determines whether the registration button (904 in FIG. 9) has been pressed. If the registration button 904 has been pressed, the process proceeds to step S508. If the registration button 904 has not been pressed, the process proceeds to step S502 or step S503.

ステップS508へと処理を遷移すると、携帯端末102のCPU201は、ステップS508で入力されたシーン名でステップS501において記憶したPTZ値を、たとえば図12のデータテーブルのような形式で保存する処理を実行する。   When the process proceeds to step S508, the CPU 201 of the portable terminal 102 executes a process of saving the PTZ value stored in step S501 with the scene name input in step S508, for example, in a format such as the data table in FIG. I do.

以上、図5の処理を繰り返すことにより、たとえば図12のようなデータテーブルを形成するデータを作成する。図4のフローチャートの説明に戻る。   As described above, data forming a data table as shown in FIG. 12, for example, is created by repeating the processing of FIG. Returning to the description of the flowchart of FIG.

図4のステップS406の処理が終わると、次にステップS407へと処理を遷移する。   When the process of step S406 in FIG. 4 ends, the process proceeds to step S407.

ステップS407において、携帯端末102のCPU201は、シーン(撮像画像の画角)を変更する条件の入力を受け付けるかユーザからの操作により判断する。図8を参照して、ユーザの操作を受け付ける例を説明する。   In step S <b> 407, the CPU 201 of the mobile terminal 102 determines whether an input of a condition for changing a scene (angle of view of a captured image) is accepted or not, based on an operation from the user. An example in which a user operation is received will be described with reference to FIG.

図8の800において、ユーザがシーン(撮像画像の画角)を変更する条件を入力する場合に、ユーザはシーン変更条件ボタン806を押下する。この処理により、ユーザは撮像シーンを変更するタイミングを設定することができる。図4のフローチャートの説明に戻る。   At 800 in FIG. 8, when the user inputs a condition for changing a scene (angle of view of a captured image), the user presses a scene change condition button 806. With this processing, the user can set the timing for changing the imaging scene. Returning to the description of the flowchart of FIG.

ステップS407において、ユーザからシーン(撮像画像の画角)を変更する条件を入力するボタン(シーン変更条件ボタン806の押下)を受け付けると、ステップS408へと処理を遷移する。一方、シーン(撮像画像の画角)を変更する条件を入力するボタンが押下されていない場合、ステップS409へと処理を遷移する。   In step S407, when a button (pressing of the scene change condition button 806) for inputting a condition for changing a scene (angle of view of a captured image) is received from the user, the process proceeds to step S408. On the other hand, if the button for inputting the condition for changing the scene (the angle of view of the captured image) has not been pressed, the process proceeds to step S409.

ステップS408へと処理を遷移すると、携帯端末102のCPU201は、シーンを変更する条件を設定する処理を行う、詳細な処理を、図6を参照して説明する。   When the process proceeds to step S408, the CPU 201 of the mobile terminal 102 performs a process of setting a condition for changing a scene. A detailed process will be described with reference to FIG.

図6は、本発明の実施形態における、携帯端末102の撮影シーンを変更する条件を登録する処理の一例を示すフローチャートであり、図中のS601〜S607は各ステップを示す。各ステップの処理は、携帯端末102の外部メモリ211に格納されたアプリケーションプログラムを、それぞれのシステムのCPU201がRAM202上にロードして実行することにより実現される。   FIG. 6 is a flowchart illustrating an example of a process of registering a condition for changing a shooting scene of the mobile terminal 102 according to the embodiment of the present invention. S601 to S607 in FIG. The processing of each step is realized by the CPU 201 of each system loading the application program stored in the external memory 211 of the mobile terminal 102 onto the RAM 202 and executing the application program.

図6のフローチャートは、図4のフローチャートのステップS408に遷移した際に開始される処理の流れである。   The flowchart of FIG. 6 is a flow of a process that is started when the process proceeds to step S408 of the flowchart of FIG.

まず、ステップS601において、携帯端末102のCPU201は、表示部210にシーン変更条件の画面を表示する。図10を参照して、携帯端末102の表示部210に表示された画面イメージを説明する、
図10は、本発明の実施形態における、携帯端末102の表示部(ディスプレイ装置210)に表示される表示画面1000の一例である。
First, in step S <b> 601, the CPU 201 of the mobile terminal 102 displays a scene change condition screen on the display unit 210. A screen image displayed on the display unit 210 of the mobile terminal 102 will be described with reference to FIG.
FIG. 10 is an example of a display screen 1000 displayed on the display unit (display device 210) of the portable terminal 102 in the embodiment of the present invention.

図10の1000が携帯端末102のディスプレイ部210に表示されたシーン変更条件設定画面のイメージである。シーン変更条件一覧1002には、シーン(撮像範囲)を変更する条件と変更後の撮像範囲(画角)が定義(記憶)されている(条件記憶部)。   10 is an image of a scene change condition setting screen displayed on the display unit 210 of the mobile terminal 102. The scene change condition list 1002 defines (stores) conditions for changing a scene (imaging range) and a changed imaging range (angle of view) (condition storage unit).

1001のシーン変更条件入力欄(入力受付部)には、シーンを変更する条件と変更後の撮像範囲の入力をプルダウンメニュからシーン変更条件を登録するための項目をそれぞれユーザから受け付ける。シーンを変更する際の条件を四角で囲われた入力のシーン変更条件入力欄1001のユーザの入力後、登録ボタン1004が押下されると、図10の場合は、「『顔検出』の『人数』が『30』秒間『変わらない』場合は『ズーム』を『ゆっくり』の速さで『メインシーンの倍率』に変更する」という条件が登録される。また、1002のシーン変更条件一覧から一つの条件を選択後、削除ボタン1003が押下されると、1002の中で選択されたシーン変更条件が削除される。図6のフローチャートの説明に戻る。   In a scene change condition input field (input receiving unit) 1001, an item for registering a scene change condition and an item for registering a scene change condition from a pull-down menu for input of a changed imaging range are received from the user. When the user presses the register button 1004 after the user inputs the scene change condition input field 1001 of the box enclosed in the condition for changing the scene, in the case of FIG. Is "changed" for "30 seconds", "change zoom" to "magnification of main scene" at speed of "slow" "is registered. When one condition is selected from the scene change condition list 1002 and the delete button 1003 is pressed, the scene change condition selected in 1002 is deleted. Returning to the description of the flowchart of FIG.

ステップS601においてシーン変更条件の画面が表示されると、次のステップS602において、携帯端末102のCPU201は,ユーザが削除したいシーン変更条件の選択を受け付ける。シーン変更条件の選択とは、たとえば図10の1002の一覧から選択されることである。削除したいシーン変更条件がない場合は、選択を受け付けなくても良い。   When the scene change condition screen is displayed in step S601, in the next step S602, the CPU 201 of the mobile terminal 102 receives the selection of the scene change condition that the user wants to delete. Selection of a scene change condition is, for example, selection from a list of 1002 in FIG. If there is no scene change condition to be deleted, the selection need not be accepted.

次のステップS603において、携帯端末102のCPU201は,たとえば、図10の削除ボタン1003の押下を受け付けたか判断する。削除ボタン1003の押下を受け付けると、ステップS604へと処理を遷移し、削除ボタン1003の押下を受け付けない場合は、ステップS605の処理へと遷移する。   In the next step S603, the CPU 201 of the portable terminal 102 determines, for example, whether the press of the delete button 1003 in FIG. 10 has been received. When the press of the delete button 1003 is received, the process proceeds to step S604, and when the press of the delete button 1003 is not received, the process proceeds to step S605.

削除ボタン1003の押下を受け付け、ステップS604へと処理を遷移すると、携帯端末102のCPU201は,シーン変更条件一覧からステップS602で選択されたシーン変更条件を削除する処理を行う。削除されたシーン変更条件は一覧から削除され、記憶している記憶部からも削除される。   Upon receiving the press of the delete button 1003 and transitioning the processing to step S604, the CPU 201 of the portable terminal 102 performs processing for deleting the scene change condition selected in step S602 from the scene change condition list. The deleted scene change condition is deleted from the list, and is also deleted from the stored storage unit.

次のステップS605において、携帯端末102のCPU201は,ユーザからのシーン変更条件の入力を受け付ける。ユーザからのシーン変更条件の入力例は上述した図10の1001の例である。   In the next step S605, the CPU 201 of the mobile terminal 102 receives an input of a scene change condition from the user. The input example of the scene change condition from the user is the example of 1001 in FIG. 10 described above.

次のステップS606において、携帯端末102のCPU201は,たとえば、図10の登録ボタン1004の押下を受け付けたか判断する。登録ボタン1004の押下を受け付けると、ステップS607へと処理を遷移し、登録ボタン1004の押下を受け付けない場合は、ステップS602へと処理を戻す。   In the next step S606, CPU 201 of portable terminal 102 determines whether or not registration button 1004 in FIG. 10 has been pressed, for example. If the press of registration button 1004 is received, the process proceeds to step S607. If the press of registration button 1004 is not received, the process returns to step S602.

ステップS607へと処理が遷移すると、携帯端末102のCPU201は,たとえば図10の1001で設定されたシーン変更条件をシーン変更条件テーブル1100に登録する。1001で登録されたシーン変更条件テーブルの例が1100の1行目のレコードである。   When the process transitions to step S607, the CPU 201 of the portable terminal 102 registers the scene change condition set in, for example, 1001 in FIG. An example of the scene change condition table registered in 1001 is a record in the first row of 1100.

以上の処理のように、シーン(画角)を変えるタイミングなどをユーザが予め設定することができ、ユーザの希望する撮影動画や静止画を撮像することができる。図6のフローチャートの説明を終え、図4のフローチャートの説明に戻る。   As in the above-described processing, the user can preset the timing of changing the scene (angle of view), and can capture a desired moving image or still image desired by the user. The description of the flowchart in FIG. 6 is completed, and the description returns to the flowchart in FIG.

図4のステップS408のシーン変更条件設定処理が終わると、次にステップS409へと処理を遷移する。ステップS409において、携帯端末102のCPU201は、ユーザのシーン登録処理ならびにシーン変更条件設定処理が終わったかどうかを受け付ける。具体的には図9や図10が表示されている段階で図示しない登録終了ボタンが押下されたかどうかで判断する。シーン登録処理ならびにシーン変更条件設定処理が終了する場合は、ステップS410へと処理を遷移し、終了しない場合は、ステップS402へと処理を戻す。   When the scene change condition setting process of step S408 in FIG. 4 ends, the process proceeds to step S409. In step S409, the CPU 201 of the mobile terminal 102 receives whether or not the user's scene registration processing and scene change condition setting processing have been completed. Specifically, it is determined whether or not a registration end button (not shown) has been pressed at the stage when FIGS. 9 and 10 are displayed. If the scene registration process and the scene change condition setting process are completed, the process proceeds to step S410. If not, the process returns to step S402.

ステップS410へと処理を進めると、携帯端末102のディスプレイ部210には、図8のような画面が表示される。携帯端末102のCPU201は,録画(開始)ボタンが押下されたかによって処理を分ける。録画ボタンの例として、図8の800の例では、808であり、この録画ボタン808が押下されると、ステップS411へと処理を遷移する。一方、録画ボタンが押下されていない場合は、ステップS412へと処理を遷移する。   When the process proceeds to step S410, a screen as shown in FIG. 8 is displayed on the display unit 210 of the mobile terminal 102. The CPU 201 of the portable terminal 102 divides the processing depending on whether the recording (start) button has been pressed. The example of the record button is 808 in the example of 800 in FIG. 8, and when the record button 808 is pressed, the process proceeds to step S411. On the other hand, if the recording button has not been pressed, the process proceeds to step S412.

ステップS411へと処理を遷移すると、携帯端末102のCPU201は,自動撮像を開始する。ステップS411の処理の詳細を図7を参照して説明する。   When the process proceeds to step S411, the CPU 201 of the mobile terminal 102 starts automatic imaging. Details of the processing in step S411 will be described with reference to FIG.

図7は、本発明の実施形態における、撮像制御システムの自動撮像処理の一例を示すフローチャートであり、図中のS701〜S726は各ステップを示す。各ステップの処理の内、S701〜S709は、携帯端末102のCPUが、外部メモリ211に格納されたプログラムをRAM202にロードして実行することにより実現され、S721〜S726の各ステップの処理は、ネットワークカメラ101のCPU301が、外部メモリ305もしくはROM302に格納されたプログラムをRAM303にロードして実行することにより実現される。   FIG. 7 is a flowchart illustrating an example of the automatic imaging process of the imaging control system according to the embodiment of the present invention. In the drawing, S701 to S726 indicate each step. Of the processing of each step, S701 to S709 are realized by the CPU of the portable terminal 102 loading the program stored in the external memory 211 into the RAM 202 and executing the program. The processing of each step of S721 to S726 is This is realized by the CPU 301 of the network camera 101 loading a program stored in the external memory 305 or the ROM 302 into the RAM 303 and executing the program.

図7のフローチャートは、図4のフローチャートのステップS411へと処理が遷移すると開始される処理の流れである。   The flowchart of FIG. 7 is a flow of a process that is started when the process transitions to step S411 of the flowchart of FIG.

まず、ステップS701において、携帯端末102のCPU201は,ネットワークカメラ101に録画を開始する命令を送信する(録画指示処理)。   First, in step S701, the CPU 201 of the mobile terminal 102 transmits a command to start recording to the network camera 101 (recording instruction processing).

ステップS721において、命令を受信したネットワークカメラ101のCPU301は、録画を開始する。   In step S721, the CPU 301 of the network camera 101 that has received the command starts recording.

次に、ステップS722において、ネットワークカメラ101のCPU301は、録画している動画の画像情報と、PTZ値とを携帯端末102に送信する。ネットワークカメラ101は次のPTZ値を変更する依頼(ステップS723)を受信しない限り、録画停止命令(ステップS725)を受信するまで、ステップS722へと処理を戻し、所定の画角で撮像を続ける。   Next, in step S722, the CPU 301 of the network camera 101 transmits the image information of the moving image being recorded and the PTZ value to the mobile terminal 102. Unless a request to change the next PTZ value (step S723) is received, the network camera 101 returns to step S722 until it receives a recording stop command (step S725), and continues imaging at a predetermined angle of view.

ステップS702において、携帯端末102のCPU201は,録画している画像とPTZ値をネットワークカメラ101から受信すると、次のステップS703において、撮像されている画像の解析を行う。具体的にはHaar―Like特徴量検出により顔検出を行うが、他の検出方法でもよく、解析方法や解析するものは他のものでも良い。なお、顔検出は本実施例では携帯端末102で行っているが、ネットワークカメラ101で行ってもよく、ネットワークカメラ101のCPU301で画像解析を行う場合は、ネットワークカメラ101は、撮像されている顔の数を携帯端末102に送信する。   In step S702, when the CPU 201 of the portable terminal 102 receives the recorded image and the PTZ value from the network camera 101, the CPU 201 analyzes the captured image in the next step S703. Specifically, the face detection is performed by detecting the Haar-Like feature amount. However, another detection method may be used, and the analysis method or the analysis target may be another method. In this embodiment, the face detection is performed by the mobile terminal 102. However, the face detection may be performed by the network camera 101. When the CPU 301 of the network camera 101 performs image analysis, the network camera 101 Is transmitted to the mobile terminal 102.

次に、ステップS704において、携帯端末102のCPU201は,ステップS703で解析された顔検出の数などを元に図11のシーン変更条件に合致したかの判断を行う。シーン変更条件に合致している場合は、ステップS705へと遷移し、シーン変更条件になった時間を計測するためのタイマーを起動する。一方シーン変更条件に合致しない場合はステップS708へと処理を遷移し、停止ボタンが押下されるまでステップS702へと処理を戻す。   Next, in step S704, the CPU 201 of the mobile terminal 102 determines whether or not the scene change condition in FIG. 11 is met based on the number of face detections analyzed in step S703. If the scene change condition is met, the process proceeds to step S705, and a timer for measuring the time when the scene change condition is reached is started. On the other hand, if the conditions do not match the scene change condition, the process proceeds to step S708, and returns to step S702 until the stop button is pressed.

ステップS705において、タイマーが起動されると、次のステップS706において、携帯端末102のCPU201は、各シーン変更条件ごとの設定時間だけタイマーが経過したか判断する。タイマーがシーン変更条件で設定されている時間だけ経過している場合は、ステップS707へと処理を遷移する。一方、シーン変更条件で設定されている時間だけ経過していない場合は、ステップS708へと処理を遷移して、停止ボタンが押下されるまでステップS702へと処理を戻す。   When the timer is started in step S705, in the next step S706, the CPU 201 of the mobile terminal 102 determines whether the timer has elapsed for the set time for each scene change condition. If the timer has elapsed by the time set in the scene change condition, the process proceeds to step S707. On the other hand, if the time set by the scene change condition has not elapsed, the process proceeds to step S708, and returns to step S702 until the stop button is pressed.

ステップS707へと処理を遷移すると、携帯端末102のCPU201は、各シーン変更条件に設定されているシーン(画角)にネットワークカメラ101を合わせるため、ネットワークカメラ101に設定されているPTZ値を送信する(撮像条件送信処理)。その際にステップS705で起動したタイマーはリセットする。   When the process proceeds to step S707, the CPU 201 of the mobile terminal 102 transmits the PTZ value set in the network camera 101 to adjust the network camera 101 to the scene (angle of view) set in each scene change condition. Yes (imaging condition transmission processing). At that time, the timer started in step S705 is reset.

ステップS707においてネットワークカメラ101に送信されたPTZ値をネットワークカメラ101が受信する(ステップS723)と、ネットワークカメラ101のCPU301は、ステップS724へと処理を遷移する。携帯端末102からPTZ値を受信しない場合は、ステップS725へと処理を遷移し、録画停止命令を受信するまで、ステップS722へと処理を遷移し、画角を変えずに撮像を続ける。   When the network camera 101 receives the PTZ value transmitted to the network camera 101 in step S707 (step S723), the CPU 301 of the network camera 101 shifts the processing to step S724. If the PTZ value is not received from the mobile terminal 102, the process proceeds to step S725, and the process proceeds to step S722 until the recording stop instruction is received, and the imaging is continued without changing the angle of view.

ステップS724に処理を遷移すると、ネットワークカメラ101のCPU301は、ネットワークカメラの画角をステップS707で送信されたPTZ値に変更し、撮像を続ける。携帯端末102の処理の説明に戻る。   When the process proceeds to step S724, the CPU 301 of the network camera 101 changes the angle of view of the network camera to the PTZ value transmitted in step S707, and continues imaging. Return to the description of the processing of the mobile terminal 102.

携帯端末102において、ステップS707のPTZ値の送信処理が終わると、次にステップS708の処理へと遷移する。   After the transmission process of the PTZ value in step S707 is completed in the portable terminal 102, the process proceeds to a process in step S708.

ステップS708において、携帯端末102のCPU201は、ユーザにより停止ボタンが押下されたかを判断する。停止ボタンが押下されるとステップS709へと処理を遷移し、停止ボタンが押されていない場合は、ステップS702へと処理を戻し、撮像を続ける。停止ボタンの例として図8を参照して説明すると、表示部210内の800内に表示されている停止ボタン809がその例であり、停止ボタン809が押下されていると、ステップS709へと処理を遷移する。   In step S708, the CPU 201 of the mobile terminal 102 determines whether the user has pressed the stop button. If the stop button has been pressed, the process proceeds to step S709. If the stop button has not been pressed, the process returns to step S702 to continue imaging. Referring to FIG. 8 as an example of the stop button, a stop button 809 displayed in 800 in the display unit 210 is an example. If the stop button 809 is pressed, the process proceeds to step S709. Transition.

ステップS709へと処理を遷移すると、携帯端末102のCPU201は、ネットワークカメラ101に録画を停止する命令を送信して、図7の携帯端末102の処理を終える。   When the process proceeds to step S709, the CPU 201 of the mobile terminal 102 transmits a command to stop recording to the network camera 101, and ends the process of the mobile terminal 102 in FIG.

ネットワークカメラ101は、ステップS725において、ステップS709から送信された録画停止命令を受信する。ステップS725において、録画停止命令を受信すると、ネットワークカメラ101のCPU301は、ステップS726へと処理を遷移し、ネットワークカメラ101の録画を停止する。   In step S725, the network camera 101 receives the recording stop command transmitted from step S709. Upon receiving the recording stop command in step S725, the CPU 301 of the network camera 101 transitions the processing to step S726, and stops the recording of the network camera 101.

以上、図7の処理により、撮像映像がシーン変更条件を満たすと所定のシーン(画角)に変更して撮像を続けることができ、定点撮影にも関わらず動的な撮像が可能となる。図4のフローチャートの説明に戻る。   As described above, according to the processing in FIG. 7, when the captured video satisfies the scene change condition, the image can be changed to a predetermined scene (angle of view) and imaging can be continued, and dynamic imaging can be performed despite fixed-point imaging. Returning to the description of the flowchart of FIG.

図4のステップS411において、携帯端末102は、ネットワークカメラ101に撮像画像の録画、保存(ステップS424、すなわち、ステップS721〜ステップS726の処理)を命令し、録画停止ボタンによりステップS412へと処理を遷移する。   In step S411 of FIG. 4, the mobile terminal 102 instructs the network camera 101 to record and save the captured image (step S424, that is, the processing of steps S721 to S726), and performs the processing to step S412 by pressing the recording stop button. Transition.

次にステップS412において、携帯端末102のCPU201は、撮像を終了するかどうかの判断をユーザから受け付ける。撮像を終了しない場合は、ステップS401へと処理を戻す。撮像を終了する例としては、図8の状況で図示しない撮像アプリケーションの終了ボタンが押下されたかどうかで判断する。   Next, in step S412, the CPU 201 of the mobile terminal 102 accepts from the user whether to end imaging. If the imaging has not been completed, the process returns to step S401. As an example of ending the imaging, it is determined whether or not the end button of the imaging application (not shown) is pressed in the situation of FIG.

次に、図13を参照して、実際の撮像場面で想定される撮像画像のシーン変更の例を説明する。   Next, an example of a scene change of a captured image assumed in an actual imaging scene will be described with reference to FIG.

図13は、本発明の実施形態における、携帯端末102の表示部(ディスプレイ装置210)に表示される表示画面の遷移の例を示す模式図であり、各シーンは図11、図12のそれぞれのシーン名やシーン変更後の撮像されている画面イメージを示す。。   FIG. 13 is a schematic diagram showing an example of transition of a display screen displayed on the display unit (display device 210) of the portable terminal 102 according to the embodiment of the present invention. Each scene is shown in FIG. 11 and FIG. It shows a scene name and a screen image being captured after a scene change. .

1301は、最初に設定されている「全体シーン」の例であり、PTZ値としては、図12の一行目のように、「パン設定値」が0度、「チルト設定値」が0度、「ズーム倍率」が1倍(ワイド端)である。「全体シーン」に移行するシーン変更条件は、図11の4行目と5行目の場合である。すなわち、4行目は、「『顔検出』の『人数』が『10秒間』の間『0』の場合、『シーン』を『早く』の速さで『全体シーン』に変更する」、また5行目は「『メインシーン』の『人数』が『5分間』の間『変わらない』場合、『シーン』を『標準』の速さで『全体シーン』に変更する」処理を行う。   Reference numeral 1301 denotes an example of the “whole scene” set first. As the PTZ values, as shown in the first row of FIG. 12, the “pan setting value” is 0 degrees, the “tilt setting value” is 0 degrees, The “zoom magnification” is 1 (wide end). The scene change condition for shifting to the “whole scene” is the case of the fourth and fifth rows in FIG. That is, the fourth line indicates that “if“ number ”of“ face detection ”is“ 0 ”for“ 10 seconds ”,“ scene ”is changed to“ whole scene ”at“ fast ”speed, and The fifth line carries out a process of "if the" number of people "in the" main scene "does not change for" 5 minutes ", change the" scene "to" whole scene "at" standard "speed".

1302は、「メインシーン」の例であり、PTZ値としては、図12の二行目のように、「パン設定値」が右側に10度、「チルト設定値」が下方向に5度、「ズーム倍率」が4.5倍である。以降1302から1311の画像イメージは番号順に撮像シーン(画角)が変わる様子を説明した例である。シーン変更条件は図11の1100に対応している。   Reference numeral 1302 denotes an example of the “main scene”. As the PTZ values, as shown in the second line of FIG. 12, the “pan setting value” is 10 degrees to the right, the “tilt setting value” is 5 degrees downward, The “zoom magnification” is 4.5 times. Hereinafter, the images 1302 to 1311 are examples in which the imaging scene (angle of view) changes in numerical order. The scene change condition corresponds to 1100 in FIG.

「メインシーン」1302を撮像している状況で、1303の画面イメージのように人数が増えた後の例を1304の画面イメージを参照して説明する。顔検出の人数が増えた場合は、シーン変更条件テーブル1100の3行目によると「『顔検出』の『人数』が『5秒間』の間『増えた』場合、『ズーム倍率』を『標準』の速さで『顔検出された領域が画面の最大に収まるよう』に変更する」処理をネットワークカメラ101に行わせる。3行目の処理によりズーム倍率を変更した後の例が1304の画面イメージである。1304は1302の画面イメージの2人から3人に顔検出の人数が増え(1303の画面イメージ)、その状況が5秒間以上続いたため、3人の顔検出領域が含まれる最大画角までズームアップした例である。   An example in which the number of persons has increased as in the screen image 1303 in the situation where the “main scene” 1302 is being imaged will be described with reference to the screen image 1304. According to the third line of the scene change condition table 1100, when the number of people for face detection increases, the "zoom magnification" is set to "standard" when "the number of people" of "face detection" increases for "5 seconds". At the speed of "change so that the area where the face is detected fits on the maximum of the screen" ". An example after changing the zoom magnification by the processing of the third line is a screen image 1304. In step 1304, the number of face detections increased from two to three in the 1302 screen image (1303 screen image), and the situation continued for 5 seconds or more, so that the image was zoomed up to the maximum angle of view including the three face detection areas. This is an example.

1304の画面イメージを撮像している状況で、1305の画面イメージのように人数が減った後の例を1306の画面イメージを参照して説明する。顔検出の人数が減った場合は、シーン変更条件テーブル1100の2行目によると「『顔検出』の『人数』が『5秒間』の間『減った』場合、『ズーム倍率』を『標準』の速さで『顔検出された領域が画面の最大に収まるよう』に変更する」処理をネットワークカメラ101に行わせる。。2行目の処理によりズーム倍率を変更した後の例が1306の画面イメージである。1306は1304の画面イメージの3人から2人に顔検出の人数が減り(1305の画面イメージ)、その状況が5秒間以上続いたため、2人の顔検出領域が含まれる最大画角までズームアップした例である。   An example after the number of people is reduced as in the case of the screen image of 1305 in a situation where the screen image of 1304 is being captured will be described with reference to the screen image of 1306. According to the second line of the scene change condition table 1100, when the number of face detections decreases, the "zoom magnification" is set to "standard" At the speed of "change so that the area where the face is detected fits on the maximum of the screen" ". . An example after changing the zoom magnification by the processing of the second line is a screen image 1306. In step 1306, the number of face detections is reduced from three in the screen image of 1304 to two people (screen image in 1305), and since the situation lasts for 5 seconds or more, the image is zoomed up to the maximum angle of view including the face detection area of the two people. This is an example.

1306の画面イメージを撮像している状況で、1306の画面イメージのようなまま人数が変わらない場合の後の例を1307の画面イメージを参照して説明する。顔検出の人数が変わらない場合は、シーン変更条件テーブル1100の1行目によると「『顔検出』の『人数』が『30秒間』の間『変わらない』場合、『ズーム倍率』を『ゆっくり』の速さで『メインシーンの倍率』に変更する」処理をネットワークカメラ101に行わせる。1行目の処理によりズーム倍率を変更した後の例が1307の画面イメージである。1307は1306の画面イメージの顔検出の人数が変わらず、その状況が30秒間以上続いたため、ズーム倍率をメインシーンの倍率である4.5倍に設定した(元のメインシーンの倍率に戻した)例である。   An example in which the number of people does not change while the screen image of 1306 is being captured as in the screen image of 1306 will be described with reference to the screen image of 1307. If the number of face detections does not change, according to the first line of the scene change condition table 1100, if the “number of people in“ face detection ”does not change for“ 30 seconds ”, set the“ zoom magnification ”to“ slow ”. At the speed of "change to the magnification of the main scene" ". An example after the zoom magnification is changed by the processing of the first line is a screen image 1307. In step 1307, since the number of face detections in the screen image in step 1306 did not change and the situation continued for 30 seconds or more, the zoom magnification was set to 4.5, which is the main scene magnification (returned to the original main scene magnification). This is an example).

1307の画面イメージを撮像している状況で、1308のように画面から顔検出できる人数がいなくなった場合の後の例を1309の画面イメージを参照して説明する。撮像範囲内に顔検出できる人数がいなくなった場合は、シーン変更条件テーブル1100の4行目によると「『顔検出』の『人数』が『10秒間』の間『0』の場合、『シーン』を『早く』の速さで『全体シーン』に変更する」処理をネットワークカメラ101に行わせる。4行目の処理によりシーン名が「全体シーン」として図12の1行目で定義されたPTZ値に変更する。撮像範囲を変更した後の例が1309の画面イメージである。1309は1308の画面イメージのように顔検出できる人数が0人になり、その状況が10秒間以上続いたため、「全体シーン」のPTZ値へと変更した例である。   In the situation where the screen image of 1307 is being imaged, an example after the case where the number of people who can detect a face from the screen as in 1308 is gone will be described with reference to the screen image of 1309. According to the fourth line of the scene change condition table 1100, when the number of people who can detect a face is no longer within the imaging range, according to the fourth line of the scene change condition table 1100, if the “number of people” of “face detection” is “0” for “10 seconds”, Is changed to “whole scene” at a “fast” speed ”by the network camera 101. By the processing in the fourth line, the scene name is changed to the PTZ value defined in the first line in FIG. 12 as “whole scene”. An example after changing the imaging range is a screen image 1309. Reference numeral 1309 denotes an example in which the number of persons whose faces can be detected becomes zero as in the screen image of 1308 and the situation has continued for 10 seconds or more, and thus the PTZ value is changed to the “whole scene” PTZ value.

1309の画面イメージを撮像している状況(「全体シーン」を撮像している状況)で、1309の画面イメージ内の人数が変わらない場合の後の例を1310の画面イメージを参照して説明する。「全体シーン」のPTZ値で撮像している場合、シーン変更条件テーブル1100の6行目によると「『メイン(シーン)』の『人数』が『15秒間』の間『変わらない』場合、『シーン』を『標準』の速さで『撮影回数が少ないシーン』に変更する」処理をネットワークカメラ101に行わせる。6行目の処理により撮影回数が少ないシーンとして、たとえば「サブシーン(A)」が選択された場合の例が1310の画面イメージである。1310はたとえば、1309のように「全体シーン」が15秒間以上続いたため、撮影回数(図12の登録シーンの一覧データ1200の撮影回数欄)が少ない4行目(撮影回数が0回)の撮像シーンとして「サブシーン(A)」が撮像範囲対象として選択されている。選択された「サブシーン(A)」のPTZ値は図12のように「パン設定値」が左側に30度、「チルト設定値」が下方向に10度、「ズーム倍率」が7倍という情報をネットワークカメラ101に送信し、撮像範囲(画角)を変更した結果、1310の画面イメージを取得する。   An example in which the number of persons in the screen image of 1309 does not change in the situation where the screen image of 1309 is being captured (the situation where the “whole scene” is captured) will be described with reference to the screen image of 1310. . According to the sixth line of the scene change condition table 1100, when the image is captured with the PTZ value of the “whole scene”, “if the“ number ”of“ main (scene) ”is“ unchanged ”for“ 15 seconds ”, Change the “scene” to “scene with a small number of shots” at “standard” speed ”. A screen image 1310 is an example in which, for example, “subscene (A)” is selected as a scene with a small number of shots by the processing in the sixth line. 1310, the imaging of the fourth row (the number of times of shooting is 0) having a small number of times of shooting (the number of times of shooting of the registered scene list data 1200 in FIG. 12) because the “whole scene” has continued for 15 seconds or more as in 1309, for example. “Sub-scene (A)” is selected as the scene as the object of the imaging range. As shown in FIG. 12, the PTZ value of the selected “sub-scene (A)” is “pan setting value” is 30 degrees to the left, “tilt setting value” is 10 degrees downward, and “zoom magnification” is 7 times. The information is transmitted to the network camera 101, and as a result of changing the imaging range (angle of view), a screen image 1310 is acquired.

また、サブシーンに変更する例として、撮像シーンに優先度を設定している場合の画面イメージの流れを説明する。   Also, as an example of changing to a subscene, a flow of a screen image in a case where a priority is set for an imaging scene will be described.

1309の画面イメージを撮像している状況(「全体シーン」を撮像している状況)で、1309の画面イメージ内の人数が変わらない場合の後の例を1311の画面イメージを参照して説明する。「全体シーン」のPTZ値で撮像している場合、上述したようにシーン変更条件テーブル1100の6行目の登録情報のように撮像シーンを変更する処理をネットワークカメラ101に行わせる。6行目の処理により優先度が設定されているサブシーンとして、たとえば「サブシーン(B)」を選択する場合の例が1311の画面イメージである。1311はたとえば、1309のように「全体シーン」が15秒間以上続いたため、優先順が設定されているサブシーンの中(図12の登録シーンの一覧データ1200の優先度欄)の優先度が高い(優先度が1)の撮像シーンである「サブシーン(B)」が撮像範囲対象として選択される。選択された「サブシーン(B)」のPTZ値は図12のように「パン設定値」が右側に30度、「チルト設定値」が下方向に10度、「ズーム倍率」が7倍という情報をネットワークカメラ101に送信し、撮像範囲(画角)を変更した結果、1311の画面イメージを取得する。   An example in which the number of people in the screen image of 1309 does not change in the situation where the screen image of 1309 is being captured (the situation where the “whole scene” is being captured) will be described with reference to the screen image of 1311. . When the image is captured with the PTZ value of the “entire scene”, the network camera 101 is caused to perform the process of changing the captured scene as the registration information on the sixth row of the scene change condition table 1100 as described above. A screen image 1311 is an example in which, for example, “subscene (B)” is selected as the subscene for which the priority is set by the processing in the sixth line. 1311, for example, since the “whole scene” lasts for 15 seconds or more as in 1309, the priority of sub-scenes in which the priority order is set (the priority column of the registered scene list data 1200 in FIG. 12) is high. “Subscene (B)”, which is an imaging scene of (priority 1), is selected as an imaging range target. As shown in FIG. 12, the PTZ value of the selected “sub-scene (B)” is such that the “pan setting value” is 30 degrees to the right, the “tilt setting value” is 10 degrees downward, and the “zoom magnification” is 7 times. The information is transmitted to the network camera 101, and as a result of changing the imaging range (angle of view), a screen image 1311 is acquired.

これらの取得した画面イメージをネットワークカメラ101で録画し、動画像保存サーバ103、もしくはネットワークカメラ101自身に記憶する。   These acquired screen images are recorded by the network camera 101 and stored in the moving image storage server 103 or the network camera 101 itself.

以上の処理により、1台のネットワークカメラによって撮像された撮像画像から、被写体である人物の顔の表情と、人物の所作や服装なども動的に変更して撮像が可能となり、ユーザの事前の設定した撮像範囲(シーン)の変更条件などにより、動的に撮像シーンを変更することができる。   With the above processing, from the captured image captured by one network camera, the facial expression of the person who is the subject and the behavior and clothes of the person can be dynamically changed and imaged. The imaging scene can be dynamically changed according to the set imaging range (scene) change condition and the like.

別の実施例として、音声の認識によるシーン変更条件の例を図11を参照して説明する。   As another embodiment, an example of a scene change condition by voice recognition will be described with reference to FIG.

自動撮影中に、たとえば、「入場です」などの音声をネットワークカメラ101のマイク310が取得した場合、シーン変更条件テーブル1100の8行目の登録情報のように撮像シーンを変更する処理をネットワークカメラ101に行わせる。たとえば、「音声」の「認識」が「入場です」の場合、「シーン」を「標準」の速さで「サブシーン(入場)」に変更する処理を行う。選択された「サブシーン(入場)」のPTZ値は、図12の3行目のように「パン設定値」が右側に40度、「チルト設定値」が下方向に5度、「ズーム倍率」が4倍という情報をネットワークカメラ101に送信し、撮像範囲(画角)を変更する。   For example, when the microphone 310 of the network camera 101 obtains a sound such as “Admission” during the automatic shooting, the process of changing the imaging scene like the registration information on the eighth line of the scene change condition table 1100 is performed by the network camera. 101. For example, when "recognition" of "voice" is "entrance", processing for changing "scene" to "subscene (entrance)" at the speed of "standard" is performed. As for the PTZ values of the selected “sub-scene (entrance)”, as shown in the third row of FIG. 12, “pan setting value” is 40 degrees to the right, “tilt setting value” is 5 degrees downward, and “zoom magnification” Is transmitted to the network camera 101 to change the imaging range (angle of view).

以上の処理により、音声認識によってもシーン変更を変更可能に設定することができ、ユーザの所望の撮像範囲(シーン)を適切に設定することができる。   Through the above processing, the scene change can be set to be changeable also by voice recognition, and the user's desired imaging range (scene) can be appropriately set.

本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。   The present invention can take embodiments as a system, an apparatus, a method, a program, a recording medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices, or may be applied to an apparatus including a single device.

また、本発明におけるプログラムは、図示したフローチャートの処理方法をコンピュータが実行可能なプログラムであり、本発明の記憶媒体は当該処理方法をコンピュータが実行可能なプログラムが記憶されている。なお、本発明におけるプログラムは各装置の処理方法ごとのプログラムであってもよい。   Further, the program according to the present invention is a program capable of executing the processing method of the illustrated flowchart by a computer, and the storage medium of the present invention stores a program capable of executing the processing method by a computer. The program according to the present invention may be a program for each processing method of each device.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。   As described above, the recording medium storing the program for realizing the functions of the above-described embodiments is supplied to the system or the apparatus, and the computer (or CPU or MPU) of the system or the apparatus executes the program stored in the recording medium. Needless to say, the object of the present invention can be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium implements the novel function of the present invention, and the recording medium on which the program is recorded constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。   Examples of a recording medium for supplying the program include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a DVD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, an EEPROM, and a silicon. A disk or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   When the computer executes the read program, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instructions of the program. It goes without saying that a case where some or all of the processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program read from the recording medium is written into the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is executed based on the instruction of the program code. It goes without saying that a CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Further, the present invention may be applied to a system constituted by a plurality of devices or to an apparatus constituted by a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or an apparatus. In this case, by reading the recording medium storing the program for achieving the present invention into the system or the apparatus, the system or the apparatus can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   Further, by downloading and reading out a program for achieving the present invention from a server, a database, or the like on a network by using a communication program, the system or device can enjoy the effects of the present invention. It should be noted that the present invention includes all configurations obtained by combining the above-described embodiments and their modifications.

101 ネットワークカメラ
102 携帯端末
103 動画像保存サーバ

101 Network Camera 102 Mobile Terminal 103 Moving Image Storage Server

Claims (10)

撮像部に対する撮像条件を送信する情報処理装置であって、
前記撮像部により撮像される撮像画像により解析されるデータが所定の条件を満たすか判断する条件判断手段と、
前記条件判断手段により所定の条件を満たすと判断された際に、撮像部の撮像条件を所定の撮像条件に変更する設定値を記憶する設定値記憶手段と、
前記条件判断手段により所定の条件を満たすと判断された場合、撮像部の撮像条件を前記設定値記憶手段に記憶された設定値に変更する情報として送信する撮像条件送信手段と、
前記撮像条件送信手段により撮像条件を変更した撮像部の撮像画像を表示する表示手段と
を有することを特徴とする情報処理装置。
An information processing apparatus that transmits an imaging condition to an imaging unit,
Condition determining means for determining whether data analyzed by a captured image captured by the imaging unit satisfies a predetermined condition,
A setting value storage unit configured to store a set value for changing an imaging condition of the imaging unit to the predetermined imaging condition when it is determined that the predetermined condition is satisfied by the condition determination unit;
An imaging condition transmitting unit that transmits, as information for changing an imaging condition of an imaging unit to a set value stored in the set value storage unit, when it is determined that the predetermined condition is satisfied by the condition determination unit;
An information processing apparatus comprising: a display unit that displays a captured image of an imaging unit whose imaging condition has been changed by the imaging condition transmitting unit.
前記撮像部は、パン機能、チルト機能、及びズーム機能を備え、 前記撮像画像は、パン機能、チルト機能、及びズーム機能によって撮像可能な範囲に対応する画像であり、
前記設定値記憶手段は、パン機能、チルト機能、及びズーム機能の設定値を記憶すること
を特徴とする請求項1に記載の情報処理装置。
The imaging unit includes a pan function, a tilt function, and a zoom function, and the captured image is an image corresponding to a range that can be captured by a pan function, a tilt function, and a zoom function,
2. The information processing apparatus according to claim 1, wherein the setting value storage unit stores setting values of a pan function, a tilt function, and a zoom function.
前記設定値記憶手段は、前記条件判断手段により所定の条件を満たすと判断された場合に、前記ズーム機能を拡大指示する設定値を記憶することを特徴とする請求項2に記載の情報処理装置。   3. The information processing apparatus according to claim 2, wherein the setting value storage unit stores a setting value for instructing to enlarge the zoom function when the condition determining unit determines that a predetermined condition is satisfied. . 前記設定値記憶手段は、前記条件判断手段により所定の条件を満たすと判断された場合に、前記ズーム機能を縮小指示する設定値を記憶することを特徴とする請求項2または3に記載の情報処理装置。   4. The information according to claim 2, wherein the setting value storage unit stores a setting value for instructing to reduce the zoom function when the condition determining unit determines that a predetermined condition is satisfied. Processing equipment. ユーザから前記条件判断手段の所定の条件の入力を受け付ける入力受付手段と、
前記条件判断手段の所定の条件を記憶する条件記憶手段と
を有することを特徴とする請求項1乃至4に記載の情報処理装置。
Input receiving means for receiving an input of a predetermined condition of the condition determining means from a user,
The information processing apparatus according to claim 1, further comprising a condition storage unit configured to store a predetermined condition of the condition determination unit.
前記条件判断手段は、前記撮像画像の顔検出の数が所定の条件を満たすか判断することを特徴とする請求項1乃至5に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the condition determination unit determines whether the number of face detections of the captured image satisfies a predetermined condition. 前記条件判断手段は、前記撮像部に付属する集音部から取得される音声が所定の条件を満たすか判断することを特徴とする請求項1乃至5に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the condition determination unit determines whether a sound acquired from a sound collection unit attached to the imaging unit satisfies a predetermined condition. 前記撮像部で撮像された撮像画像を撮像部もしくは通信可能な情報処理装置に録画指示する録画指示手段
を有することを特徴とする請求項1乃至7に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a recording instruction unit configured to instruct the imaging unit or the communicable information processing apparatus to record a captured image captured by the imaging unit.
撮像部に対する撮像条件を送信する情報処理装置を制御する制御方法であって、
前記撮像部により撮像される撮像画像により解析されるデータが所定の条件を満たすか判断する条件判断ステップと、
前記条件判断ステップにより所定の条件を満たすと判断された際に、撮像部の撮像条件を所定の撮像条件に変更する設定値を登録する設定値登録ステップと、
前記条件判断ステップにより所定の条件を満たすと判断された場合、撮像部の撮像条件を前記設定値登録ステップで登録された設定値に変更する情報として送信する撮像条件送信ステップと、
前記撮像条件送信ステップにより撮像条件を変更した撮像部の撮像画像を表示する表示制御ステップと
を有することを特徴とする制御方法。
A control method for controlling an information processing device that transmits an imaging condition to an imaging unit,
A condition determination step of determining whether data analyzed by a captured image captured by the imaging unit satisfies a predetermined condition,
A setting value registration step of registering a setting value for changing an imaging condition of the imaging unit to the predetermined imaging condition when it is determined that the predetermined condition is satisfied by the condition determination step;
An imaging condition transmitting step of transmitting, as information for changing an imaging condition of the imaging unit to the set value registered in the set value registration step, when it is determined that the predetermined condition is satisfied by the condition determining step,
A display control step of displaying a picked-up image of the image pickup unit whose image pickup condition has been changed by the image pickup condition transmitting step.
撮像部に対する撮像条件を送信する情報処理装置を、
前記撮像部により撮像される撮像画像により解析されるデータが所定の条件を満たすか判断する条件判断手段と、
前記条件判断手段により所定の条件を満たすと判断された際に、撮像部の撮像条件を所定の撮像条件に変更する設定値を記憶させる設定値記憶手段と、
前記条件判断手段により所定の条件を満たすと判断された場合、撮像部の撮像条件を前記設定値記憶手段に記憶された設定値に変更する情報として送信する撮像条件送信手段と、
前記撮像条件送信手段により撮像条件を変更した撮像部の撮像画像を表示する表示手段
として機能させるためのプログラム。

An information processing device that transmits an imaging condition to the imaging unit,
Condition determining means for determining whether data analyzed by a captured image captured by the imaging unit satisfies a predetermined condition,
A setting value storage unit configured to store a setting value for changing an imaging condition of the imaging unit to the predetermined imaging condition when it is determined that the predetermined condition is satisfied by the condition determination unit;
An imaging condition transmitting unit that transmits, as information for changing an imaging condition of an imaging unit to a set value stored in the set value storage unit, when it is determined that the predetermined condition is satisfied by the condition determination unit;
A program for functioning as a display unit that displays a captured image of an imaging unit whose imaging conditions have been changed by the imaging condition transmitting unit.

JP2018186376A 2018-10-01 2018-10-01 Information processing apparatus, control method thereof, and program Pending JP2020057901A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018186376A JP2020057901A (en) 2018-10-01 2018-10-01 Information processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186376A JP2020057901A (en) 2018-10-01 2018-10-01 Information processing apparatus, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2020057901A true JP2020057901A (en) 2020-04-09

Family

ID=70107912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186376A Pending JP2020057901A (en) 2018-10-01 2018-10-01 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2020057901A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115314630A (en) * 2022-01-24 2022-11-08 李宁 Intelligent regulating and controlling management system for wedding photo shooting and camera shooting based on image recognition and analysis technology

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115314630A (en) * 2022-01-24 2022-11-08 李宁 Intelligent regulating and controlling management system for wedding photo shooting and camera shooting based on image recognition and analysis technology

Similar Documents

Publication Publication Date Title
US11696021B2 (en) Video recording device and camera function control program
US9013604B2 (en) Video summary including a particular person
US8665345B2 (en) Video summary including a feature of interest
US10447874B2 (en) Display control device and display control method for automatic display of an image
JP5967473B2 (en) Imaging apparatus and imaging system
JP5991514B2 (en) Imaging apparatus and imaging system
WO2017092128A1 (en) Method and device for displaying preview image
JP2013013063A (en) Imaging apparatus and imaging system
JP5837922B2 (en) Ranking key video frames based on camera position
US9143682B2 (en) Image capturing apparatus, method, and recording medium capable of continuously capturing object
JP4992215B2 (en) Imaging apparatus and program
US9374525B2 (en) Shooting apparatus and shooting method
JP2020057901A (en) Information processing apparatus, control method thereof, and program
US20190198058A1 (en) Image recording control apparatus, image recording method, recording medium storing image recording program, image pickup apparatus, and image recording control system
US11595565B2 (en) Image capturing apparatus, method for controlling the same, and recording medium for automatic image capturing of a subject
US20230345107A1 (en) Imaging apparatus, information processing apparatus, information processing method, and program
WO2023062911A1 (en) Electronic apparatus, control method, program, and storage medium
JP2012129854A (en) Imaging apparatus and program
WO2020066316A1 (en) Photographing apparatus, photographing method, and program
JP6824061B2 (en) Imaging apparatus, control methods, programs, and storage media executed by the imaging apparatus.
JP2017135477A (en) Image managing device, image reproducing device, method for controlling the same, system, program, and storage medium
JP2015036748A (en) Imaging device, method and program for controlling imaging device
JP2012134835A (en) Imaging apparatus, control method of the same, and program
JP2017011710A (en) Imaging apparatus and imaging system
JP2016032242A (en) Imaging apparatus, imaging control method and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190115