JP2024054440A - Image output control device, image output control method, program, image output control system, and electronic equipment - Google Patents

Image output control device, image output control method, program, image output control system, and electronic equipment Download PDF

Info

Publication number
JP2024054440A
JP2024054440A JP2022160621A JP2022160621A JP2024054440A JP 2024054440 A JP2024054440 A JP 2024054440A JP 2022160621 A JP2022160621 A JP 2022160621A JP 2022160621 A JP2022160621 A JP 2022160621A JP 2024054440 A JP2024054440 A JP 2024054440A
Authority
JP
Japan
Prior art keywords
image
scene
output control
photographing
requested
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022160621A
Other languages
Japanese (ja)
Inventor
英男 鈴木
Hideo Suzuki
公靖 水野
Kimiyasu Mizuno
敬一 櫻井
Keiichi Sakurai
光喜 中村
Koki Nakamura
かれん 鈴木
Karen Suzuki
冰 于
Bing Yu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2022160621A priority Critical patent/JP2024054440A/en
Publication of JP2024054440A publication Critical patent/JP2024054440A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image output control device that allows a user to more efficiently obtain the image of a desired situation, an image output control method, a program, an image output control system, and an electronic equipment.SOLUTION: A server device (60) which is an image output control device causes a CPU (61) to execute obtaining desired requested image information (633) regarding a subject to be photographed by a photographing device via a communication unit (65) from an electronic device (30) which is an external device, detecting a scene specified by the requested image information (633) from the acquired captured image, and obtaining the image of the detected scene with the shooting settings specified by the requested image information (633).SELECTED DRAWING: Figure 2

Description

この発明は、画像出力制御装置、画像出力制御方法、プログラム、画像出力制御システム及び電子機器に関する。 This invention relates to an image output control device, an image output control method, a program, an image output control system, and electronic equipment.

従来、室内などに設置した監視カメラや見守りカメラなどにより、移動する被写体であるペット、老人や幼児などの撮影画像を個人端末などに送信する技術がある。これにより、ユーザが遠隔で被写体の状態を確認したりしぐさや表情などを楽しんだりすることができる。 Conventionally, there is technology that transmits images of moving subjects such as pets, elderly people, and small children captured by surveillance cameras or monitoring cameras installed indoors to personal devices. This allows users to remotely check the subject's condition and enjoy watching their behavior and expressions.

また、引用文献1には、ペットが当該特定エリアで停滞した回数を計数する技術が開示されている。また、上記ペットの体温を熱源として赤外線センサで検出し、当該熱源の位置を撮影可能にカメラを動作させる技術が開示されている。 Cited Document 1 also discloses a technology that counts the number of times a pet remains in a specific area. It also discloses a technology that uses an infrared sensor to detect the pet's body temperature as a heat source and operates a camera to capture the position of the heat source.

特開2021-111904号公報JP 2021-111904 A

しかしながら、赤外線センサで追尾するだけでは、被写体の状態を識別できない。ユーザは常に画像を見ることはできないので、効率的に所望の状況を視聴することができるわけではないという課題がある。 However, tracking with an infrared sensor alone is not enough to identify the state of the subject. Because users cannot view the image at all times, there is an issue that they cannot efficiently view the desired situation.

この発明の目的は、より効率的に被写体の所望の状況の画像を得ることのできる画像出力制御装置、画像出力制御方法、プログラム、画像出力制御システム及びそのための電子機器を提供することにある。 The object of this invention is to provide an image output control device, an image output control method, a program, an image output control system, and electronic devices therefor that can more efficiently obtain an image of a subject in a desired state.

上記目的を達成するため、本発明は、
撮影機器により撮影される被写体に係る所望の要求画像情報を外部機器から取得する取得部と、
取得した撮影画像から前記要求画像情報で指定された場面を検出し、当該場面の画像を前記要求画像情報で指定された撮影設定で得るための処理を行う制御部と、
を備える画像出力制御装置である。
In order to achieve the above object, the present invention provides
an acquisition unit that acquires desired requested image information related to a subject photographed by the photographing device from an external device;
a control unit that detects a scene specified by the requested image information from the acquired photographed image and performs processing to obtain an image of the scene with a photographing setting specified by the requested image information;
The image output control device includes:

本発明に従うと、より効率的に被写体の所望の状況の画像をユーザに提供することができるという効果がある。 The present invention has the advantage of being able to provide the user with an image of the subject in the desired condition more efficiently.

本実施形態の画像配信システムのシステム構成を示す図である。1 is a diagram showing a system configuration of an image delivery system according to an embodiment of the present invention. サーバ装置と電子機器の機能構成を示すブロック図である。FIG. 2 is a block diagram showing functional configurations of a server device and an electronic device. 電子機器、サーバ装置、支持機構及び撮影機器の間での通信及び動作の流れを説明するシーケンス図である。1 is a sequence diagram illustrating the flow of communication and operations between an electronic device, a server device, a support mechanism, and an image capturing device. 電子機器で設定、記憶される指定場面に係る要求画像情報の一例を示す図表である。10 is a table showing an example of requested image information related to a designated scene that is set and stored in the electronic device. 指定場面の検出と撮影設定の例について説明する図である。11A and 11B are diagrams illustrating an example of detection of a specified scene and shooting settings. 指定場面の検出と撮影設定の例について説明する図である。11A and 11B are diagrams illustrating an example of detection of a specified scene and shooting settings. サーバ装置で実行される画像出力制御処理のフローチャートである。13 is a flowchart of an image output control process executed by the server device. 電子機器で実行される画像表示制御処理のフローチャートである。13 is a flowchart of an image display control process executed by the electronic device.

以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本実施形態の画像配信システム100のシステム構成を示す図である。
この画像配信システム100(画像出力制御システム)は、撮影機器80と、サーバ装置60(画像出力制御装置、コンピュータ)と、アクセスポイント50と、電子機器30(外部機器)と端末装置10などを含む。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing the system configuration of an image delivery system 100 according to the present embodiment.
This image distribution system 100 (image output control system) includes a photographing device 80, a server device 60 (image output control device, computer), an access point 50, an electronic device 30 (external device), a terminal device 10, and the like.

撮影機器80は、ここでは、動画撮影が可能なデジタルカメラであるが、継続的に静止画像を撮影するものであってもよい。撮影機器80は、通信部と制御部とを有する。制御部は、通信部を介して外部、ここではサーバ装置60へ撮影画像(動画又は継続的な静止画像;撮影動画)を略リアルタイムで送信する。撮影機器80は、ここでは、拡大率(視野角)の変更(ズーム動作)が可能である。制御部は、サーバ装置60から入力された制御信号に従って上記ズーム動作を行うことができる。撮影画像(主に上記動画データ)は、音声データを伴っていてもよいし、画像のみであってもよい。以下で「視聴する」との記載には、ユーザが撮影画像のみを見ることができる場合も含む。撮影機器80は、支持機構70に支持されている。 The photographing device 80 here is a digital camera capable of taking video, but may also be capable of continuously taking still images. The photographing device 80 has a communication unit and a control unit. The control unit transmits the captured images (video or continuous still images; captured video) to the outside, here the server device 60, via the communication unit in approximately real time. The photographing device 80 here is capable of changing the magnification (field of view) (zooming operation). The control unit can perform the zooming operation in accordance with a control signal input from the server device 60. The captured image (mainly the video data) may be accompanied by audio data, or may be only an image. In the following description, the term "view" includes the case where the user can only view the captured image. The photographing device 80 is supported by a support mechanism 70.

支持機構70は、可動部と、可動部を動作させる駆動部と、駆動部の動作を制御する制御部と、を備える。支持機構70は、制御部の制御に基づいて駆動部により可動部が動作することで、撮影機器80の位置や向き(視野)を変更可能である。すなわち支持機構70は、例えば、撮影機器80をレール上で平行移動させたり、ある軸の回りを回転移動させたりすることができてもよい。撮影機器80及び支持機構70(制御部)は、それぞれインターネット通信回線を介してサーバ装置60に接続されている。撮影機器80及び支持機構70は、それぞれ複数あってもよい。 The support mechanism 70 includes a movable part, a drive part that operates the movable part, and a control part that controls the operation of the drive part. The support mechanism 70 can change the position and orientation (field of view) of the photographic device 80 by operating the movable part with the drive part based on the control of the control part. That is, the support mechanism 70 may be capable of, for example, moving the photographic device 80 in parallel on a rail or rotating it around a certain axis. The photographic device 80 and the support mechanism 70 (control part) are each connected to the server device 60 via an Internet communication line. There may be multiple photographic devices 80 and multiple support mechanisms 70.

サーバ装置60は、撮影機器80及び支持機構70の動作を制御する。サーバ装置60は、撮影機器80から撮影データを取得し、必要に応じて解析、編集及び記憶する。サーバ装置60は、インターネット通信回線、アクセスポイント50や無線LANなどを介して電子機器30と通信接続が可能である。なお、サーバ装置60は、外部の配信サーバなどに接続されていてもよい。 The server device 60 controls the operation of the photographing equipment 80 and the support mechanism 70. The server device 60 acquires photographing data from the photographing equipment 80, and analyzes, edits, and stores the data as necessary. The server device 60 can be connected to the electronic device 30 via an Internet communication line, an access point 50, a wireless LAN, or the like. The server device 60 may also be connected to an external distribution server, etc.

アクセスポイント50は、プロバイダの基地局や各家庭のルータなどであり、インターネットやLANに係る通信経路を制御する。 The access point 50 may be a provider's base station or a home router, and controls communication paths related to the Internet and LAN.

電子機器30は、特には限られないが携帯型の装置であって、例えば、スマートフォンである。電子機器30は、サーバ装置60を経由して、撮影場所から遠隔位置で撮影機器80の撮影画像を取得して表示することができる。また、電子機器30は、サーバ装置60に対して、視聴したい場面(指定された場面。指定場面)やその際の撮影に係る設定についての要求情報を生成して送信することができる。 The electronic device 30 is a portable device, such as a smartphone, but is not limited to such a device. The electronic device 30 can acquire and display images captured by the image capture device 80 at a remote location from the shooting location via the server device 60. The electronic device 30 can also generate and transmit request information regarding the scene to be viewed (a specified scene) and the settings related to the shooting at that time to the server device 60.

視聴したい場面、すなわち検出条件としては、例えば、撮影装置80により撮影されるペット(動く被写体。ただし必ずしも想定通りには動かないもの)が特定の動作(遊び、食事、いたずらなど)をしている場面などが挙げられる。また、複数のペットがいる場合には、特定のペットに限定してもよい。あるいは、ペットごとに注目対象の動作が個別に設定されていてもよい。撮影に係る設定(指定された撮影設定)は、撮影構図の設定条件である。構図としては、単純なアップなどの他、撮影機器80の移動や、複数台の撮影機器80からの画像選択などによる撮影アングル(位置、向き)の変更なども含まれ得る。 The scenes to be viewed, i.e., the detection conditions, include, for example, scenes in which a pet (a moving subject, but which does not necessarily move as expected) photographed by the photographing device 80 is performing a specific action (playing, eating, playing pranks, etc.). In addition, if there are multiple pets, the scene may be limited to a specific pet. Alternatively, the action of interest may be set individually for each pet. The settings related to the photographing (specified photographing settings) are the setting conditions for the photographing composition. The composition may include a simple close-up, as well as moving the photographing device 80 or changing the photographing angle (position, direction) by selecting an image from multiple photographing devices 80.

端末装置10は、例えば、スマートウォッチや電子時計などである。端末装置10は、無線LANなどにより電子機器30から視聴対象の撮影画像のデータを取得、表示可能であってもよい。端末装置10は電子機器30から報知動作に係る制御信号を受信して報知動作を行うことができる。報知動作のみができればよい場合には、通信接続は無線LANよりも通信速度が低いものであってもよい。例えば、端末装置10は、ブルートゥース(登録商標)などにより電子機器30と通信が可能であってもよい。なお、端末装置10が電子機器30に接続されていない場合には、電子機器30が直接報知動作を行うことが可能であってもよい。 The terminal device 10 is, for example, a smart watch or an electronic watch. The terminal device 10 may be capable of acquiring and displaying data of a captured image of a viewing target from the electronic device 30 via a wireless LAN or the like. The terminal device 10 may receive a control signal related to an alarm operation from the electronic device 30 and perform an alarm operation. If only an alarm operation is required, the communication connection may have a communication speed lower than that of a wireless LAN. For example, the terminal device 10 may be capable of communicating with the electronic device 30 via Bluetooth (registered trademark) or the like. Note that if the terminal device 10 is not connected to the electronic device 30, the electronic device 30 may be capable of performing an alarm operation directly.

図2は、サーバ装置60と電子機器30の機能構成を示すブロック図である。
図2(a)に示すサーバ装置60は、CPU61(Central Processing Unit)(制御部)と、RAM62(Random Access Memory)と、記憶部63と、通信部65と、表示部66と、操作受付部67などを備える。
FIG. 2 is a block diagram showing the functional configuration of the server device 60 and the electronic device 30. As shown in FIG.
The server device 60 shown in FIG. 2A includes a central processing unit (CPU) 61 (control unit), a random access memory (RAM) 62, a storage unit 63, a communication unit 65, a display unit 66, an operation reception unit 67, and the like.

CPU61は、演算処理を行い、サーバ装置60の動作を統括制御するプロセッサである。CPU61は、単一のプロセッサを有していてもよいし、複数のプロセッサを有して並列に又は用途などに応じて独立に動作してもよい。 The CPU 61 is a processor that performs calculations and controls the operation of the server device 60. The CPU 61 may have a single processor, or may have multiple processors that operate in parallel or independently depending on the application, etc.

RAM62は、CPU61に作業用のメモリ空間を提供し、一時データを記憶する。RAM62は、例えばDRAMであるが、これに限られない。 RAM 62 provides working memory space for CPU 61 and stores temporary data. RAM 62 is, for example, a DRAM, but is not limited to this.

記憶部63は、不揮発性メモリを有し、プログラム631、設定データや、撮影機器80から取得、編集した編集画像データ633などを記憶する。不揮発性メモリには、HDD(Hard Disk Drive)が含まれてもよい。また、不揮発性メモリは、フラッシュメモリなどを含んでもよい。記憶部63に記憶される設定データには、要求画像情報632が含まれる。なお、記憶部63は、内蔵されたものに限られない。周辺機器として外付けされたものが含まれてもよい。また、記憶部63は、ネットワークストレージやクラウドサーバなどの外部記憶装置であってもよい。 The storage unit 63 has a non-volatile memory and stores a program 631, setting data, edited image data 633 obtained from the image capture device 80 and edited, and the like. The non-volatile memory may include a HDD (Hard Disk Drive). The non-volatile memory may also include a flash memory, and the like. The setting data stored in the storage unit 63 includes requested image information 632. Note that the storage unit 63 is not limited to being built-in. It may also include an external device attached as a peripheral device. The storage unit 63 may also be an external storage device such as a network storage or a cloud server.

通信部65は、外部機器とのデータの送受信を制御する。通信部65は、インターネット回線を介した各種通信規格による通信を制御して、撮影機器80、支持機構70や電子機器30などとの間でデータのやり取りを行うことができる。
CPU61と通信部65とが本実施形態の取得部を構成している。
The communication unit 65 controls transmission and reception of data to and from external devices. The communication unit 65 controls communication according to various communication standards via an Internet line, and can exchange data with the photographing device 80, the support mechanism 70, the electronic device 30, and the like.
The CPU 61 and the communication unit 65 constitute an acquisition unit of this embodiment.

表示部66は、液晶表示画面などのデジタル表示画面を備え、CPU61の制御に基づいてデジタル表示画面への表示を行う。
操作受付部67は、キーボードやポインティングデバイスなどを有し、外部からの入力操作を受け付けて、受け付けた操作内容に応じた操作信号をCPU61へ出力する。
なお、表示部66及び操作受付部67は、サーバ装置60に取り付けられる周辺機器であってもよい。コンピュータとしてのサーバ装置60は、これら表示部66及び操作受付部67を有していなくてもよい。
The display unit 66 has a digital display screen such as a liquid crystal display screen, and displays information on the digital display screen under the control of the CPU 61 .
The operation reception unit 67 has a keyboard, a pointing device, etc., receives an input operation from outside, and outputs an operation signal according to the content of the received operation to the CPU 61.
The display unit 66 and the operation acceptance unit 67 may be peripheral devices attached to the server device 60. The server device 60 as a computer does not necessarily have to include the display unit 66 and the operation acceptance unit 67.

図2(b)に示す電子機器30は、CPU31と、RAM32と、記憶部33と、通信部34と、報知動作部35と、表示部36と、操作受付部37などを備える。 The electronic device 30 shown in FIG. 2(b) includes a CPU 31, a RAM 32, a memory unit 33, a communication unit 34, an alarm operation unit 35, a display unit 36, an operation reception unit 37, etc.

CPU31は、演算処理を行い、電子機器30の動作を統括制御するプロセッサである。CPU31は、単一のプロセッサを有していてもよいし、複数のプロセッサを有して並列に又は用途などに応じて独立に動作してもよい。 The CPU 31 is a processor that performs calculations and controls the overall operation of the electronic device 30. The CPU 31 may have a single processor, or may have multiple processors that operate in parallel or independently depending on the application, etc.

RAM32は、CPU31に作業用のメモリ空間を提供し、一時データを記憶する。RAM32は、例えばDRAMであるが、これに限られない。 RAM 32 provides working memory space for CPU 31 and stores temporary data. RAM 32 is, for example, a DRAM, but is not limited to this.

記憶部33は、不揮発性メモリを有し、プログラム331や設定データなどを記憶する。不揮発性メモリは、例えば、フラッシュメモリであるが、これに限られない。記憶部33に記憶される設定データには、要求設定332が含まれる。記憶部33には、ネットワークストレージやクラウドサーバなどの外部記憶装置がふくまれていてもよい。 The storage unit 33 has a non-volatile memory and stores a program 331, setting data, and the like. The non-volatile memory is, for example, a flash memory, but is not limited to this. The setting data stored in the storage unit 33 includes a request setting 332. The storage unit 33 may also include an external storage device such as a network storage or a cloud server.

通信部34は、外部機器とのデータの送受信を制御する。通信部34は、例えば、無線LANに係る通信規格による通信を制御して、サーバ装置60などとの間でデータのやり取りを行うことができる。また、通信部34は、他の近距離無線通信、例えば、ブルートゥースなどにより端末装置10との間でデータの送受信が可能である。 The communication unit 34 controls the transmission and reception of data with external devices. For example, the communication unit 34 controls communication according to a communication standard related to wireless LAN, and can exchange data with the server device 60, etc. The communication unit 34 can also transmit and receive data with the terminal device 10 via other short-range wireless communication, such as Bluetooth.

報知動作部35は、CPU31の制御に基づいて報知動作を行う。報知動作としては、例えば、ビープ音や効果音の発生や、振動の発生(バイブレーション)などが挙げられる。これらの報知動作のために、報知動作部35は、例えば、振動板及び圧電素子を有する音声発生部、スピーカ、振動モータ(おもり付きモータなど)を有していてもよい。 The notification operation unit 35 performs a notification operation based on the control of the CPU 31. Examples of notification operations include the generation of a beep or sound effect, and the generation of vibrations. For these notification operations, the notification operation unit 35 may have, for example, a sound generating unit having a diaphragm and a piezoelectric element, a speaker, and a vibration motor (such as a motor with a weight).

表示部36は、液晶表示画面などのデジタル表示画面を有し、CPU31の制御に基づいて画像の表示動作を行う。デジタル表示画面は、サーバ装置60から送信(ストリーミングなど)される撮影機器80の撮影画像を表示可能である。 The display unit 36 has a digital display screen such as a liquid crystal display screen, and performs image display operations under the control of the CPU 31. The digital display screen is capable of displaying images captured by the imaging device 80 that are transmitted (e.g., streamed) from the server device 60.

操作受付部37は、入力操作を受け付けて受け付けた内容に応じた操作信号をCPU31へ出力する。操作受付部37は、例えば、デジタル表示画面に重なって位置するタッチパネルを有する。また、操作受付部37は、押しボタンスイッチなどを有していてもよい。
なお、表示部36及び操作受付部37は、電子機器30に取り付けられる(近距離無線通信などによる接続を含む)周辺機器であってもよい。
The operation reception unit 37 receives an input operation and outputs an operation signal corresponding to the received operation to the CPU 31. The operation reception unit 37 has, for example, a touch panel located on top of a digital display screen. The operation reception unit 37 may also have a push button switch or the like.
The display unit 36 and the operation reception unit 37 may be peripheral devices attached to the electronic device 30 (including connection via short-range wireless communication, etc.).

次に、本実施形態の画像出力制御について説明する。
本実施形態のサーバ装置60は、電子機器30から送られた所望の場面(指定場面)の所望の構図(撮影位置や視野範囲)などの撮影設定での画像に係る要求(要求画像情報)を取得する。要求画像情報は、電子機器30においてユーザが操作受付部37への入力操作により生成されてもよい。あるいは、要求画像情報は、端末装置10により生成されたものが電子機器30に送信されて、電子機器30に記憶保持されてもよい。さらに、複数の要求画像情報が電子機器30により記憶保持され、操作受付部37への入力操作により、又は端末装置10から受信した要求に応じて、いずれかが選択されてもよい。サーバ装置60は、選択された要求画像情報が取得されてもよい。サーバ装置60は、撮影機器80が撮影画像を取得し、当該撮影画像から上記場面を検出する。画像の検出は、周知の画像認識技術により行われてもよい。画像認識技術には、機械学習モデルを利用するものが含まれる。機械学習モデルのアルゴリズムとしては、ディープラーニングを用いたニューラルネットワーク、例えば、畳み込みニューラルネットワーク(CNN)などが挙げられるが、これに限られるものではない。
Next, the image output control of this embodiment will be described.
The server device 60 of the present embodiment acquires a request (requested image information) related to an image in a shooting setting such as a desired composition (shooting position and field of view range) of a desired scene (designated scene) sent from the electronic device 30. The requested image information may be generated by a user's input operation to the operation reception unit 37 in the electronic device 30. Alternatively, the requested image information may be generated by the terminal device 10 and transmitted to the electronic device 30, and stored and held in the electronic device 30. Furthermore, a plurality of requested image information may be stored and held by the electronic device 30, and one of the requested image information may be selected by an input operation to the operation reception unit 37 or in response to a request received from the terminal device 10. The server device 60 may acquire the selected requested image information. The server device 60 detects the above-mentioned scene from the captured image by the photographing device 80. The detection of the image may be performed by a well-known image recognition technology. The image recognition technology includes one that utilizes a machine learning model. An algorithm of the machine learning model may be a neural network using deep learning, for example, a convolutional neural network (CNN), but is not limited thereto.

ペットの種別とその動き程度であれば、一般的な学習済モデルを適用することが可能であり、電子機器30及びサーバ装置60のユーザに特化した学習である必要はない。汎用の学習済モデルなどが外部機器から取得され、定期的に更新されてもよい。一方で、ユーザの有する特定のペットの個体を識別する必要がある場合や、当該固体に特定の行為を識別する必要がある場合などは、これらの個体(例えば、サイズ、色、毛並み、首輪、その他細かい特徴など)を識別するための機械学習が必要である。ユーザが予め撮影済の画像に対して固体の識別情報を示す教師データを準備して学習に利用させることができる。機械学習モデルの学習は、周知の技術に従って行われればよいので、詳しい説明を省略する。 If the type of pet and its movements are the only issue, a general trained model can be applied, and there is no need for the training to be specific to the user of the electronic device 30 and the server device 60. A general-purpose trained model, etc., may be acquired from an external device and updated periodically. On the other hand, if it is necessary to identify a specific individual pet owned by a user, or to identify a specific behavior of the individual, machine learning is required to identify these individuals (e.g., size, color, coat, collar, and other detailed features). The user can prepare training data indicating individual identification information for images captured in advance and use it for training. Training of the machine learning model can be performed according to well-known techniques, so a detailed explanation will be omitted.

サーバ装置60は、所望の場面が検出されると、その場面に応じた撮影設定で撮影するための調整動作を撮影機器80及び/又は支持機構70に要求する。撮影機器80や支持機構70の動作だけでは、所望の撮影設定による画像が得られない場合には、サーバ装置60が画像処理を行ってもよい。例えば、サーバ装置60は、取得した画像から上記撮影設定に合うように画像の一部分をトリミングして拡大する画像処理(抜き出し処理及び拡大処理)を行う。サーバ装置は、これらの処理により指定された撮影設定で指定された場面の画像を得る。サーバ装置60は、この撮影設定での場面の撮影データを記憶保持する。これとともに、サーバ装置60は、電子機器30へ所望の場面を検出している旨を通知する。通知は、専用のアプリケーションプログラムにより行われてもよいし、一般的なSNS(Social Networking Service)やプッシュメールなどを介して行われてもよい。電子機器30は、受信した通知情報を受けて、自機のユーザへの報知動作を行う。ユーザは、報知動作に応じてサーバ装置60へ画像を送信要求することができる。サーバ装置60は、画像の送信要求を受けて、電子機器30へ撮影中の画像を略リアルタイムで配信する。また、電子機器30は、サーバ装置60に過去に撮影、保存(記憶)された場面の画像(保管画像)をサーバ装置60により配信させて視聴することができる。 When the desired scene is detected, the server device 60 requests the photographing device 80 and/or the support mechanism 70 to perform an adjustment operation to photograph the scene with a photographing setting according to the scene. If an image with the desired photographing setting cannot be obtained only by the operation of the photographing device 80 or the support mechanism 70, the server device 60 may perform image processing. For example, the server device 60 performs image processing (extraction processing and enlargement processing) to trim and enlarge a part of the acquired image to match the above-mentioned photographing setting. The server device obtains an image of the scene specified with the specified photographing setting by these processes. The server device 60 stores and holds the photographing data of the scene with this photographing setting. At the same time, the server device 60 notifies the electronic device 30 that the desired scene has been detected. The notification may be performed by a dedicated application program or may be performed via a general SNS (Social Networking Service) or push mail. The electronic device 30 performs a notification operation to the user of the device upon receiving the received notification information. The user can request the server device 60 to send an image in response to the notification operation. Upon receiving a request to transmit an image, the server device 60 transmits the image being captured to the electronic device 30 in approximately real time. The electronic device 30 can also have the server device 60 transmit images (stored images) of scenes that were captured and saved (stored) in the past, so that the electronic device 30 can view them.

図3は、電子機器30、サーバ装置60、支持機構70及び撮影機器80の間での通信のやり取り及び動作の流れを説明するシーケンス図である。 Figure 3 is a sequence diagram that explains the flow of communication and operations between the electronic device 30, the server device 60, the support mechanism 70, and the imaging device 80.

電子機器30では、所望の撮影場面についての要求を設定し、当該設定をサーバ装置60へ送信する。サーバ装置60では、この要求に係る設定を記憶保持する。一方、撮影機器80及び支持機構70は、基本構図で撮影するように設定して撮影機器80による撮影を開始する。撮影された画像は、サーバ装置60へ送信される。 The electronic device 30 sets a request for the desired shooting scene and transmits the setting to the server device 60. The server device 60 stores and holds the setting related to the request. Meanwhile, the photographing device 80 and the support mechanism 70 are set to shoot with the basic composition, and shooting by the photographing device 80 is started. The captured image is transmitted to the server device 60.

サーバ装置60は、記憶した要求設定にしたがって、指定場面の検出動作を開始する。ここでは、既に要求内容を検出可能に機械学習モデルなどが学習されているものとする。サーバ装置60は、検出動作により指定場面が検出されていない場合の撮影画像を即座に又は若干の時間経過後に消去(削除)してもよい。指定場面が検出されると、サーバ装置60は、当該指定場面に応じた構図変更などの撮影設定を支持機構70及び/又は撮影機器80へ送信する。サーバ装置60は、取得した撮影画像を記憶部63に記憶(録画)させる。このとき、サーバ装置60は、必要に応じて撮影画像を更に編集してもよい。編集には、トリミングや拡大縮小などが含まれ得る。 The server device 60 starts the detection operation of the specified scene according to the stored request settings. Here, it is assumed that a machine learning model or the like has already been trained to be able to detect the request content. The server device 60 may erase (delete) the captured image immediately or after a short period of time when the specified scene is not detected by the detection operation. When the specified scene is detected, the server device 60 transmits the capture settings such as a composition change according to the specified scene to the support mechanism 70 and/or the photographing equipment 80. The server device 60 stores (records) the acquired captured image in the storage unit 63. At this time, the server device 60 may further edit the captured image as necessary. Editing may include cropping, zooming, etc.

一方で、サーバ装置60は、電子機器30に対して要求設定に応じた映像を検出した旨を通知する。電子機器30は、この通知を受けて、報知動作部35や表示部36による報知動作を行う。 On the other hand, the server device 60 notifies the electronic device 30 that an image corresponding to the requested setting has been detected. Upon receiving this notification, the electronic device 30 performs a notification operation using the notification operation unit 35 and the display unit 36.

電子機器30は、操作受付部37がユーザなどからの画像閲覧要求に係る操作を受け付けると、サーバ装置60に対して撮影中の画像の送信要求を送信する。サーバ装置60は、送信要求を受けると、電子機器30に対して撮影中の画像(編集されている場合には編集済の画像)を配信する。 When the operation reception unit 37 of the electronic device 30 receives an operation related to an image viewing request from a user or the like, the electronic device 30 transmits a transmission request for the image being captured to the server device 60. When the server device 60 receives the transmission request, it delivers the image being captured (or the edited image if it has been edited) to the electronic device 30.

サーバ装置60では、指定場面の検出が続けられ、被写体が移動している場合には、適宜撮影機器80及び/又は支持機構70へ構図の変更に係る制御信号を送信する。指定場面の検出がなくなる(終了する)と、サーバ装置60は、撮影機器80及び/又は支持機構70へ基本構図への復帰動作を行わせる信号を送信する。サーバ装置60は、画像の記憶(録画)を終了し、適宜な名称又は検出した指定場面の情報とともにアーカイブデータ(保管データ)として編集画像データ633に記憶、保存する。サーバ装置60から電子機器30への画像送信も終了してもよい。 The server device 60 continues to detect the specified scene, and if the subject is moving, transmits a control signal to the photographing equipment 80 and/or the support mechanism 70 as appropriate to change the composition. When detection of the specified scene is no longer (ended), the server device 60 transmits a signal to the photographing equipment 80 and/or the support mechanism 70 to cause them to return to the basic composition. The server device 60 ends the storage (recording) of the image, and stores and saves it in the edited image data 633 as archive data (stored data) together with an appropriate name or information on the detected specified scene. Image transmission from the server device 60 to the electronic device 30 may also end.

電子機器30は、指定場面の検出に係る通知を受けていない状況であっても、編集画像データ633に保存されているデータから任意のものをサーバ装置60から配信させることができる。サーバ装置60は、呼び出し対象のデータを指定した送信要求が受信されると、当該呼び出し対象のデータを編集画像データ633から読み出して電子機器30へ配信する。 Even if the electronic device 30 has not received notification of the detection of a specified scene, the electronic device 30 can cause the server device 60 to distribute any data stored in the edited image data 633. When the server device 60 receives a transmission request specifying data to be called, the server device 60 reads the data to be called from the edited image data 633 and distributes it to the electronic device 30.

図4は、電子機器30で設定、記憶される指定場面に係る要求画像情報632の一例を示す図表である。例えば、第1の設定では、ペットA(例えば、犬)が何か(例えば、噛むためのおもちゃ、噛まれては困る人形、椅子の脚など)を噛んでいる場面が検出対象の一つとされる。この場合の撮影設定として、噛んでいる対象を含んで顔付近を拡大するように定められている。すなわち、画像の拡大率は、被写体やその位置、向き、姿勢などの種々の状況に応じて個々に異なるので、サーバ装置60は、検出結果に応じて随時拡大率を設定する。 Figure 4 is a chart showing an example of requested image information 632 relating to a specified scene set and stored in electronic device 30. For example, in the first setting, a scene in which pet A (e.g., a dog) is biting something (e.g., a toy to chew, a doll that should not be chewed, a chair leg, etc.) is set as one of the detection targets. The shooting setting in this case is set to enlarge the face area including the object being bitten. In other words, since the image enlargement ratio differs individually depending on various conditions such as the subject and its position, orientation, and posture, server device 60 sets the enlargement ratio as needed depending on the detection result.

また、第2の設定では、ペットAが走って(ある速度以上での移動を含む)移動する場面を検出対象とする。この場合には、ペットAの走行方向にスペースを確保しながら(例えば、画面の半分程度など)、残りの範囲にペットAが含まれるように拡大率の調整を行うように撮影設定が定められている。 In addition, in the second setting, the detection target is a scene in which pet A is running (including moving at a certain speed or faster). In this case, the shooting setting is determined so that space is secured in the direction in which pet A is running (e.g., about half the screen), and the magnification is adjusted so that pet A is included in the remaining range.

また、第3の設定では、例えば、ペットB(例えば、猫)が壁Rを引っ掻いている(爪とぎ)場面が検出対象とされる。この場面が検出された場合には、ペットBだけではなく、壁Rの幅を全部収めるような拡大率で画像を編集、記憶する。 In addition, in the third setting, for example, a scene in which a pet B (e.g., a cat) is scratching (scratching) a wall R is detected. When this scene is detected, the image is edited and stored at a magnification that includes not only the pet B but also the entire width of the wall R.

これらのように、指定場面は1通りに限られなくてもよい。サーバ装置60は、いずれの指定場面であるかを電子機器30に通知してもよい。これを受けて、電子機器30は、検出されている指定場面に応じて異なる報知動作を行ってもよい。 As such, the designated scene does not have to be limited to one. The server device 60 may notify the electronic device 30 of which designated scene it is. In response, the electronic device 30 may perform a different notification operation depending on the detected designated scene.

図5及び図6は、指定場面の検出と撮影設定の例について説明する図である。
図5(a)に示すように、基本状態では、被写体のペットP1などがなるべく視野内に入るように広い範囲Z0を撮影しておくことができる。ここでは、ペットP1は睡眠中であり、指定場面には該当しない。
5 and 6 are diagrams for explaining examples of detection of a specified scene and shooting settings.
5A, in the basic state, a wide range Z0 can be captured so that the subject pet P1 and the like are included in the field of view as much as possible. Here, the pet P1 is sleeping, and does not fall under the designated scene.

図5(b)に示すように、ペットP1が起きだして骨型のおもちゃBを噛み出すと、サーバ装置60は、撮影画像から指定場面1を検出する。サーバ装置60から範囲Z1を拡大して撮影するように支持機構70及び/又は撮影機器80へ制御信号(要求)が送信される。 As shown in FIG. 5(b), when the pet P1 wakes up and begins to bite the bone-shaped toy B, the server device 60 detects the designated scene 1 from the captured image. The server device 60 transmits a control signal (request) to the support mechanism 70 and/or the image capture device 80 to enlarge the range Z1 and capture the image.

図6(a)に示すように、ペットP1が歩き出すと、サーバ装置60は、撮影画像から指定場面2を検出する。サーバ装置60は、ペットP1の進行方向に幅を持たせた拡大範囲Z2を視野範囲とするように支持機構70及び/又は撮影機器80へ構図変更の制御信号(要求)が送信される。 As shown in FIG. 6(a), when the pet P1 starts walking, the server device 60 detects the designated scene 2 from the captured image. The server device 60 transmits a control signal (request) to the support mechanism 70 and/or the photographing device 80 to change the composition so that the enlarged range Z2, which has a width in the direction of movement of the pet P1, becomes the field of view.

図6(b)に示すように、ペットP2が壁Rを引っ掻き始めると、サーバ装置60は、撮影画像から指定場面3を検出する。サーバ装置60は、ペットP2と、当該ペット2が引っ掻いている壁Rとを含む拡大範囲Z3を視野とするように支持機構70及び/又は撮影機器80へ構図変更の制御信号(要求)を送信する。 As shown in FIG. 6(b), when pet P2 starts scratching wall R, server device 60 detects designated scene 3 from the captured image. Server device 60 transmits a control signal (request) for changing the composition to support mechanism 70 and/or image capture device 80 so that enlarged range Z3 including pet P2 and wall R that pet P2 is scratching is in the field of view.

図7は、本実施形態のサーバ装置60で実行される画像出力制御処理のCPU61による制御手順を示すフローチャートである。この画像出力制御処理は、例えば、操作受付部67への入力操作などに応じて開始されて継続的に実行される。 Figure 7 is a flowchart showing the control procedure by the CPU 61 of the image output control process executed by the server device 60 of this embodiment. This image output control process is started in response to, for example, an input operation to the operation reception unit 67, and is executed continuously.

画像出力制御処理が開始されると、CPU61は、検出対象の指定場面に係る要求設定を取得する(ステップS601;取得手段)。既に電子機器30から要求設定332を取得済の場合には、CPU61は、要求画像情報632を読み出す。あるいは、CPU61は、電子機器30から新たな要求設定332を受信して、要求画像情報632に記憶させる。CPU61は、撮影機器80から画像の受信を開始し、受信した画像から要求設定に含まれる指定場面を検出する処理を開始する(ステップS602)。 When the image output control process is started, the CPU 61 acquires the requested settings related to the specified scene to be detected (step S601; acquisition means). If the requested settings 332 have already been acquired from the electronic device 30, the CPU 61 reads out the requested image information 632. Alternatively, the CPU 61 receives new requested settings 332 from the electronic device 30 and stores them in the requested image information 632. The CPU 61 starts receiving images from the photographing device 80, and starts the process of detecting the specified scene included in the requested settings from the received images (step S602).

CPU61は、撮影画像から指定場面を検出したか否かを判別する(ステップS603)。指定場面を検出していないと判別された場合には(ステップS603で“NO”)、CPU61の処理は、ステップS615へ移行する。 The CPU 61 determines whether or not the designated scene has been detected from the captured image (step S603). If it is determined that the designated scene has not been detected (step S603: NO), the CPU 61 proceeds to step S615.

撮影画像から指定場面を検出したと判別された場合には(ステップS603で“YES”)、CPU61は、指定場面の検出が前回からの継続であるか否かを判別する(ステップS604)。前回からの継続であると判別された場合には(ステップS604で“YES”)、CPU61の処理は、ステップS609へ移行する。 If it is determined that the designated scene has been detected from the captured image ("YES" in step S603), the CPU 61 determines whether the detection of the designated scene is a continuation from the previous detection (step S604). If it is determined that the detection is a continuation from the previous detection ("YES" in step S604), the processing of the CPU 61 proceeds to step S609.

指定場面の検出が前回からの継続ではない(検出開始時である)と判別された場合には(ステップS604で“NO”)、CPU61は、検出した指定場面に応じた撮影設定を撮影機器80及び/又は支持機構70へ送信する(ステップS605)。 If it is determined that the detection of the designated scene is not a continuation from the previous detection (detection has started) ("NO" in step S604), the CPU 61 transmits the shooting settings corresponding to the detected designated scene to the shooting device 80 and/or the support mechanism 70 (step S605).

CPU61は、受信した撮影画像の編集が必要であるか否かを判別する(ステップS606)。例えば、CPU61は、撮影機器80による光学ズームだけでは被写体を十分なサイズで得られず、トリミング及び部分拡大(光学ズーム)が必要か否かを判断する。撮影画像の編集が必要であると判別された場合には(ステップS606で“YES”)、CPU61は、撮影画像の編集を開始する(ステップS607)。それから、CPU61の処理は、ステップS608へ移行する。撮影画像の編集が必要ではないと判別された場合には(ステップS606で“NO”)、CPU61の処理は、ステップS608へ移行する。
ステップS602~S607の処理が本実施形態の処理手段を構成する。
The CPU 61 determines whether or not editing of the received photographed image is necessary (step S606). For example, the CPU 61 determines whether or not the subject cannot be captured in a sufficient size by the optical zoom of the photographing device 80 alone, and whether or not trimming and partial enlargement (optical zoom) are necessary. If it is determined that editing of the photographed image is necessary ("YES" in step S606), the CPU 61 starts editing of the photographed image (step S607). Then, the processing of the CPU 61 proceeds to step S608. If it is determined that editing of the photographed image is not necessary ("NO" in step S606), the processing of the CPU 61 proceeds to step S608.
The processes in steps S602 to S607 constitute the processing means of this embodiment.

ステップS608の処理へ移行すると、CPU61は、電子機器30へ指定場面の検出を通知する(ステップS608)。それから、CPU61の処理は、ステップS609へ移行する。 When the process proceeds to step S608, the CPU 61 notifies the electronic device 30 of the detection of the specified scene (step S608). Then, the process proceeds to step S609.

ステップS609の処理へ移行すると、CPU61は、電子機器30から画像の送信要求を受信したか否かを判別する(ステップS609)。送信要求を受信したと判別された場合には(ステップS609で“NO”)、CPU61は、電子機器への画像の送信(配信)を開始する(ステップS610)。それから、CPU61の処理は、ステップS611へ移行する。送信要求を受信していないと判別された場合(既に受信要求を受信して電子機器30への画像配信を開始済の場合を含む)には(ステップS610で“NO”)、CPU61の処理は、ステップS611へ移行する。 When the process proceeds to step S609, the CPU 61 determines whether or not an image transmission request has been received from the electronic device 30 (step S609). If it is determined that a transmission request has been received (step S609: NO), the CPU 61 starts transmitting (delivering) the image to the electronic device (step S610). Then, the process proceeds to step S611. If it is determined that a transmission request has not been received (including the case where a reception request has already been received and image delivery to the electronic device 30 has already started) (step S610: NO), the process proceeds to step S611.

ステップS611の処理へ移行すると、CPU61は、指定場面の検出が終了したか否かを判別する(ステップS611)。CPU61は、指定場面の検出が瞬間的になされていない画像を検出するだけではなく、継続的に基準時間以上指定場面の検出がなされていない場合に、検出が終了したと判別してもよい。指定場面の検出が終了していないと判別された場合には(ステップS611で“NO”)、CPU61の処理は、ステップS615へ移行する。 When the process proceeds to step S611, the CPU 61 determines whether or not detection of the designated scene has ended (step S611). The CPU 61 may determine that detection has ended when the designated scene has not been detected continuously for a reference time or longer, rather than only detecting an image in which the designated scene has not been detected momentarily. If it is determined that detection of the designated scene has not ended ("NO" in step S611), the process proceeds to step S615.

指定場面の検出が終了したと判別された場合には(ステップS611で“YES”)、CPU61は、電子機器30への画像の送信(配信)を中止する(ステップS612)。CPU61は、受信画像の編集を終了し、指定場面が検出されていた間の撮影画像をアーカイブ画像として編集画像データ633に記憶させる(ステップS613)。CPU61は、撮影機器80及び/又は支持機構70へ基本構図へ戻す命令を送信する(ステップS614)。それから、CPU61の処理は、ステップS615へ移行する。 When it is determined that the detection of the specified scene has ended ("YES" in step S611), the CPU 61 stops sending (delivering) images to the electronic device 30 (step S612). The CPU 61 ends editing of the received images, and stores the images captured while the specified scene was being detected as archive images in the edited image data 633 (step S613). The CPU 61 transmits a command to the photographing device 80 and/or the support mechanism 70 to return to the basic composition (step S614). Then, the processing of the CPU 61 proceeds to step S615.

ステップS615の処理へ移行すると、CPU61は、編集画像データ633に記憶されているアーカイブ画像の送信要求を電子機器30から受信したか否かを判別する(ステップS615)。いずれかのアーカイブ画像の送信要求が受信されたと判別された場合には(ステップS615で“YES”)、CPU61は、編集画像データ633から指定された画像データを読み込んで、電子機器30への送信を開始する(ステップS616)。それから、CPU61の処理は、ステップS603へ戻る。アーカイブ画像の送信要求が受信されていないと判別された場合(既に送信中の場合を含む)には(ステップS615で“NO”)、CPU61の処理は、ステップS603へ戻る。 When the process proceeds to step S615, the CPU 61 determines whether or not a request to send an archive image stored in the edited image data 633 has been received from the electronic device 30 (step S615). If it is determined that a request to send any archive image has been received ("YES" in step S615), the CPU 61 reads the specified image data from the edited image data 633 and starts sending it to the electronic device 30 (step S616). Then, the process of the CPU 61 returns to step S603. If it is determined that a request to send an archive image has not been received (including the case where sending is already in progress) ("NO" in step S615), the process of the CPU 61 returns to step S603.

図8は、電子機器30で実行される画像表示制御処理のCPU31による制御手順を示すフローチャートである。この画像表示制御処理は、操作受付部67への入力操作に応じて開始される。サーバ装置60からの通知に応じて報知動作部35や表示部36が報知動作を行っている場合には、CPU31は、簡易な短縮操作、例えば、特定の押しボタンスイッチを一回押すだけで画像表示制御処理を起動することとしてもよい。 Figure 8 is a flowchart showing the control procedure by the CPU 31 of the image display control process executed by the electronic device 30. This image display control process is started in response to an input operation to the operation reception unit 67. When the notification operation unit 35 or the display unit 36 is performing a notification operation in response to a notification from the server device 60, the CPU 31 may start the image display control process by a simple shortcut operation, for example, by simply pressing a specific push button switch once.

CPU31は、指定場面の検出に係る報知動作に対応して本処理が起動されたか否かを判別する(ステップS301)。報知動作に対応して本処理が起動されたと判別された場合には(ステップS301で“YES”)、CPU31は、報知内容のリアルタイム画像を表示た要求対象として設定する(ステップS311)。それから、CPU31の処理は、ステップS306へ移行する。 The CPU 31 determines whether this process has been started in response to a notification action related to the detection of a specified scene (step S301). If it is determined that this process has been started in response to a notification action ("YES" in step S301), the CPU 31 sets a real-time image of the notification content as the display request target (step S311). Then, the process of the CPU 31 proceeds to step S306.

報知動作に対応した処理の起動ではないと判別された場合には(ステップS301で“NO”)、CPU31は、サーバ装置60に対して編集画像データ633に記憶されているアーカイブ画像のリストを要求する(ステップS302)。CPU31は、アーカイブ画像のリストをサーバ装置60から受信、取得して表示部36により表示させる(ステップS303)。なお、CPU31は、定期的に又は指定場面に係る通知があるごとに併せてアーカイブ画像のリストの更新データを取得してもよい。この場合には、CPU31は、取得したアーカイブ画像のリストを記憶部33から読み出して表示部36により表示させればよい。 If it is determined that the notification is not the start of processing corresponding to the notification operation (step S301: NO), the CPU 31 requests the list of archive images stored in the edited image data 633 from the server device 60 (step S302). The CPU 31 receives and acquires the list of archive images from the server device 60 and causes the display unit 36 to display it (step S303). The CPU 31 may also acquire update data for the list of archive images periodically or each time a notification related to a specified scene is issued. In this case, the CPU 31 may read out the acquired list of archive images from the storage unit 33 and cause the display unit 36 to display it.

CPU31は、いずれかのアーカイブ画像を選択する操作が受け付けられたか否かを判別する(ステップS304)。いずれかのアーカイブ画像が選択されたと判別された場合には(ステップS304で“YES”),CPU31は、選択されたアーカイブ画像を表示の要求対象として設定する(ステップS305)。それから、CPU31の処理は、ステップS306へ移行する。 The CPU 31 determines whether an operation to select any archive image has been accepted (step S304). If it is determined that any archive image has been selected ("YES" in step S304), the CPU 31 sets the selected archive image as the target for which a display request is requested (step S305). Then, the processing of the CPU 31 proceeds to step S306.

ステップS306の処理へ移行すると、CPU31は、設定した要求対象の画像の送信要求を送信する操作が受け付けられたか否かを判別する(ステップS306)。送信要求を送信する操作が受け付けられていないと判別された場合には(ステップS306で“NO”)、CPU31は、ステップS306の処理を繰り返す。 When the process proceeds to step S306, the CPU 31 determines whether or not an operation to send a transmission request for the image of the set request target has been accepted (step S306). If it is determined that an operation to send a transmission request has not been accepted (step S306: NO), the CPU 31 repeats the process of step S306.

送信要求を送信する操作が受け付けられたと判別された場合には(ステップS306で“YES”)、CPU31は、表示の要求対象の画像の送信要求をサーバ装置60に対して送信する(ステップS307)。CPU31は、サーバ装置60から画像を受信し、表示部36による表示を開始する(ステップS308)。なお、CPU31は、必要に応じて受信データを適切に表示させるための調整処理を画像データに対して行ってもよい。そして、CPU31は、画像表示制御処理を終了する。 When it is determined that the operation to send a transmission request has been accepted ("YES" in step S306), the CPU 31 sends a transmission request for the image requested to be displayed to the server device 60 (step S307). The CPU 31 receives the image from the server device 60 and starts displaying it on the display unit 36 (step S308). Note that the CPU 31 may perform adjustment processing on the image data as necessary to properly display the received data. Then, the CPU 31 ends the image display control processing.

以上のように、本実施形態の画像配信システム100における画像出力制御装置としてのサーバ装置60は、CPU61と通信部65とを備える。CPU61は、通信部65を介して電子機器30から撮影機器80により撮影される被写体に係る所望の要求画像情報を取得する。CPU61は、撮影機器80から取得した撮影画像から要求画像情報で指定された場面を検出し、当該場面の画像を要求画像情報で指定された撮影設定で得るための処理を行う。
これにより、サーバ装置60が撮影機器80及び/又は支持機構70を適切に動作させ、また、撮影画像を適切に編集することで、容易に所望の場面の画像を撮り逃さず/見逃さずに得ることができる。ユーザは、予め要求設定332を定めさえすればよいので、処理が効率化される。特に、ユーザは、ずっと監視している必要がなく、また、遠隔で通信環境などを気にしながら操作する必要もないので、手間がかからない。したがって、このサーバ装置60は、より効率的に所望の状況の画像を得ることができる。
As described above, the server device 60 serving as an image output control device in the image distribution system 100 of this embodiment includes the CPU 61 and the communication unit 65. The CPU 61 acquires desired requested image information relating to a subject photographed by the photographing device 80 from the electronic device 30 via the communication unit 65. The CPU 61 detects a scene specified in the requested image information from the photographed image acquired from the photographing device 80, and performs processing for obtaining an image of the scene with the photographing settings specified in the requested image information.
As a result, the server device 60 appropriately operates the photographing equipment 80 and/or the support mechanism 70, and also appropriately edits the photographed images, so that images of desired scenes can be easily obtained without missing any. The user only needs to determine the request settings 332 in advance, so the processing is efficient. In particular, the user does not need to keep watching all the time, and does not need to operate remotely while worrying about the communication environment, so it is not time-consuming. Therefore, the server device 60 can obtain images of desired situations more efficiently.

また、撮影設定は、撮影画像の構図に係る設定を含む。CPU61は、撮影機器80及び当該撮影機器80の支持機構70のうち少なくとも一方に対し、構図(撮影位置及び視野範囲)の調整動作に係る要求を出力する処理を行う。すなわち、サーバ装置60が撮影機器80を自動かつ近くで制御するので、より小さいタイムラグで適切に構図を制御することができる。また、ユーザが直接調整する必要がないので、見落としや操作ミスなどの心配が低減され、所望の画像をより確実に得ることができる。特に、撮影範囲自体が調節されることで、撮影機器80のスペックに応じた適切な解像度の画像を得ることができる。 The shooting settings also include settings related to the composition of the captured image. The CPU 61 performs processing to output a request for adjusting the composition (shooting position and field of view range) to at least one of the photographing equipment 80 and the support mechanism 70 of the photographing equipment 80. In other words, since the server device 60 automatically and closely controls the photographing equipment 80, the composition can be appropriately controlled with a smaller time lag. In addition, since the user does not need to make direct adjustments, there is less concern about oversights and operational errors, and the desired image can be obtained more reliably. In particular, by adjusting the shooting range itself, an image with an appropriate resolution according to the specifications of the photographing equipment 80 can be obtained.

また、CPU61は、指定された場面が検出された場合に、取得された撮影画像から撮影設定に応じた部分を抜き出す処理を行う。すなわち、撮影機器80や支持機構70を調整するのに加えて又は代えて、画像データの処理によって所望の場面の画像を得てもよい。このような処理を行うことでも、サーバ装置60は、ユーザ所望の場面を所望の撮影設定に応じた画像を得ることができる。 When a specified scene is detected, the CPU 61 performs processing to extract a portion of the captured image that corresponds to the shooting settings. That is, in addition to or instead of adjusting the photographing equipment 80 and the support mechanism 70, an image of the desired scene may be obtained by processing the image data. By performing such processing, the server device 60 can obtain an image of the user's desired scene that corresponds to the desired shooting settings.

また、CPU61は、抜き出した画像部分のサイズに応じた撮影画像の拡大処理を行ってもよい。画像のサイズを同一程度に維持することで、ユーザに見やすい画像を得ることができる。 The CPU 61 may also enlarge the captured image according to the size of the extracted image portion. By keeping the image size roughly the same, an image that is easy for the user to view can be obtained.

また、CPU61は、指定された場面が検出された場合に、電子機器30へ当該場面の検出を通知する信号を出力する。これにより、電子機器30のユーザは、撮影画像をリアルタイムで視聴していなくても、所望の場面が発生していることを速やかに知得することができる。 When the CPU 61 detects a specified scene, it outputs a signal to the electronic device 30 to notify the electronic device 30 of the detection of the scene. This allows the user of the electronic device 30 to quickly know that the desired scene has occurred even if the user is not viewing the captured image in real time.

また、CPU61は、指定された場面が検出されている場合であって、かつ電子機器30から撮影画像の送信要求を受信した場合には、上記処理に応じた画像を電子機器30へ出力する。上記条件を満たす場合には、先に電子機器30から何らかのアーカイブ画像の送信要求が行われ、対応するアーカイブ画像がサーバ装置60から送信されている状態で、指定された場面が検出された場合も含む。すなわち、指定された場面の検出に応じて、サーバ装置60から送信される画像が自動的にアーカイブ画像からリアルタイムの画像に切り替えられてもよい。すなわち、電子機器30から所望の場面を見たいとの要求があった場合には、当該場面をその場面に応じた撮影設定で撮影、編集された画像を速やかにユーザに対して提供することができる。したがって、ユーザが効率よく所望の画像を視聴することができる。 Furthermore, when the specified scene is detected and a request to transmit a captured image is received from the electronic device 30, the CPU 61 outputs an image corresponding to the above processing to the electronic device 30. When the above conditions are satisfied, this also includes a case where the specified scene is detected after a request to transmit an archive image has been made from the electronic device 30 and the corresponding archive image has been transmitted from the server device 60. In other words, in response to the detection of the specified scene, the image transmitted from the server device 60 may be automatically switched from an archive image to a real-time image. In other words, when a request to view a desired scene is made from the electronic device 30, an image of the scene that has been captured and edited with a capture setting corresponding to the scene can be quickly provided to the user. Therefore, the user can efficiently view the desired image.

また、サーバ装置60は、記憶部63を備える。CPU61は、上記処理に応じた画像を記憶部63の編集画像データ633にアーカイブ画像として記憶させる。電子機器30からアーカイブ画像の送信要求を受信した場合には、CPU61は、そのアーカイブ画像を記憶部63から読み出して電子機器30へ出力する。すなわち、ユーザはリアルタイムで所望の画像を視聴することができなかったとしても、好きなタイミングでこの画像をサーバ装置60から配信させて視聴することができる。また、ユーザがリアルタイムで一度見た画像であっても、多くのデータの中から探し出す必要なく、お気に入りのアーカイブ画像を繰り返し視聴することができる。 The server device 60 also includes a storage unit 63. The CPU 61 stores the image corresponding to the above processing in edited image data 633 of the storage unit 63 as an archive image. When a transmission request for an archive image is received from the electronic device 30, the CPU 61 reads the archive image from the storage unit 63 and outputs it to the electronic device 30. In other words, even if the user is unable to view a desired image in real time, the user can have the image distributed from the server device 60 and view it at any time of their choice. Furthermore, even if the user has viewed an image once in real time, the user can repeatedly view a favorite archive image without having to search for it among a large amount of data.

また、本実施形態の画像出力制御方法は、CPU61による制御動作であって、電子機器30から撮影機器80により撮影される被写体に係る所望の要求画像情報を取得し、取得した撮影画像から要求画像情報で指定された場面を検出して、当該場面の画像を要求画像情報で指定された撮影設定で得るための処理を行う。
これにより、ユーザは、予め要求設定332を定めるだけで、撮影画像を見ながら場面の発生を待ち続けることなく容易に所望の場面の画像を得ることができる。したがって、この画像出力制御方法によれば、より効率的に所望の状況の画像を得ることができる。
In addition, the image output control method of this embodiment is a control operation by the CPU 61, which obtains desired requested image information relating to a subject to be photographed by the photographing equipment 80 from the electronic device 30, detects a scene specified in the requested image information from the obtained photographed image, and performs processing to obtain an image of the scene with the photographing settings specified in the requested image information.
This allows the user to easily obtain an image of a desired scene without having to wait for the occurrence of the scene while viewing the captured image, simply by predetermining the required settings 332. Therefore, according to this image output control method, an image of a desired situation can be obtained more efficiently.

また、上記画像出力制御方法に係るプログラム631をコンピュータ(サーバ装置60)にインストールして実行させることで、容易に撮影画像からの指定場面の検出、及び検出された指定場面を撮影設定に従った撮影で行わせるための変更制御を行うことができる。よって、プログラム631によれば、効率的に所望の状況の画像を得ることができる。 In addition, by installing and executing the program 631 relating to the image output control method described above on a computer (server device 60), it is possible to easily detect a specified scene from a captured image and perform change control to capture the detected specified scene in accordance with the capture settings. Therefore, according to the program 631, an image of a desired situation can be efficiently obtained.

また、本実施形態の画像出力制御システムである画像配信システム100は、上記サーバ装置60と、電子機器30とを備える。このような画像配信システム100によれば、電子機器30から所望の撮影場面を容易に指定して、ユーザ所望の状況の画像を得ることができる。 The image delivery system 100, which is the image output control system of this embodiment, includes the server device 60 and the electronic device 30. With this image delivery system 100, the user can easily specify a desired shooting scene from the electronic device 30 and obtain an image of the user's desired situation.

また、本実施形態の外部機器である電子機器30(又は後述のように端末装置10)は、上記サーバ装置60に対して要求画像情報を出力する。この電子機器30により、容易に所望の撮影場面を得るための情報を遠隔設定することができる。 In addition, the electronic device 30 (or the terminal device 10 as described below), which is the external device in this embodiment, outputs requested image information to the server device 60. This electronic device 30 makes it easy to remotely set information for obtaining a desired shooting scene.

なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。
例えば、機械学習モデルを利用せずとも指定場面の特定が可能、例えば、エッジ検出とエッジ内の色種別などで十分であれば、必ずしも機械学習モデルを利用しなくてもよい。
The present invention is not limited to the above-described embodiment, but may be modified in various ways.
For example, if it is possible to identify a specified scene without using a machine learning model, for example, if edge detection and color classification within the edge are sufficient, then it is not necessarily necessary to use a machine learning model.

また、指定場面であるか否かの検出は、画像処理のみにより行われなくてもよい。例えば、ペットが装着している首輪などが計測部、報知部及び通信部を備えていてもよい。この計測部がペットのバイタルなどを計測し、当該バイタルの計測結果が通信部により他の情報処理装置に送信される。他の情報処理装置は、計測結果に基づいてペットの体調、活動状態や感情などを判定する。他の情報処理装置は、判定結果に応じた報知動作を報知部により行わせるように通信部へ制御信号を送信する。報知部は、制御信号に応じた報知動作、例えば、パターンや色での発光動作を行う。撮影機器80がこの発光動作を撮影して、サーバ装置60がその内容を解読してもよい。なお、発光はペットにストレスや害を与えないように行われる必要がある。したがって、発光の波長は、ペットが感知しない周波数範囲(例えば、赤外線)であってもよい。 In addition, detection of whether or not a scene is a specified scene does not have to be performed only by image processing. For example, a collar worn by a pet may be equipped with a measurement unit, a notification unit, and a communication unit. The measurement unit measures the pet's vital signs, and the measurement results of the vital signs are transmitted to another information processing device by the communication unit. The other information processing device judges the pet's physical condition, activity state, emotions, etc. based on the measurement results. The other information processing device transmits a control signal to the communication unit to cause the notification unit to perform a notification operation according to the judgment result. The notification unit performs a notification operation according to the control signal, for example, a light emission operation in a pattern or color. The photographing device 80 may photograph this light emission operation, and the server device 60 may decode the contents. Note that the light emission needs to be performed so as not to cause stress or harm to the pet. Therefore, the wavelength of the light emission may be in a frequency range that the pet cannot sense (for example, infrared light).

また、上記実施の形態では、電子機器30がスマートフォンなどの携帯型装置であり、これに対して更に端末装置10が接続されていて報知動作などを行ってもよいとしたが、これに限られない。画像表示が可能な端末装置10が直接通信回線を介してサーバ装置60に接続されてもよい。この場合、端末装置10は、電子機器30の上記機能を兼ね備えていてもよい。また、端末装置10は、電子機器30と接続されているか否かに応じて、要求画像情報に係る設定、選択を電子機器30へ送信するか、あるいはサーバ装置60へ直接送信するかを切り替えてもよい。 In the above embodiment, the electronic device 30 is a portable device such as a smartphone, to which the terminal device 10 may be further connected to perform notification operations, but this is not limited to the above. The terminal device 10 capable of displaying images may be directly connected to the server device 60 via a communication line. In this case, the terminal device 10 may also have the above functions of the electronic device 30. Furthermore, the terminal device 10 may switch between sending settings and selections related to requested image information to the electronic device 30 or directly to the server device 60 depending on whether it is connected to the electronic device 30.

また、上記の通り、撮影画像には音声データが伴われていてもよいが、これは必要な期間だけに限定されてもよい。 Also, as mentioned above, audio data may be included with the captured images, but this may be limited to only the necessary period.

また、上記実施の形態では、指定場面の発生中にユーザから撮影画像の送信要求を受けた場合には、その時点での撮影画像からリアルタイムで送信するものとして説明したが、これに限られない。指定場面の発生時からの画像を時間遅れで送信することが可能であってもよい。 In addition, in the above embodiment, when a request to transmit a captured image is received from a user while a specified scene is occurring, the captured image at that time is transmitted in real time, but this is not limited to the above. It may be possible to transmit images from the time the specified scene occurs with a time delay.

また、上記実施の形態では、指定場面の検出時から撮影画像を記憶するものとして説明したが、これに限られない。最初の検出時から規定された時間前の時刻を記憶させる撮影画像の最初の時間としてもよい。サーバ装置60は、取得した撮影画像のうち指定場面を不検出のものを規定時間が経過するまで保持し、指定場面の検出時にはある時間遡ってアーカイブ画像に含めることができる。 In addition, in the above embodiment, the captured images are stored from the time when the designated scene is detected, but this is not limited to the above. The first time of the captured images to be stored may be a time a specified time before the first detection. The server device 60 holds those captured images in which the designated scene is not detected until a specified time has elapsed, and when the designated scene is detected, can be included in the archive images going back a certain time.

また、撮影機器80が撮影画像の拡大率(ズーム)を切り替えたり、複数の撮影機器80から最適な撮影画像を選択したり、支持機構70の動作に応じて撮影機器80の撮影位置や視野方向、範囲を切り替えたりする構成、動作のうち一部又は全部が不可能である構成であってもよい。この場合には、動作が不可能な構成に対する制御信号は出力されない。サーバ装置60は、画像の編集処理だけで所望の撮影設定による撮影画像を得てもよい。一方、撮影機器80及び/又は支持機構70の調整が可能な場合には、サーバ装置60は、指定場面の間の画像期間を設定する以外の編集処理を一切行わなくてもよい。 In addition, the photographing device 80 may be configured to switch the magnification (zoom) of the photographed image, select the optimal photographed image from multiple photographing devices 80, or switch the photographing position, field of view, or range of the photographing device 80 according to the operation of the support mechanism 70, or some or all of these operations may be impossible. In this case, a control signal for an impossible operation is not output. The server device 60 may obtain a photographed image with the desired photographing settings by editing the image only. On the other hand, if the photographing device 80 and/or the support mechanism 70 can be adjusted, the server device 60 does not need to perform any editing operations other than setting the image period between specified scenes.

また、上記実施形態では、撮影対象(被写体)と指定場面とを1対1で設定したが、これに限られない。例えば、ある指定場面に対して複数の被写体が対応付けられていてもよい。 In addition, in the above embodiment, the subject to be photographed (the object) and the designated scene are set in a one-to-one correspondence, but this is not limited to this. For example, multiple objects may be associated with a certain designated scene.

また、撮影要求情報633に複数の指定場面が設定されている場合に複数の場面が同時に発生した場合は、優先度に従って高い優先度の指定場面の撮影設定で撮影を行ってもよいし、全ての指定場面が含まれるように撮影設定を変更してもよい。また、複数台の撮影機器80を備える場合には、優先度順に好適な撮影機器80を割り当てて、全ての撮影画像を取得、保存してもよい。この場合、優先度の低い指定場面は、優先度の高い指定場面の撮影に選択されなかった残りの撮影機器80で設定可能な構図範囲で撮影を行うように調整されてもよい。 In addition, when multiple designated scenes are set in the photography request information 633 and multiple scenes occur simultaneously, photography may be performed using the photography settings for the designated scenes with higher priority according to the priority, or the photography settings may be changed to include all the designated scenes. In addition, when multiple photographing devices 80 are provided, the most suitable photographing device 80 may be assigned in order of priority, and all captured images may be acquired and saved. In this case, the designated scenes with lower priority may be adjusted so that they are photographed within the composition range that can be set by the remaining photographing devices 80 that were not selected to photograph the designated scenes with higher priority.

また、上記実施の形態では、リアルタイムで電子機器30へ指定場面の発生を通知することとしたが、必ずしもリアルタイム通知を行わなくてもよい。単純にフェッチメールなどで、ユーザが可能なタイミングで情報を得て、アーカイブ画像を視聴することができるだけであってもよい。 In addition, in the above embodiment, the occurrence of a specified scene is notified to the electronic device 30 in real time, but real-time notification is not necessarily required. The user may simply obtain information at an appropriate time, for example by fetch mail, and be able to view archived images.

一方で、電子機器30からリアルタイムで指定場面の画像の配信を受けなかった場合又はその画像の保存命令を受けなかった場合には、撮影設定に応じて得られた画像は、アーカイブ処理されずに短期間で消去されてもよい。 On the other hand, if an image of the specified scene is not delivered in real time from the electronic device 30, or if an instruction to save the image is not received, the image obtained according to the shooting settings may be deleted in a short period of time without being archived.

また、上記処理は、サーバ装置60一台で制御されるのではなくてもよい。例えば、画像データの編集処理などは、サーバ装置60に接続されている他の情報処理装置(コンピュータ)により実行されてもよい。また、アーカイブ画像の保存及び配信が他の情報処理装置(コンピュータ)により行われてもよい。あるいは、サーバ装置60は、撮影装置80と独立ではなく一体的なものであってもよい。すなわち、撮影装置80がサーバ装置60としての上記機能を兼ね備えるものであってもよい。 The above processes do not have to be controlled by a single server device 60. For example, image data editing processes may be performed by another information processing device (computer) connected to the server device 60. Archive images may also be stored and distributed by another information processing device (computer). Alternatively, the server device 60 may be integrated with the imaging device 80 rather than being independent of it. In other words, the imaging device 80 may also have the above functions as the server device 60.

また、上記実施の形態では、室内でのペットの見守りや監視などを目的とするものを例に挙げて説明したが、これに限られない。基本的に固定カメラの固定ピンや周期的な構図変更での撮影画像では、所望の場面の画像が満足に得られないものであればよく、幼児などが被写体であってもよい。あるいは、庭などの屋外における野鳥や野生動物などの観察に利用されてもよい。 In addition, in the above embodiment, the purpose is to watch over or monitor pets indoors, but the present invention is not limited to this. Basically, it is sufficient if an image of a desired scene cannot be obtained satisfactorily using a fixed pin of a fixed camera or periodic changes in composition, and the subject may be a small child. Alternatively, the present invention may be used to observe wild birds and animals outdoors, such as in a garden.

また、以上の説明では、本発明の画像出力制御に係るプログラム631を記憶するコンピュータ読み取り可能な媒体としてHDD、フラッシュメモリなどの不揮発性メモリなどからなる記憶部63を例に挙げて説明したが、これらに限定されない。その他のコンピュータ読み取り可能な媒体として、MRAMなどの他の不揮発性メモリや、CD-ROM、DVDディスクなどの可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを、通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も本発明に適用される。
その他、上記実施の形態で示した具体的な構成、処理動作の内容及び手順などは、本発明の趣旨を逸脱しない範囲において適宜変更可能である。本発明の範囲は、特許請求の範囲に記載した発明の範囲とその均等の範囲を含む。
In the above description, the storage unit 63 is exemplified by a non-volatile memory such as a HDD or a flash memory as a computer-readable medium for storing the program 631 related to the image output control of the present invention, but is not limited thereto. As other computer-readable media, other non-volatile memories such as MRAM and portable recording media such as CD-ROMs and DVD disks can be applied. In addition, a carrier wave can be applied to the present invention as a medium for providing the data of the program related to the present invention via a communication line.
In addition, the specific configurations, contents and procedures of the processing operations, etc. shown in the above embodiments can be modified as appropriate without departing from the spirit of the present invention. The scope of the present invention includes the scope of the invention described in the claims and its equivalents.

10 端末装置
30 電子機器
31 CPU
32 RAM
33 記憶部
331 プログラム
332 要求設定
34 通信部
35 報知動作部
36 表示部
37 操作受付部
50 アクセスポイント
60 サーバ装置
61 CPU
62 RAM
63 記憶部
631 プログラム
632 要求画像情報
633 編集画像データ
65 通信部
66 表示部
67 操作受付部
70 支持機構
80 撮影機器
100 画像配信システム
10 Terminal device 30 Electronic device 31 CPU
32 RAM
33 Storage unit 331 Program 332 Request setting 34 Communication unit 35 Notification operation unit 36 Display unit 37 Operation reception unit 50 Access point 60 Server device 61 CPU
62 RAM
63 Storage unit 631 Program 632 Requested image information 633 Edited image data 65 Communication unit 66 Display unit 67 Operation reception unit 70 Support mechanism 80 Photographing device 100 Image distribution system

Claims (11)

撮影機器により撮影される被写体に係る所望の要求画像情報を外部機器から取得する取得部と、
取得した撮影画像から前記要求画像情報で指定された場面を検出し、当該場面の画像を前記要求画像情報で指定された撮影設定で得るための処理を行う制御部と、
を備える画像出力制御装置。
an acquisition unit that acquires desired requested image information related to a subject photographed by the photographing device from an external device;
a control unit that detects a scene specified by the requested image information from the acquired photographed image and performs processing to obtain an image of the scene with a photographing setting specified by the requested image information;
An image output control device comprising:
前記撮影設定は、前記撮影画像の構図に係る設定を含み、
前記制御部は、前記撮影機器及び当該撮影機器の支持機構のうち少なくとも一方に対し、前記構図の調整動作に係る要求を出力する前記処理を行う
請求項1記載の画像出力制御装置。
The photographing setting includes a setting related to a composition of the photographed image,
The image output control device according to claim 1 , wherein the control unit performs the process of outputting a request for an adjustment operation of the composition to at least one of the photographing device and a support mechanism of the photographing device.
前記制御部は、前記場面が検出された場合に、取得された前記撮影画像から前記撮影設定に応じた部分を抜き出す前記処理を行う、請求項1記載の画像出力制御装置。 The image output control device according to claim 1, wherein the control unit performs the process of extracting a portion corresponding to the shooting settings from the acquired captured image when the scene is detected. 前記制御部は、前記抜き出したサイズに応じた前記撮影画像の拡大処理を行う請求項3記載の画像出力制御装置。 The image output control device according to claim 3, wherein the control unit performs enlargement processing of the captured image according to the extracted size. 前記制御部は、前記場面が検出された場合に、前記外部機器へ前記場面の検出を通知する信号を出力する請求項1記載の画像出力制御装置。 The image output control device according to claim 1, wherein the control unit outputs a signal to the external device when the scene is detected, notifying the external device of the detection of the scene. 前記制御部は、前記場面が検出されている場合であって、かつ前記外部機器から前記撮影画像の送信要求を受信した場合には、前記処理に応じた画像を前記外部機器へ出力する、請求項5記載の画像出力制御装置。 The image output control device according to claim 5, wherein the control unit outputs an image corresponding to the processing to the external device when the scene is detected and a request to transmit the captured image is received from the external device. 記憶部を備え、
前記制御部は、
前記処理に応じた画像を前記記憶部に保管画像として記憶させ、
前記外部機器から前記保管画像の送信要求を受信した場合には、前記保管画像を前記記憶部から読み出して前記外部機器へ出力する、請求項5記載の画像出力制御装置。
A memory unit is provided,
The control unit is
storing an image corresponding to the processing in the storage unit as a saved image;
6. The image output control device according to claim 5, wherein, when a request to transmit the stored image is received from the external device, the stored image is read out from the storage unit and output to the external device.
制御部による画像出力制御方法であって、
撮影機器により撮影される被写体に係る所望の要求画像情報を外部機器から取得し、
取得した撮影画像から前記要求画像情報で指定された場面を検出して、当該場面の画像を前記要求画像情報で指定された撮影設定で得るための処理を行う、
画像出力制御方法。
An image output control method by a control unit, comprising:
Obtaining desired requested image information relating to a subject to be photographed by the photographing device from an external device;
a process for detecting a scene specified by the requested image information from the acquired photographed image and obtaining an image of the scene with a photographing setting specified by the requested image information;
Image output control method.
コンピュータを、
撮影機器により撮影される被写体に係る所望の要求画像情報を外部機器から取得する取得手段、
取得した撮影画像から前記要求画像情報で指定された場面を検出し、当該場面の画像を前記要求画像情報で指定された撮影設定で得るための処理を行う処理手段、
として機能させるプログラム。
Computer,
An acquisition means for acquiring desired requested image information relating to a subject photographed by the photographing device from an external device;
a processing means for detecting a scene specified by the requested image information from the acquired photographed image and performing processing for obtaining an image of the scene with a photographing setting specified by the requested image information;
A program that functions as a
撮影機器により撮影される被写体に係る所望の要求画像情報を外部機器から取得する取得部と、
取得した撮影画像から前記要求画像情報で指定された場面を検出し、当該場面の画像を前記要求画像情報で指定された撮影設定で得るための処理を行う制御部と、
を備える画像出力制御装置と、
前記要求画像情報を前記画像出力制御装置へ送信する外部機器と、
を備える画像出力制御システム。
an acquisition unit that acquires desired requested image information related to a subject photographed by the photographing device from an external device;
a control unit that detects a scene specified by the requested image information from the acquired photographed image and performs processing to obtain an image of the scene with a photographing setting specified by the requested image information;
An image output control device comprising:
an external device that transmits the requested image information to the image output control device;
An image output control system comprising:
撮影機器により撮影される被写体に係る所望の要求画像情報を電子機器から取得する取得部と、取得した撮影画像から前記要求画像情報で指定された場面を検出し、当該場面の画像を前記要求画像情報で指定された撮影設定で得るための処理を行う制御部と、を備える画像出力制御装置に対して前記要求画像情報を出力する電子機器。 An electronic device that outputs the requested image information to an image output control device that includes an acquisition unit that acquires desired requested image information related to a subject photographed by a photographing device from an electronic device, and a control unit that detects a scene specified in the requested image information from the acquired photographed image and performs processing to obtain an image of the scene with the photographing settings specified in the requested image information.
JP2022160621A 2022-10-05 2022-10-05 Image output control device, image output control method, program, image output control system, and electronic equipment Pending JP2024054440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022160621A JP2024054440A (en) 2022-10-05 2022-10-05 Image output control device, image output control method, program, image output control system, and electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022160621A JP2024054440A (en) 2022-10-05 2022-10-05 Image output control device, image output control method, program, image output control system, and electronic equipment

Publications (1)

Publication Number Publication Date
JP2024054440A true JP2024054440A (en) 2024-04-17

Family

ID=90707909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022160621A Pending JP2024054440A (en) 2022-10-05 2022-10-05 Image output control device, image output control method, program, image output control system, and electronic equipment

Country Status (1)

Country Link
JP (1) JP2024054440A (en)

Similar Documents

Publication Publication Date Title
TWI410125B (en) Composition determining apparatus, composition determining method, and program
JP6481866B2 (en) Information processing apparatus, imaging apparatus, information processing method, and program
US20050151852A1 (en) Wireless multi-recorder system
KR101762780B1 (en) Communication device for companion animal
TW200930091A (en) Composition determining apparatus, composition determining method, and program
US20160073013A1 (en) Handheld multi vantage point player
JP2019161606A (en) Mobile imaging system, learning method, mobile imaging device, information acquisition control device, information acquisition control method, and information acquisition control program
JP2021111904A (en) Indoor camera and action log recording system
JP2009004873A (en) Camera control system and method, program and storage medium
JP6950793B2 (en) Electronics and programs
JP2024054440A (en) Image output control device, image output control method, program, image output control system, and electronic equipment
KR102238322B1 (en) Apparatus and method for monitering pet
CN114982218A (en) Apparatus and method for remote image capture with automatic object selection
JP2021111903A (en) Digest video reproduction system and digest video reproduction program
JP2020140600A (en) Intermediary terminal, communication system, input system, intermediary terminal control method, and program
JP2003078804A (en) Snapshot system
JP5440588B2 (en) Composition determination apparatus, composition determination method, and program
JP2019106908A (en) Animal management system, program and computer readable memory medium
JP6829348B1 (en) Shooting control method, information processing device, program, and shooting system
JP6384891B1 (en) Information terminal device, photographing device, photographing method and photographing program
JP2006115006A (en) Individual video image photographing and distributing apparatus, and individual video image photographing and distributing method and program
JP6677237B2 (en) Image processing system, image processing method, image processing device, program, and mobile terminal
JP2021052324A (en) Image capture device, system, method for controlling image capture device, and program
JP6560839B1 (en) Mobile photographing device, mobile photographing control device, mobile photographing system, photographing method and photographing program
JP2003283976A (en) Medium information recording apparatus and its method