JP2018033365A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2018033365A
JP2018033365A JP2016169422A JP2016169422A JP2018033365A JP 2018033365 A JP2018033365 A JP 2018033365A JP 2016169422 A JP2016169422 A JP 2016169422A JP 2016169422 A JP2016169422 A JP 2016169422A JP 2018033365 A JP2018033365 A JP 2018033365A
Authority
JP
Japan
Prior art keywords
information processing
region
motion
detection target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016169422A
Other languages
Japanese (ja)
Other versions
JP2018033365A5 (en
JP6959495B2 (en
Inventor
貫 鈴木
Takashi Suzuki
貫 鈴木
雅也 下松
Masaya Shimomatsu
雅也 下松
泰洋 田中
Yasuhiro Tanaka
泰洋 田中
隆之 政井
Takayuki Masai
隆之 政井
建志 入江
Kenji Irie
建志 入江
中山 正明
Masaaki Nakayama
正明 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016169422A priority Critical patent/JP6959495B2/en
Publication of JP2018033365A publication Critical patent/JP2018033365A/en
Publication of JP2018033365A5 publication Critical patent/JP2018033365A5/ja
Application granted granted Critical
Publication of JP6959495B2 publication Critical patent/JP6959495B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect an estrous behavior of a cow from an image of the cow taken with a camera installed in a cowhouse.SOLUTION: An information processing device includes image acquisition means for acquiring moving image data taken with an imaging device, region specification means for extracting one frame image from the moving image data acquired by the image acquisition means, and specifying a region where an object is shown from the extracted frame image, appearance determination means for determining whether or not the object shown in the region specified by the region specification means is an object making a movement to be detected, and movement determination means for determining whether or not the object is making a movement to be detected using the moving image information in the region when it is determined by the determination means that the object is the object making the movement to be detected.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

畜産(酪農や肉用牛の繁殖)においては、牛の繁殖成績が経営に大きく影響する。繁殖成績を上げるためには、牛が発情したタイミングを検出して授精することが重要となる。一般に、牛の発情行動としては、乗駕行動や、行動量の増加などがあり、飼育者が牛の行動を観察することで発情時期を判断している。   In livestock production (dairy farming and beef cattle breeding), the breeding performance of cattle greatly affects management. In order to improve the reproductive performance, it is important to insemination by detecting the timing when the cow is in estrus. In general, the estrus behavior of cattle includes riding behavior, an increase in the amount of behavior, etc., and the breeder determines the estrus time by observing the behavior of the cattle.

しかしながら、発情行動は夜間時間帯に行われるが多いため、飼育者が見逃してしまうことがある。   However, since estrus behavior is often performed during night hours, the breeder may miss it.

飼育者の観察を補助するあるいは代わりとなるシステムを構築することで繁殖成績の向上、畜産業の生産基盤強化が望まれている。   It is desired to improve the breeding performance and strengthen the production base of the livestock industry by constructing an alternative system that assists the breeder's observation.

そこで、特許文献1には、赤外線センサを対象牛の背中に取り付け、センサの反応とその長さによって乗駕の有無を判定する仕組みが記載されている。   Therefore, Patent Document 1 describes a mechanism in which an infrared sensor is attached to the back of the target cow and the presence or absence of riding is determined based on the sensor response and its length.

また、特許文献2には、牛舎に設置したマイクとセンサにより、牛の咆哮音と牛の行動量を測定し発情を判定する仕組みが記載されている。   Patent Document 2 describes a mechanism for determining estrus by measuring cow roaring and cow behavior by using a microphone and a sensor installed in the barn.

また、従来からセンサを利用し、牛の発情を検出する方法として、(1)歩数を監視する方法、(2)行動量を監視する方法があり、商品化されている。   Conventionally, as a method for detecting the estrus of a cow using a sensor, there are (1) a method for monitoring the number of steps and (2) a method for monitoring an amount of action, which are commercialized.

特開2016−42843号公報JP 2016-42843 A 特開2015−89342号公報Japanese Patent Laying-Open No. 2015-89342

しかしながら、特許文献1の方法は、管理対象の全ての牛にセンサを取り付ける必要があり、導入コストや作業の手間がかかるという問題や、身体に取り付けた機器が牛のストレスになるという問題がある。   However, the method of patent document 1 has a problem that it is necessary to attach a sensor to all the cows to be managed, and that the introduction cost and work are troublesome, and that the device attached to the body causes the cow's stress. .

また、特許文献2の方法は、牛舎に取り付けたマイクと対象牛の距離によって精度にばらつきが発生することという問題がある。また、センサを取り付けた牛舎の特定領域に発情対象の牛を拘束していないと行動量を測定できずに発情が判定できないという問題がある。   Moreover, the method of patent document 2 has the problem that a dispersion | variation generate | occur | produces according to the distance of the microphone attached to the cowshed and the object cow. In addition, there is a problem that the amount of action cannot be measured and the estrus cannot be determined unless the estrus target cow is restrained in a specific area of the barn where the sensor is attached.

また、歩数を監視する方法や、行動量を監視する方法では、夏場は牛の行動量が増えることや行動量に個体差があることから、これらの状態の変化が発情による変化であるとは限らず、高精度な発情発見ができないという問題がある。   In addition, in the method of monitoring the number of steps and the method of monitoring the amount of behavior, the amount of behavior of the cow increases in summer and there is an individual difference in the amount of behavior, so the change in these states is a change due to estrus There is a problem that estrus cannot be found with high accuracy.

以上の課題に鑑み、本発明は、撮影された動画データから牛の発情行動を検出する仕組みを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a mechanism for detecting estrus behavior of a cow from captured moving image data.

本発明の情報処理装置は、撮像装置により撮影された動画データを取得する画像取得手段と、前記画像取得手段により取得された動画データから1フレーム画像を抽出し、当該抽出したフレーム画像から物体が映っている領域を特定する領域特定手段と、前記領域特定手段により特定された領域に映っている物体が、検出対象の動作を行っている物体であるかを判定する見え判定手段と、前記判定手段により検出対象の動作を行っている物体であると判定された場合、当該領域における動画情報を用いて、当該物体が検出対象の動作を行っているかを判定する動き判定手段と、を備えることを特徴とする。   An information processing apparatus according to the present invention extracts an image acquisition unit that acquires moving image data captured by an imaging device, and extracts one frame image from the moving image data acquired by the image acquisition unit, and an object is extracted from the extracted frame image. An area specifying means for specifying a reflected area; an appearance determining means for determining whether an object shown in the area specified by the area specifying means is an object performing a detection target; and Motion determining means for determining whether the object is performing the detection target motion using the moving image information in the area when the means determines that the object is performing the detection target motion. It is characterized by.

また、本発明の情報処理方法は、情報処理装置における情報処理方法であって、前記情報処理装置の画像取得手段が、撮像装置により撮影された動画データを取得する画像取得工程と、前記情報処理装置の領域特定手段が、前記画像取得工程により取得された動画データから1フレーム画像を抽出し、当該抽出したフレーム画像から物体が映っている領域を特定する領域特定工程と、前記情報処理装置の見え判定手段が、前記領域特定工程により特定された領域に映っている物体が、検出対象の動作を行っている物体であるかを判定する見え判定工程と、前記情報処理装置の動き判定手段が、前記判定工程により検出対象の動作を行っている物体であると判定された場合、当該領域における動画情報を用いて、当該物体が検出対象の動作を行っているかを判定する動き判定工程と、を備えることを特徴とする。   The information processing method of the present invention is an information processing method in an information processing apparatus, wherein an image acquisition unit of the information processing apparatus acquires moving image data captured by an imaging device, and the information processing An area specifying unit of the apparatus extracts one frame image from the moving image data acquired by the image acquisition process, specifies an area in which an object is shown from the extracted frame image, and the information processing apparatus An appearance determination unit that determines whether an object shown in the region specified by the region specifying step is an object performing a detection target operation; and a motion determination unit of the information processing apparatus. If it is determined in the determination step that the object is performing an operation as a detection target, the object performs an operation as a detection target using moving image information in the region. Characterized in that it comprises a determining motion determination step whether the a.

また、本発明のプログラムは、情報処理装置において実行可能なプログラムであって、前記情報処理装置を、撮像装置により撮影された動画データを取得する画像取得手段と、前記画像取得手段により取得された動画データから1フレーム画像を抽出し、当該抽出したフレーム画像から物体が映っている領域を特定する領域特定手段と、前記領域特定手段により特定された領域に映っている物体が、検出対象の動作を行っている物体であるかを判定する見え判定手段と、前記判定手段により検出対象の動作を行っている物体であると判定された場合、当該領域における動画情報を用いて、当該物体が検出対象の動作を行っているかを判定する動き判定手段として機能させるためのプログラム。   The program of the present invention is a program that can be executed in an information processing apparatus, and the information processing apparatus is acquired by an image acquisition unit that acquires moving image data captured by an imaging device, and the image acquisition unit. One frame image is extracted from the moving image data, the area specifying means for specifying the area in which the object is shown from the extracted frame image, and the object shown in the area specified by the area specifying means is the operation to be detected If it is determined by the determination means that the object is being detected, the object is detected using the moving image information in the area. A program for functioning as motion determination means for determining whether or not a target motion is being performed.

本発明によれば、撮影された動画データから効率的に牛の発情行動を検出することが可能となる。   According to the present invention, it is possible to efficiently detect the estrus behavior of a cow from captured moving image data.

本実施例における情報処理システムのシステム構成の一例を示す図The figure which shows an example of the system configuration | structure of the information processing system in a present Example ネットワークカメラ端末101、サーバ装置102、クライアント端末103のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of the network camera terminal 101, the server apparatus 102, and the client terminal 103 牛の発情判定処理の全体像を説明するフローチャートFlow chart explaining the overall image of the cow estrus determination process ステップS105における発情判定処理を示すフローチャートFlowchart showing the estrus determination process in step S105 見え情報による発情判定処理の詳細を示すフローチャートFlow chart showing details of estrus determination process based on appearance information 動き情報による発情判定処理の詳細を示すフローチャートThe flowchart which shows the detail of the estrus judgment processing by movement information 見え情報の教師データの一例を示す図The figure which shows an example of the teacher data of appearance information 動画中の1フレーム(t)について、候補矩形を抽出し、当該候補矩形における画像と学習済み画像との類似度を算出した結果を示す模式図The schematic diagram which shows the result of having extracted the candidate rectangle about 1 frame (t) in a moving image, and calculating the similarity degree of the image in the said candidate rectangle, and the learned image フレーム画像(t)とその前後のフレーム画像を示す模式図Schematic diagram showing frame image (t) and frame images before and after the frame image (t) 各フレーム画像から抽出された候補矩形(対象オブジェクト領域)を示す図The figure which shows the candidate rectangle (target object area | region) extracted from each frame image

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本実施例における情報処理システムのシステム構成の一例を示す図である。   FIG. 1 is a diagram illustrating an example of a system configuration of an information processing system according to the present embodiment.

本発明におけるシステムは、ネットワークカメラ端末(撮像装置)101と、サーバ装置(情報処理装置)102、クライアント端末103とが通信可能に接続されたシステムである。   The system according to the present invention is a system in which a network camera terminal (imaging device) 101, a server device (information processing device) 102, and a client terminal 103 are communicably connected.

牛舎に設置されたネットワークカメラ端末101によって牛舎内の牛Aを撮影し、撮影した映像データはサーバ装置102に送信される。サーバ装置102は映像データを解析処理し、乗駕行動の有無を判定する。解析処理によって乗駕行動ありと判定された場合には、クライアント端末103に通知を行う。   The cow A in the cowshed is photographed by the network camera terminal 101 installed in the cowshed, and the photographed video data is transmitted to the server apparatus 102. The server apparatus 102 analyzes the video data and determines the presence or absence of the riding action. If it is determined by the analysis process that there is a riding action, the client terminal 103 is notified.

図2は、本発明の実施形態に係わるネットワークカメラ端末101、サーバ装置102、クライアント端末103のハードウェア構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of the network camera terminal 101, the server apparatus 102, and the client terminal 103 according to the embodiment of the present invention.

図2に示すように、ネットワークカメラ端末101、サーバ装置102、クライアント端末103では、システムバス200を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、記憶装置204、入力コントローラ205、音声入力コントローラ206、ビデオコントローラ207、メモリコントローラ208、よび通信I/Fコントローラ209が接続される。   As shown in FIG. 2, in the network camera terminal 101, the server apparatus 102, and the client terminal 103, a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203 via the system bus 200. , A storage device 204, an input controller 205, an audio input controller 206, a video controller 207, a memory controller 208, and a communication I / F controller 209 are connected.

CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 comprehensively controls each device and controller connected to the system bus 200.

ROM202あるいは記憶装置204は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。   The ROM 202 or the storage device 204 is a control program executed by the CPU 201 such as a basic input / output system (BIOS) or an operating system (OS), a computer-readable program for realizing this information processing method, and various necessary programs. Holds data (including data table).

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは記憶装置204からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。   The RAM 203 functions as a main memory, work area, and the like for the CPU 201. The CPU 201 implements various operations by loading a program or the like necessary for executing the processing from the ROM 202 or the storage device 204 to the RAM 203 and executing the loaded program.

入力コントローラ205は、キーボード/タッチパネル210などの入力装置からの入力を制御する。入力装置はこれに限ったものでなく、マウスやマルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。   The input controller 205 controls input from an input device such as a keyboard / touch panel 210. The input device is not limited to this, and may be a touch panel capable of detecting a position touched by a plurality of fingers, such as a mouse or a multi-touch screen.

ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができる。   Various instructions can be performed when the user presses (touches with a finger or the like) in accordance with an icon, a cursor, or a button displayed on the touch panel.

この入力装置を用いて各種通信装置で利用可能な通信宛先に対する宛先を入力するようになっている。   This input device is used to input a destination for a communication destination that can be used by various communication devices.

音声入力コントローラ206は、マイク211からの入力を制御する。マイク211から入力された音声を音声認識することが可能となっている。   The voice input controller 206 controls input from the microphone 211. Voice input from the microphone 211 can be recognized.

ビデオコントローラ207は、ディスプレイ212などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作により受け付け可能な装置については、キーボード/タッチパネル210からの入力を受け付けることも可能となる。   The video controller 207 controls display on an external output device such as the display 212. The display includes a display of a notebook computer integrated with the main body. The external output device is not limited to a display, and may be a projector, for example. Further, for devices that can be received by the touch operation described above, it is also possible to receive input from the keyboard / touch panel 210.

なおビデオコントローラ207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。   Note that the video controller 207 can control a video memory (VRAM) for display control, and a part of the RAM 203 can be used as a video memory area, or a dedicated video memory can be provided separately. Is possible.

本発明では、ユーザが情報処理装置を通常する場合の表示に用いられる第1のビデオメモリ領域と、所定の画面が表示される場合に、第1のビデオメモリ領域の表示内容に重ねての表示に用いられる第2のビデオメモリ領域を有している。ビデオメモリ領域は2つに限ったものではなく、情報処理装置の資源が許す限り複数有することが可能なものとする。   In the present invention, the first video memory area used for display when the user normally uses the information processing apparatus and the display overlaid on the display content of the first video memory area when a predetermined screen is displayed. A second video memory area used in The number of video memory areas is not limited to two, and a plurality of video memory areas can be provided as long as the resources of the information processing apparatus permit.

メモリコントローラ208は、外部メモリ213へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。   The memory controller 208 controls access to the external memory 213. The external memory is connected via an adapter to an external storage device (hard disk), flexible disk (FD), or PCMCIA card slot that stores boot programs, various applications, font data, user files, editing files, and various data. A compact flash (registered trademark) memory or the like can be used.

通信I/Fコントローラ209、ネットワーク214を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の3G回線を用いた通信が可能である。   The communication I / F controller 209 is connected to and communicates with an external device via the network 214, and executes communication control processing in the network. For example, communication using TCP / IP, telephone lines such as ISDN, and communication using 3G lines of mobile phones are possible.

なお、記憶装置204は情報を永続的に記憶するための媒体であって、その形態をハードディスク等の記憶装置に限定するものではない。例えば、SSD(Solid State Drive)などの媒体であってもよい。   The storage device 204 is a medium for permanently storing information, and the form is not limited to a storage device such as a hard disk. For example, a medium such as SSD (Solid State Drive) may be used.

また本実施形態における通信端末で行われる各種処理時の一時的なメモリエリアとしても利用可能である。   It can also be used as a temporary memory area during various processes performed by the communication terminal in the present embodiment.

次に図3に示すフローチャートを用いて、本実施例における牛の発情判定処理の全体像を説明する。   Next, the overall image of the cow estrus determination process in this embodiment will be described with reference to the flowchart shown in FIG.

ステップS101では、牛舎に設置されたネットワークカメラ端末101のCPU201が撮影可能な状態か否かを判定する。   In step S101, it is determined whether or not the CPU 201 of the network camera terminal 101 installed in the barn is ready for photographing.

撮影可能である場合(ステップS101:YES)は、処理をステップS102に移行する。   If photographing is possible (step S101: YES), the process proceeds to step S102.

撮影不可能である場合(ステップS101:NO)は、本フローチャートの処理を終了する。   If the photographing is impossible (step S101: NO), the process of this flowchart is terminated.

ステップS102では、ネットワークカメラ端末101のCPU201は、撮影した映像の1フレーム画像を取得する。   In step S102, the CPU 201 of the network camera terminal 101 acquires one frame image of the captured video.

ステップS103では、ネットワークカメラ端末101のCPU201は、ステップS102で取得した1フレーム画像をサーバ装置102に転送する。   In step S <b> 103, the CPU 201 of the network camera terminal 101 transfers the one frame image acquired in step S <b> 102 to the server apparatus 102.

ステップS104では、サーバ装置102のCPU201は、ステップS103でネットワークカメラ端末101から送信された1フレーム画像を受信する。   In step S104, the CPU 201 of the server apparatus 102 receives the one-frame image transmitted from the network camera terminal 101 in step S103.

なお、ネットワークカメラ端末101により撮影された動画データをサーバ装置に送信し、サーバ装置において受信した動画データから1フレーム画像を取得するよう構成してもよい。   The moving image data captured by the network camera terminal 101 may be transmitted to the server device, and one frame image may be acquired from the moving image data received by the server device.

ステップS105では、サーバ装置102のCPU201は、ステップS104で受信した画像を用いて、発情判定処理を実行する。発情判定処理の詳細については、図4〜図6のフローチャートを用いて説明する。   In step S105, the CPU 201 of the server apparatus 102 performs an estrus determination process using the image received in step S104. Details of the estrus determination process will be described with reference to the flowcharts of FIGS.

ステップS106では、サーバ装置102のCPU201は、ステップS105の発情判定処理により発情判定フラグがTrueとなったか否かを判定する。   In step S106, the CPU 201 of the server apparatus 102 determines whether or not the estrus determination flag is True by the estrus determination process in step S105.

Trueである場合(ステップS106:YES)は、処理をステップS107に移行する。   If it is True (step S106: YES), the process proceeds to step S107.

Falseである場合(ステップS106:NO)は、処理をステップS101に戻す。   If it is False (step S106: NO), the process returns to step S101.

ステップS107では、サーバ装置102のCPU201は、発情している牛がいる旨をクライアント端末103に対して通知する。   In step S107, the CPU 201 of the server apparatus 102 notifies the client terminal 103 that there is an estrus cow.

次に、図4〜図6のフローチャートを用いて、ステップS105における発情判定処理について説明する。   Next, the estrus determination process in step S105 will be described using the flowcharts of FIGS.

ステップS201では、サーバ装置102のCPU201は、見え情報(静止画)による発情判定処理を実行する。   In step S201, the CPU 201 of the server apparatus 102 executes estrus determination processing based on appearance information (still image).

見え情報による発情判定処理の詳細は、図5のフローチャートを用いて説明する。   Details of the estrus determination process based on appearance information will be described with reference to the flowchart of FIG.

図5は、ステップS201における見え情報による発情判定処理を示すフローチャートである。   FIG. 5 is a flowchart showing estrus determination processing based on appearance information in step S201.

ステップS301では、サーバ装置102のCPU201は、学習済みの特徴量の重みデータを読み込む。   In step S <b> 301, the CPU 201 of the server apparatus 102 reads learned feature amount weight data.

例えば、図7に示すような発情行動(例えば乗駕行動)をしている牛の画像(すなわち、検出対象の動作、行為を示す画像)を複数学習させておき、それらの画像から特徴量を算出しておく。   For example, a plurality of images of cows having an estrus behavior (for example, riding behavior) as shown in FIG. 7 (that is, images showing actions and actions of detection targets) are learned, and feature amounts are obtained from these images. Calculate it.

ステップS302では、サーバ装置102のCPU201は、処理対象の画像(ステップS104で受信した画像)から、物体が映っている領域を候補矩形として抽出する。候補矩形の抽出については、例えば「Faster R−CNN」といった公知技術を用いることで実現可能である。   In step S <b> 302, the CPU 201 of the server apparatus 102 extracts a region where an object is shown as a candidate rectangle from the processing target image (the image received in step S <b> 104). The extraction of the candidate rectangle can be realized by using a known technique such as “Faster R-CNN”.

ステップS303では、サーバ装置102のCPU201は、ステップS302の処理により抽出された候補矩形が存在するかを判定する。   In step S303, the CPU 201 of the server apparatus 102 determines whether there is a candidate rectangle extracted by the process in step S302.

存在する場合(ステップS303:YES)は、処理をステップS304に移行する。   If it exists (step S303: YES), the process proceeds to step S304.

存在しない場合(ステップS303:NO)は、本フローチャートに示す処理を終了する。   If it does not exist (step S303: NO), the processing shown in this flowchart is terminated.

なお、ステップS310を実行後の場合には、ステップS303〜S310までの処理を実行していない候補矩形が存在するか否かを判定する処理となる。すなわち、本実施例においては、ステップS302で抽出された候補矩形ごとにステップS303〜S310の処理を繰り返し実行するものである。   In the case after step S310 is executed, it is a process for determining whether or not there is a candidate rectangle for which the processes from steps S303 to S310 have not been executed. That is, in the present embodiment, the processes in steps S303 to S310 are repeatedly executed for each candidate rectangle extracted in step S302.

ステップS304では、サーバ装置102のCPU201は、処理対象の候補矩形における画像特徴量を算出する。   In step S304, the CPU 201 of the server apparatus 102 calculates an image feature amount in the candidate rectangle to be processed.

ステップS305では、サーバ装置102のCPU201は、ステップS304で算出した特徴量とステップS301で読み込んだ学習済み画像の特徴量とを比較する。   In step S305, the CPU 201 of the server apparatus 102 compares the feature amount calculated in step S304 with the feature amount of the learned image read in step S301.

図8は、動画中の1フレーム(t)について、候補矩形を抽出し、当該候補矩形における画像と学習済み画像との類似度を算出した結果を示す模式図である。   FIG. 8 is a schematic diagram showing a result of extracting a candidate rectangle for one frame (t) in a moving image and calculating a similarity between an image in the candidate rectangle and a learned image.

図8の例では、フレーム(t)における候補矩形の座標は(x1,y1,x2,y2)であり、類似度は0.9であることを示している。   In the example of FIG. 8, the coordinates of the candidate rectangle in the frame (t) are (x1, y1, x2, y2), and the similarity is 0.9.

ステップS306では、サーバ装置102のCPU201は、ステップS305における比較の結果、特徴量の類似度が閾値以上であるかを判定する。すなわち、候補矩形における物体が発情行動をしている牛であるか(検出対象の動作を行っている物体であるか)を判定する。   In step S306, the CPU 201 of the server apparatus 102 determines whether the similarity of the feature amount is equal to or greater than a threshold value as a result of the comparison in step S305. That is, it is determined whether the object in the candidate rectangle is a cow performing estrus behavior (whether it is an object performing the detection target operation).

閾値以上である場合(ステップS306:YES)は、処理をステップS307に移行する。   If it is equal to or greater than the threshold (step S306: YES), the process proceeds to step S307.

閾値に満たない場合(ステップS306:NO)は、処理をステップS309に移行する。   If the threshold value is not reached (step S306: NO), the process proceeds to step S309.

ステップS307では、サーバ装置102のCPU201は、見え判定フラグをTrueに設定する。   In step S307, the CPU 201 of the server apparatus 102 sets the appearance determination flag to True.

ステップS308では、サーバ装置102のCPU201は、処理対象の候補矩形の領域情報を保持する。領域情報は、例えば座標情報(x1、y1、x2、y2)等の情報である。   In step S308, the CPU 201 of the server apparatus 102 holds the region information of the candidate rectangle to be processed. The area information is information such as coordinate information (x1, y1, x2, y2), for example.

ステップS309では、サーバ装置102のCPU201は、見え判定フラグをFalseに設定する。   In step S309, the CPU 201 of the server apparatus 102 sets the appearance determination flag to False.

ステップS310では、サーバ装置102のCPU201は、ステップS302で抽出された候補矩形のうち、S303〜S310の処理を実行していない候補矩形を取得する。   In step S310, CPU201 of server apparatus 102 acquires a candidate rectangle which has not performed processing of S303-S310 among candidate rectangles extracted at step S302.

ステップS302で抽出されたすべての候補矩形について、S303〜S310の処理が実行されると(ステップS303:NO)、本フローチャートの処理を終了し、処理をステップS202に移行する。   When the processes of S303 to S310 are executed for all candidate rectangles extracted in step S302 (step S303: NO), the process of this flowchart is terminated, and the process proceeds to step S202.

ステップS202では、サーバ装置102のCPU201は、見え判定フラグにTrueが設定されているか否かを判定する。   In step S202, the CPU 201 of the server apparatus 102 determines whether True is set in the appearance determination flag.

Trueが設定されている場合(ステップS202:YES)は、処理をステップS203に移行する。   If True is set (step S202: YES), the process proceeds to step S203.

Falseが設定されている場合(ステップS202:NO)は、処理をステップS207に移行する。   If False is set (step S202: NO), the process proceeds to step S207.

ステップS203では、サーバ装置102のCPU201は、ステップS308で保持した領域情報を取得する。   In step S203, the CPU 201 of the server apparatus 102 acquires the area information held in step S308.

ステップS204では、サーバ装置102のCPU201は、動き情報(動画)による発情判定処理を実行する。   In step S204, the CPU 201 of the server apparatus 102 executes an estrus determination process using motion information (moving image).

動き情報による発情判定処理の詳細は、図6のフローチャートを用いて説明する。   Details of the estrus determination process based on motion information will be described with reference to the flowchart of FIG.

図6は、ステップS204における動き情報による発情判定処理を示すフローチャートである。   FIG. 6 is a flowchart showing the estrus determination process based on the motion information in step S204.

ステップS401では、サーバ装置102のCPU201は、対象オブジェクト領域(ステップS308で保持した座標情報により特定される領域)の情報を読み込む。   In step S401, the CPU 201 of the server apparatus 102 reads information on a target object area (an area specified by the coordinate information held in step S308).

ステップS402では、サーバ装置102のCPU201は、領域情報の有無を判定し、領域情報が無い場合は、処理をステップS411に移行する。領域情報がある場合は処理をステップS403に移行する。   In step S402, the CPU 201 of the server apparatus 102 determines the presence / absence of area information. If there is no area information, the process proceeds to step S411. If there is area information, the process proceeds to step S403.

ステップS403では、サーバ装置102のCPU201は、処理対象のフレーム画像の前のフレーム画像が存在するかを判定する。   In step S403, the CPU 201 of the server apparatus 102 determines whether there is a frame image before the processing target frame image.

存在する場合(ステップS403:YES)は、処理をステップS404に移行する。   If it exists (step S403: YES), the process proceeds to step S404.

存在しない場合(ステップS403:NO)は、処理をステップS411に移行する。   If it does not exist (step S403: NO), the process proceeds to step S411.

ステップS404では、サーバ装置102のCPU201は、前フレームから対象オブジェクト領域の画像を取得する。すなわち、前フレームの画像から、ステップS308で保持した座標情報と同じ座標情報で特定される領域を取得する。   In step S404, the CPU 201 of the server apparatus 102 acquires an image of the target object area from the previous frame. That is, an area specified by the same coordinate information as the coordinate information held in step S308 is acquired from the image of the previous frame.

ステップS405では、サーバ装置102のCPU201は、処理対象のフレーム画像から対象オブジェクト領域の画像を取得する。   In step S405, the CPU 201 of the server apparatus 102 acquires an image of the target object region from the processing target frame image.

ステップS406では、サーバ装置102のCPU201は、ステップS404とS405で取得した2つの画像から、OpticalFlow特徴量を算出する。   In step S406, the CPU 201 of the server apparatus 102 calculates an optical flow feature amount from the two images acquired in steps S404 and S405.

OpticalFlow特徴量の算出方法については、公知の技術としていくつかの手法があるが、いずれの手法を用いても良い。また、本実施例においては、動き情報の特徴量を算出するにあたりOpticalFlow特徴量を用いるが、動き情報の特徴量の算出方法はOpticalFlowを用いた手法に限らず、いずれの方法であっても良い。   As a method for calculating the OpticalFlow feature value, there are some known techniques, but any technique may be used. In this embodiment, the OpticalFlow feature value is used for calculating the feature value of the motion information. However, the method for calculating the feature value of the motion information is not limited to the method using the OpticalFlow, and any method may be used. .

ステップS407では、サーバ装置102のCPU201は、ステップS406で算出したOpticalFlow特徴量を対象オブジェクト領域のサイズで除算することで、動き情報の特徴量を算出する。   In step S407, the CPU 201 of the server apparatus 102 calculates the feature amount of the motion information by dividing the OpticalFlow feature amount calculated in step S406 by the size of the target object region.

ステップS408では、サーバ装置102のCPU201は、ステップS407で算出した動き情報の特徴量が閾値以上であるかを判定する。すなわち、牛の動きに基づき、発情行動をしているか否か(動作から算出された特徴量に基づき、当該動作が検出対象の動作であるか否か)を判定する。   In step S408, the CPU 201 of the server apparatus 102 determines whether the feature amount of the motion information calculated in step S407 is greater than or equal to a threshold value. That is, it is determined based on the movement of the cow whether or not it is performing estrus behavior (whether or not the movement is a movement to be detected based on the feature amount calculated from the movement).

閾値以上である場合(ステップS408:YES)は、処理をステップS409に移行する。   If it is equal to or greater than the threshold (step S408: YES), the process proceeds to step S409.

閾値を満たさない場合(ステップS408:NO)は、処理をステップS410に移行する。   If the threshold is not satisfied (step S408: NO), the process proceeds to step S410.

ステップS409では、サーバ装置102のCPU201は、動き判定フラグにTrueを設定する。   In step S409, the CPU 201 of the server apparatus 102 sets True to the motion determination flag.

ステップS410では、サーバ装置102のCPU201は、次の対象オブジェクト領域を取得し、当該対象オブジェクト領域に対する処理に移行する。そして、本フローチャートに示す処理を終了し、処理をステップS205に戻す。   In step S410, the CPU 201 of the server apparatus 102 acquires the next target object area, and proceeds to processing for the target object area. Then, the process shown in this flowchart is terminated, and the process returns to step S205.

ステップS411では、サーバ装置102のCPU201は、動き判定フラグにFalseを設定する。そして、本フローチャートに示す処理を終了し、処理をステップS205に戻す。   In step S411, the CPU 201 of the server apparatus 102 sets False to the motion determination flag. Then, the process shown in this flowchart is terminated, and the process returns to step S205.

ステップS205では、サーバ装置102のCPU201は、ステップS204における処理の結果、動き判定フラグにTrueが設定されたか否かを判定する。すなわち、動き情報を用いた発情行為判定処理により、発情行為が検知されたか否かを判定する。   In step S205, the CPU 201 of the server apparatus 102 determines whether or not True is set in the motion determination flag as a result of the processing in step S204. That is, it is determined whether or not an estrus action is detected by an estrus action determination process using motion information.

動き判定フラグがTrueの場合(ステップS205:YES)は、処理をステップS206に移行する。   If the motion determination flag is True (step S205: YES), the process proceeds to step S206.

動き判定フラグがFalseの場合(ステップS205:NO)は、処理をステップS207に移行する。   If the motion determination flag is False (step S205: NO), the process proceeds to step S207.

ステップS206では、サーバ装置102のCPU201は、ステップS201、S204の処理により発情している牛がいると判定されたため、発情判定フラグをTrueに設定する。   In step S206, the CPU 201 of the server apparatus 102 sets the estrus determination flag to True since it is determined that there is an estrus cow by the processing of steps S201 and S204.

ステップS207では、サーバ装置102のCPU201は、ステップS201、S204の処理により発情している牛を検知できなかったため、発情判定フラグをFalseに設定する。   In step S207, the CPU 201 of the server apparatus 102 sets the estrus determination flag to False because the cow in estrus could not be detected by the processing in steps S201 and S204.

ステップS208では、サーバ装置102のCPU201は、処理対象のフレーム画像を保持する。本ステップにおいて保持したフレーム画像は、次のフレーム画像に対する処理において、動き特徴量を計算する処理にて使用する。   In step S208, the CPU 201 of the server apparatus 102 holds the processing target frame image. The frame image held in this step is used in the process for calculating the motion feature amount in the process for the next frame image.

図9は、フレーム画像(t)とその前後のフレーム画像を示す模式図である。図10は、図9における各フレーム画像から抽出された候補矩形(対象オブジェクト領域)を示す図である。   FIG. 9 is a schematic diagram showing a frame image (t) and frame images before and after the frame image (t). FIG. 10 is a diagram showing candidate rectangles (target object regions) extracted from each frame image in FIG.

以上説明したように、本発明は、まず見え情報(静止画)により発情行為が行われているかの検出と、当該行為を行っている牛が映っている領域を特定し、当該特定された領域について、動き情報(動画)により発情行為が行われているかを判定することを特徴とする。   As described above, the present invention first detects whether or not an estrus act is performed based on appearance information (still image), identifies an area where a cow performing the act is shown, and identifies the identified area. It is characterized by determining whether the estrus act is performed by motion information (moving image).

このように、見え情報だけでなく動き情報を用いることで、見え情報だけでは発情行為か否かの判断が困難なケース(例えば単に乗駕行動をしているだけの場合や、2頭の牛が重なって立っている場合)であっても、より正確に判断することが可能となる。   In this way, by using not only the appearance information but also the movement information, it is difficult to determine whether or not it is an estrus act only by the appearance information (for example, when only a riding behavior or two cows are Even when standing on top of each other), it becomes possible to make a more accurate determination.

また、動画情報だけの場合には処理対象のデータサイズが大きいため判定処理に時間がかかるが、静止画により発情行動をしている牛が映っている領域を特定し、当該特定された領域に対して動き情報を用いた判定処理を行うことで、少ないデータサイズに対する処理が可能となるため、処理時間の短縮をすることが可能となる。   In addition, in the case of only moving image information, since the processing target data size is large, it takes a long time for the determination process, but the area where the cow performing estrus behavior is shown by the still image is specified, and the specified area is On the other hand, by performing determination processing using motion information, processing for a small data size can be performed, so that processing time can be shortened.

また、牛の身体に特別なセンサを取り付けることなく牛の乗駕行動の有無を発見するため、コスト面や取り付けの手間、牛へのストレスも低減することが可能となる。また、カメラで撮影できる場所であれば牛がどこにいても発情行動を検出することができるため、牛の居場所について制約がない。また、乗駕行動などによって発情しているかを判断するため、歩数や行動量での判断に比べて発情状態であることを高精度で判定することが可能となる。   Moreover, since the presence or absence of the cow's riding behavior is discovered without attaching a special sensor to the cow's body, it is possible to reduce the cost, the labor of attachment, and the stress on the cow. In addition, since the estrus behavior can be detected wherever a cow can be photographed with a camera, there is no restriction on the whereabouts of the cow. In addition, since it is determined whether the estrus is caused by a riding action or the like, it is possible to determine the estrus state with higher accuracy than the determination based on the number of steps or the amount of action.

なお、本実施例においては、牛の発情行動の検知への適用を前提として説明したが、本発明の適用対象は牛の発情行動の検知に限られず、動画データから特定の動きの検知する仕組みとして、様々な対象に適用可能である。   Although the present embodiment has been described on the assumption that it is applied to detection of estrus behavior of cattle, the application target of the present invention is not limited to detection of estrus behavior of cattle, and a mechanism for detecting specific movement from video data As such, it can be applied to various objects.

本発明におけるプログラムは、図3〜図6の処理をコンピュータに実行させるプログラムである。なお、本発明におけるプログラムは、図3〜図6の各処理ごとのプログラムであってもよい。   The program in the present invention is a program that causes a computer to execute the processes of FIGS. The program in the present invention may be a program for each process in FIGS.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。   As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium recording the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on an instruction of the program is actually It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the processing and the processing is included.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   The present invention may be applied to a system constituted by a plurality of devices or an apparatus constituted by a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.

101 ネットワークカメラ端末
102 サーバ装置
103 クライアント端末
101 network camera terminal 102 server apparatus 103 client terminal

Claims (5)

撮像装置により撮影された動画データを取得する画像取得手段と、
前記画像取得手段により取得された動画データから1フレーム画像を抽出し、当該抽出したフレーム画像から物体が映っている領域を特定する領域特定手段と、
前記領域特定手段により特定された領域に映っている物体が、検出対象の動作を行っている物体であるかを判定する見え判定手段と、
前記判定手段により検出対象の動作を行っている物体であると判定された場合、当該領域における動画情報を用いて、当該物体が検出対象の動作を行っているかを判定する動き判定手段と、
を備えることを特徴とする情報処理装置。
Image acquisition means for acquiring moving image data shot by the imaging device;
A region specifying unit for extracting one frame image from the moving image data acquired by the image acquiring unit, and specifying a region in which an object is shown from the extracted frame image;
Appearance determining means for determining whether an object shown in the area specified by the area specifying means is an object performing a detection target operation;
When it is determined by the determination means that the object is performing the detection target motion, using the moving image information in the region, the motion determination means for determining whether the object is performing the detection target motion;
An information processing apparatus comprising:
前記抽出されたフレームの前のフレームにおける当該特定された領域に相当する領域を抽出する抽出手段をさらに備え、
前記動き判定手段は、前記抽出手段により抽出された領域と前記領域特定手段により特定された領域における画像とを用いることで、当該物体が検出対象の動作を行っているかを判定することを特徴とする請求項1に記載の情報処理装置。
An extraction means for extracting an area corresponding to the specified area in a frame before the extracted frame;
The movement determination unit determines whether the object is performing a detection target operation by using the region extracted by the extraction unit and the image in the region specified by the region specification unit. The information processing apparatus according to claim 1.
前記動き判定手段により当該物体が検出対象の動作を行っていると判定された場合、検出対象の動作が行われている旨を通知する通知手段と、
を備えることを特徴とする請求項1または2に記載の情報処理装置。
A notification means for notifying that the motion of the detection target is being performed when the motion determination means determines that the object is performing the motion of the detection target;
The information processing apparatus according to claim 1, further comprising:
情報処理装置における情報処理方法であって、
前記情報処理装置の画像取得手段が、撮像装置により撮影された動画データを取得する画像取得工程と、
前記情報処理装置の領域特定手段が、前記画像取得工程により取得された動画データから1フレーム画像を抽出し、当該抽出したフレーム画像から物体が映っている領域を特定する領域特定工程と、
前記情報処理装置の見え判定手段が、前記領域特定工程により特定された領域に映っている物体が、検出対象の動作を行っている物体であるかを判定する見え判定工程と、
前記情報処理装置の動き判定手段が、前記判定工程により検出対象の動作を行っている物体であると判定された場合、当該領域における動画情報を用いて、当該物体が検出対象の動作を行っているかを判定する動き判定工程と、
を備えることを特徴とする情報処理方法。
An information processing method in an information processing apparatus,
An image acquisition step in which the image acquisition means of the information processing apparatus acquires moving image data captured by the imaging apparatus;
A region specifying step in which the region specifying unit of the information processing apparatus extracts one frame image from the moving image data acquired by the image acquiring step, and specifies a region in which an object is reflected from the extracted frame image;
An appearance determination step in which the appearance determination unit of the information processing apparatus determines whether the object shown in the region specified by the region specification step is an object performing a detection target operation;
When the movement determination unit of the information processing apparatus determines that the object to be detected is moving in the determination step, the object performs the detection target movement using moving image information in the region. A motion determination step of determining whether or not
An information processing method comprising:
情報処理装置において実行可能なプログラムであって、
前記情報処理装置を、
撮像装置により撮影された動画データを取得する画像取得手段と、
前記画像取得手段により取得された動画データから1フレーム画像を抽出し、当該抽出したフレーム画像から物体が映っている領域を特定する領域特定手段と、
前記領域特定手段により特定された領域に映っている物体が、検出対象の動作を行っている物体であるかを判定する見え判定手段と、
前記判定手段により検出対象の動作を行っている物体であると判定された場合、当該領域における動画情報を用いて、当該物体が検出対象の動作を行っているかを判定する動き判定手段として機能させるためのプログラム。
A program executable in the information processing apparatus,
The information processing apparatus;
Image acquisition means for acquiring moving image data shot by the imaging device;
A region specifying unit for extracting one frame image from the moving image data acquired by the image acquiring unit, and specifying a region in which an object is shown from the extracted frame image;
Appearance determining means for determining whether an object shown in the area specified by the area specifying means is an object performing a detection target operation;
When it is determined by the determination means that the object is performing the motion of the detection target, the moving image information in the area is used to function as a motion determination means for determining whether the object is performing the motion of the detection target. Program for.
JP2016169422A 2016-08-31 2016-08-31 Information processing equipment, information processing methods, programs Active JP6959495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016169422A JP6959495B2 (en) 2016-08-31 2016-08-31 Information processing equipment, information processing methods, programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016169422A JP6959495B2 (en) 2016-08-31 2016-08-31 Information processing equipment, information processing methods, programs

Publications (3)

Publication Number Publication Date
JP2018033365A true JP2018033365A (en) 2018-03-08
JP2018033365A5 JP2018033365A5 (en) 2020-05-28
JP6959495B2 JP6959495B2 (en) 2021-11-02

Family

ID=61564578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016169422A Active JP6959495B2 (en) 2016-08-31 2016-08-31 Information processing equipment, information processing methods, programs

Country Status (1)

Country Link
JP (1) JP6959495B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019167743A1 (en) 2018-02-27 2019-09-06 三菱重工業株式会社 Biogas quality evaluation device, biogas quality evaluation method, and program
CN110248158A (en) * 2019-06-06 2019-09-17 上海秒针网络科技有限公司 The method of adjustment and device of shooting visual angle
CN111700001A (en) * 2020-06-24 2020-09-25 四川省草原科学研究院 Yak estrus information measuring method, system, storage medium, program, and terminal
JP2020156393A (en) * 2019-03-26 2020-10-01 富士通株式会社 Behavior detection program, behavior detection method and behavior detection system
WO2021191950A1 (en) * 2020-03-23 2021-09-30 三菱電機ビルテクノサービス株式会社 Cattle monitoring system
JP2022073462A (en) * 2020-11-02 2022-05-17 国立大学法人北海道国立大学機構 Abnormal behavior detection device, abnormal behavior detection program, and abnormal behavior detection method
WO2022190923A1 (en) * 2021-03-11 2022-09-15 日本ハム株式会社 Swine rearing assistance apparatus, swine rearing assistance method, and swine rearing assistance program
WO2023037397A1 (en) * 2021-09-07 2023-03-16 株式会社ハイテム Dead fowl detection method
JP7313610B2 (en) 2018-03-25 2023-07-25 株式会社知能フレームワーク研究所 Early detection system and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002153162A (en) * 2000-11-22 2002-05-28 Fuji Electric Co Ltd Birth sign detector
KR20160044835A (en) * 2014-10-16 2016-04-26 렉스젠(주) Apparatus for managing livestock and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002153162A (en) * 2000-11-22 2002-05-28 Fuji Electric Co Ltd Birth sign detector
KR20160044835A (en) * 2014-10-16 2016-04-26 렉스젠(주) Apparatus for managing livestock and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DU-MING TSAI AND CHING-YING HUANG: "A motion and image analysis method for automatic detection of estrus and mating behavior in cattle", COMPUTERS AND ELECTRONICS IN AGRICULTURE, vol. 104, JPN6020048328, June 2014 (2014-06-01), pages 25 - 31, XP055448272, ISSN: 0004409373, DOI: 10.1016/j.compag.2014.03.003 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019167743A1 (en) 2018-02-27 2019-09-06 三菱重工業株式会社 Biogas quality evaluation device, biogas quality evaluation method, and program
JP7313610B2 (en) 2018-03-25 2023-07-25 株式会社知能フレームワーク研究所 Early detection system and program
JP2020156393A (en) * 2019-03-26 2020-10-01 富士通株式会社 Behavior detection program, behavior detection method and behavior detection system
CN110248158A (en) * 2019-06-06 2019-09-17 上海秒针网络科技有限公司 The method of adjustment and device of shooting visual angle
CN110248158B (en) * 2019-06-06 2021-02-02 上海秒针网络科技有限公司 Method and device for adjusting shooting visual angle
WO2021191950A1 (en) * 2020-03-23 2021-09-30 三菱電機ビルテクノサービス株式会社 Cattle monitoring system
JPWO2021191950A1 (en) * 2020-03-23 2021-09-30
JP7191270B2 (en) 2020-03-23 2022-12-16 三菱電機ビルソリューションズ株式会社 cattle monitoring system
CN111700001A (en) * 2020-06-24 2020-09-25 四川省草原科学研究院 Yak estrus information measuring method, system, storage medium, program, and terminal
JP2022073462A (en) * 2020-11-02 2022-05-17 国立大学法人北海道国立大学機構 Abnormal behavior detection device, abnormal behavior detection program, and abnormal behavior detection method
WO2022190923A1 (en) * 2021-03-11 2022-09-15 日本ハム株式会社 Swine rearing assistance apparatus, swine rearing assistance method, and swine rearing assistance program
WO2023037397A1 (en) * 2021-09-07 2023-03-16 株式会社ハイテム Dead fowl detection method

Also Published As

Publication number Publication date
JP6959495B2 (en) 2021-11-02

Similar Documents

Publication Publication Date Title
JP2018033365A (en) Information processing device, information processing method, and program
US11875467B2 (en) Processing method for combining a real-world environment with virtual information according to a video frame difference value to provide an augmented reality scene, terminal device, system, and computer storage medium
CN109240576B (en) Image processing method and device in game, electronic device and storage medium
EP3129871B1 (en) Generating a screenshot
US9596839B2 (en) Motion capture while fishing
US10532271B2 (en) Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
KR20220073843A (en) Object tracking method and electronic device
WO2019041519A1 (en) Target tracking device and method, and computer-readable storage medium
WO2018120460A1 (en) Image focal length detection method, apparatus and device, and computer-readable storage medium
CN110210219B (en) Virus file identification method, device, equipment and storage medium
US10521965B2 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
US10281979B2 (en) Information processing system, information processing method, and storage medium
JP4858375B2 (en) Information processing apparatus and program
KR20140090078A (en) Method for processing an image and an electronic device thereof
JP2017004252A (en) Image information processing system
WO2018184260A1 (en) Correcting method and device for document image
KR102365431B1 (en) Electronic device for providing target video in sports play video and operating method thereof
JP2019075130A (en) Information processing unit, control method, program
JP2020027496A (en) Monitoring device, monitoring system, and program
US9760582B2 (en) Information processing apparatus and information processing method
US11328485B2 (en) Method and apparatus for displaying an augmented-reality image corresponding to a microscope view
JP2019102941A (en) Image processing apparatus and control method of the same
JP6350024B2 (en) Information processing apparatus, control method therefor, and program
CN112839171B (en) Picture shooting method and device, storage medium and electronic equipment
CN113891040A (en) Video processing method, video processing device, computer equipment and storage medium

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210920

R151 Written notification of patent or utility model registration

Ref document number: 6959495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250