JPWO2017141521A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2017141521A1
JPWO2017141521A1 JP2017567960A JP2017567960A JPWO2017141521A1 JP WO2017141521 A1 JPWO2017141521 A1 JP WO2017141521A1 JP 2017567960 A JP2017567960 A JP 2017567960A JP 2017567960 A JP2017567960 A JP 2017567960A JP WO2017141521 A1 JPWO2017141521 A1 JP WO2017141521A1
Authority
JP
Japan
Prior art keywords
information
work
state
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2017567960A
Other languages
English (en)
Inventor
正典 宮原
正典 宮原
小形 崇
崇 小形
篠田 昌孝
昌孝 篠田
木原 信宏
信宏 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017141521A1 publication Critical patent/JPWO2017141521A1/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Environmental Sciences (AREA)
  • Animal Husbandry (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Health & Medical Sciences (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Mining & Mineral Resources (AREA)
  • Agronomy & Crop Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】家畜の管理をより効率化する。【解決手段】家畜の状態を示す状態情報の表示を制御する表示制御部と、前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得する取得部と、前記作業情報が示す前記作業を指示するための指示情報を出力する出力部と、を備える情報処理装置を提供する。【選択図】図3

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、家畜を管理するための技術が提案されている。例えば、特許文献1では、人的負荷を低減するために、家畜の位置情報を含む家畜小屋のマップを生成する技術が提案されている。
国際公開第2014/042519号
ところで、家畜の管理に関する分野において、家畜の管理をより効率化することが望ましいと考えられる。例えば、家畜の管理のための作業を行う作業者は、実際の家畜の状態に応じて、実行する作業を適宜判断する必要がある。実行する作業についての作業者による上記判断は、家畜の管理における人的負担の増大の要因となり得る。
そこで、本開示では、家畜の管理をより効率化することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、家畜の状態を示す状態情報の表示を制御する表示制御部と、前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得する取得部と、前記作業情報が示す前記作業を指示するための指示情報を出力する出力部と、を備える情報処理装置が提供される。
また、本開示によれば、家畜の状態を示す状態情報の表示を、情報処理装置によって、制御することと、前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得することと、前記作業情報が示す前記作業を指示するための指示情報を出力することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータを、家畜の状態を示す状態情報の表示を制御する表示制御部と、前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得する取得部と、前記作業情報が示す前記作業を指示するための指示情報を出力する出力部と、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、家畜の管理をより効率化することが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は上記の効果に代えて、本明細書に示されたいずれかの効果又は本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る牧場管理システムのシステム構成の一例を示す説明図である。 同実施形態に係る牧場管理システムの機能構成を説明するための概念図である。 同実施形態に係る情報処理装置の機能構成の一例を示す説明図である。 状態データベースのデータテーブルの一例を示す説明図である。 管理者端末に表示される俯瞰視点画面の一例を示す説明図である。 管理者端末に表示される一人称視点画面の一例を示す説明図である。 指示データベースのデータテーブルの一例を示す説明図である。 作業者端末に表示される重畳画面の一例を示す説明図である。 同実施形態に係る情報処理装置が行う指示情報の取得処理の流れの一例を示すフローチャートである。 同実施形態に係る情報処理装置が行う指示情報の出力処理の流れの一例を示すフローチャートである。 同実施形態に係る牧場管理システムが行う牧場管理処理の流れの一例を示すフローチャートである。 本開示に係る情報処理装置のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.牧場管理システム
2.情報処理装置の機能構成
2−1.通信部
2−2.記憶部
2−3.制御部
3.動作
3−1.指示情報の取得処理
3−2.指示情報の出力処理
3−3.牧場管理処理
4.ハードウェア構成
5.まとめ
<1.牧草管理システム>
まず、図1及び図2を参照して本開示の実施形態に係る牧場管理システム1のシステム構成について説明する。本実施形態に係る牧場管理システム1は、牛B30が飼育される牧場を管理するためのシステムの一例である。牛B30は、本開示に係る情報処理装置を含む牧場管理システムにおける家畜の一例に過ぎず、家畜として、豚、馬、又は鳥等が適用されてもよい。
図1は、本実施形態に係る牧場管理システム1のシステム構成の一例を示す説明図である。図1に示したように、牧場管理システム1は、情報処理装置10と、ドローン20と、センサ30と、作業者端末40と、管理者端末50と、を含む。ドローン20、センサ30、作業者端末40、及び管理者端末50の各々は、有線又は無線の情報ネットワークを介して、情報処理装置10と通信する。
なお、図1では、1つの情報処理装置10に対して1つのドローン20、3つのセンサ30、3つの作業者端末40、及び1つの管理者端末50が示されているが、1つの情報処理装置10と通信するドローン20、センサ30、作業者端末40、及び管理者端末50の各々の数は、図1に示した数と異なる数であってもよい。また、牛B30、作業者B40、及び管理者B50の各々の数は、図1に示した数と異なる数であってもよい。
ドローン20は、移動体の一例である。ドローン20は、指定された飛行経路に基づいて自動飛行することが出来るよう構成された無人飛行体である。ドローン20は、例えば、情報処理装置10からの動作指令に基づいて、動作する。具体的には、ドローン20は、情報処理装置10からドローン20へ指示情報が出力された場合、当該指示情報に基づいて、動作する。当該指示情報は、牛B30に関連する作業を指示するための情報である。
ドローン20は、例えば4つのロータにより飛行することが可能であり、各ロータの回転を制御することで、上昇、下降、又は水平移動しつつ飛行することが出来る。もちろんロータの数は係る例に限定されるものではない。ドローン20に設定される飛行開始位置から飛行終了位置までの飛行経路は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)が示す位置情報として設定される。従って、ドローン20には、具体的には、GPS衛星からの電波を受信して現在位置を算出するGPS受信機が組み込まれ得る。
また、ドローン20は、情報処理装置10へ各種情報を送信してもよい。例えば、ドローン20は、レンズやCCDイメージセンサ、CMOSイメージセンサ等の撮像素子、フラッシュ等で構成される撮像装置を備えてもよく、当該撮像装置による撮像処理によって得られた画像を情報処理装置10へ送信してもよい。
例えば、ドローン20は、牛B30を撮像することにより得られる牛B30の全体が映る画像を情報処理装置10へ送信してもよい。また、ドローン20は、牛B30の部位を撮像することによって得られる当該部位が映る画像を情報処理装置10へ送信してもよい。ドローン20から送信された画像は、情報処理装置10による牧場の管理のための処理に用いられる。当該画像は、牛B30の状態を示す状態情報に該当する。
なお、ドローン20は、撮像により得られた画像に画像処理を行うことによって、各種情報を生成し、生成された情報を情報処理装置10へ送信してもよい。画像処理により生成された当該情報もまた、牛B30の状態を示す状態情報に該当する。
センサ30は、牛B30の各々について設けられ、対応する牛B30に関する種々の物理量を検出し、検出結果を送信する。センサ30は、予め設定された時刻に物理量の検出及び検出結果の送信を行ってもよい。また、センサ30は、情報処理装置10からセンサ30へ指示情報が出力された場合、当該指示情報に基づいて、動作してもよい。
センサ30は、例えば、対応する牛B30に装着されてもよい。センサ30から送信される検出結果は、情報処理装置10によって受信され、情報処理装置10による牧場の管理のための処理に用いられる。当該検出結果は、牛B30の状態を示す状態情報に該当する。なお、センサ30は、ドローン20に搭載されてもよく、その場合、ドローン20は、センサ30による検出により得られた検出結果を情報処理装置10へ送信し得る。
センサ30から検出結果として送信される情報は、例えば、牛B30の体調に関連する体調情報を含む。体調情報は、例えば、牛B30の脈拍数、発汗量、体温、体重、体積、血圧、又は皮膚状態を示す情報を含む。牛B30の脈拍数、発汗量、体温、体重、体積、血圧、及び皮膚状態は、例えば、センサ30として、それぞれ脈拍数、発汗量、体温、体重、体積、血圧、及び皮膚状態を検出可能なセンサを適用することによって検出され得る。
センサ30から検出結果として送信される情報は、牛B30の行動に関連する行動情報を含んでもよい。行動情報は、牛B30がいずれの行動を行っているかを示す情報を含んでもよい。センサ30によって検出され得る牛B30の行動は、例えば、咀嚼、発声、移動、排泄、又は睡眠を含む。牛B30が行う行動は、例えば、センサ30として、音声を検出可能な音センサ、匂いを検出可能な匂いセンサ、牛B30の位置を検出可能なGPS受信機、並びに牛B30の動きを検出可能な加速度センサ、ジャイロセンサ、及び地磁気センサのうちの一部又は全部を利用することによって検出され得る。また、行動情報は、牛B30が行っている行動として検出された行動についての詳細な情報を含んでもよい。センサ30は、当該詳細な情報として、例えば、咀嚼の速度、発声された音声の内容、移動速度、排泄の頻度、又は睡眠の頻度を取得し得る。また、当該詳細な情報は、センサ30として、上述したセンサを利用することによって検出され得る。
なお、ドローン20によって、撮像及び得られた画像の画像処理が行われることにより、行動情報が生成されてもよく、その場合には、ドローン20から情報処理装置10へ生成された行動情報が送信され得る。例えば、ドローン20によって、牛B30の全体の撮像及び得られた画像の画像処理が行われることにより、牛B30がいずれの行動を行っているかを示す情報が生成され得る。また、ドローン20によって、牛B30の口の撮像及び得られた画像の画像処理が行われることにより、咀嚼又は発声についての詳細な情報が生成され得る。また、ドローン20によって、牛B30の足の撮像及び得られた画像の画像処理が行われることにより、牛B30の移動についての詳細な情報が生成され得る。
センサ30から検出結果として送信される情報は、牛B30の位置を示す位置情報を含んでもよい。牛B30の位置は、例えば、センサ30として、GPS受信機を適用することによって検出され得る。なお、位置情報は、牛B30が所定時間内において移動した範囲を示す情報を含んでもよい。当該情報は、牛B30の移動履歴から算出され得る。
なお、ドローン20によって、牛B30の全体の撮像及び得られた画像の画像処理が行われることにより、位置情報が生成されてもよく、その場合には、ドローン20から情報処理装置10へ生成された位置情報が送信され得る。
また、センサ30は、検出された物理量を検出結果として情報処理装置10へ直接的に送信してもよく、検出された物理量に演算処理を施して得られる情報を検出結果として情報処理装置10へ送信してもよい。
作業者端末40は、主として、情報処理装置10から出力される指示情報をユーザである牧場の作業者B40へ通知するために、作業者B40によって用いられる通信装置の一例である。作業者端末40は、例えば、外部の装置と通信する機能、画面を表示する機能、音声を出力する機能、及び作業者B40の入力を受け付ける機能を有する。作業者端末40の上記機能は、各種機器により実現されてもよい。例えば、図1では、作業者端末40a、40b、40cとして、それぞれパーソナルコンピュータ、スマートフォン、ヘッドマウントディスプレイが適用された例を示している。
作業者端末40は、例えば、受信した指示情報を表示することによって、指示情報を作業者B40へ通知する。ここで、ヘッドマウントディスプレイである作業者端末40cは、作業者B40の頭部に装着された状態で利用される。作業者端末40cは、作業者B40の視界の少なくとも一部に画面を重畳させて表示し得る。作業者端末40cは、例えば、作業者B40の視界の少なくとも一部に受信した指示情報を重畳させて表示してもよい。
なお、作業者端末40による、指示情報の作業者B40への通知は、画面の表示以外の方法によって実現されてもよい。例えば、作業者端末40は、受信した指示情報を音声として出力することによって、指示情報を作業者B40へ通知してもよい。
また、作業者端末40は、作業者B40により入力された情報を情報処理装置10へ送信してもよい。作業者端末40は、作業者B40の入力を受け付ける入力装置として、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーのうち少なくとも1つを含んでもよい。また、作業者端末40は、作業者B40のジェスチャを入力として受け付けるために、作業者B40のジェスチャを判別可能な装置を含んでもよい。例えば、作業者端末40は、作業者B40により入力された牛B30の体調情報等の状態情報を情報処理装置10へ送信してもよい。作業者端末40から送信された情報は、情報処理装置10による牧場の管理のための処理に用いられる。
管理者端末50は、主として、ドローン20等の装置又は作業者端末40へ指示される作業を示す作業情報を入力するために、牧場の管理者B50によって用いられる。管理者端末50は、例えば、外部の装置と通信する機能、画面を表示する機能、音声を出力する機能、及び管理者B50の入力を受け付ける機能を有する。管理者端末50の上記機能は、例えば、パーソナルコンピュータ、スマートフォン、又はヘッドマウントディスプレイにより実現され得る。
管理者端末50は、作業情報の入力を受け付けるための入力画面を表示してもよい。管理者端末50は、例えば、当該入力画面において、情報処理装置10から受信した牛B30の状態を示す状態情報を表示する。それにより、管理者B50は、実際の牛B30の状態に応じて、適切な作業を決定することができる。管理者B50は、状態情報に基づいて作業情報を入力する。そして、管理者端末50は、状態情報に基づいて入力された作業情報を情報処理装置10へ送信する。当該作業情報は、情報処理装置10による牧場の管理のための処理に用いられる。
管理者端末50は、例えば、実空間における牛B30の位置と仮想空間における牛B30の位置とを対応付けて、当該仮想空間を表示してもよい。それにより、管理者B50は、より直感的な操作によって、作業を決定することができる。また、管理者B50は、牛B30の位置情報に基づいて、より適切な作業を決定することができる。
なお、管理者B50による、作業情報の管理者端末50への入力は、上記入力画面を介した操作によって実現されてもよく、他の方法によって実現されてもよい。また、管理者端末50は、管理者B50の入力を受け付ける入力装置として、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバーのうち少なくとも1つを含んでもよい。また、管理者端末50は、管理者B50のジェスチャを入力として受け付けるために、管理者B50のジェスチャを判別可能な装置を含んでもよい。
情報処理装置10は、牧場の管理のための各種処理を行う。情報処理装置10は、具体的には、牧場の管理のために、ドローン20及びセンサ30等の外部の装置の動作、並びに作業者端末40及び管理者端末50による画面の表示を制御する。例えば、情報処理装置10は、ドローン20、センサ30又は作業者端末40から受信した状態情報を管理者端末50へ表示させる。また、情報処理装置10は、当該状態情報に基づいて管理者B50により入力される作業情報を管理者端末50から取得する。また、情報処理装置10は、当該作業情報が示す作業を指示するための指示情報を、ドローン20、センサ30又は作業者端末40へ出力する。それにより、牛B30に関連する作業が、ドローン20、センサ30又は作業者B40により実行される。
本実施形態に係る情報処理装置10は、牛B30の状態を示す状態情報の表示を制御し、当該状態情報に基づいて入力される牛B30に関連する作業を示す作業情報を取得し、当該作業情報が示す作業を指示するための指示情報を出力する。それにより、実際の牛B30の状態に応じた適切な作業の実行を、人的負担を低減しつつ、実現することができる。ゆえに、本実施形態に係る情報処理装置10によれば、牛B30の管理をより効率化することが可能である。なお、情報処理装置10の詳細については、後述する。
図2は、本実施形態に係る牧場管理システム1の機能構成を説明するための概念図である。図2に示したように、牧場管理システム1の機能は、実空間作業部910と、仮想空間操作部920と、システム制御部930と、記憶部940と、により実現され得る。
実空間作業部910は、牧場の実空間において、牛B30に関連する作業を実行する機能を有する。実空間作業部910の上記機能は、例えば、図1に示したドローン20、センサ30、作業者端末40、及び作業者B40により実現される。
仮想空間操作部920は、牧場の実空間と対応する仮想空間を利用して、実空間作業部910へ実行させる作業を決定する機能を有する。仮想空間操作部920の上記機能は、例えば、図1に示した管理者端末50、及び管理者B50により実現される。
システム制御部930は、実空間作業部910及び仮想空間操作部920を制御する。具体的には、システム制御部930は、実空間作業部910における作業の実行及び仮想空間操作部920における画面の表示を制御する。記憶部940は、システム制御部930における各種処理のために参照されるデータを記憶する。また、記憶部940により記憶されるデータは、システム制御部930により書き換え可能となっている。システム制御部930及び記憶部940の上記機能は、例えば、図1に示した情報処理装置10により実現される。なお、システム制御部930及び記憶部940の機能は、複数の装置により実現されてもよい。なお、情報処理装置10の詳細については、後述する。
システム制御部930は、実空間作業部910の制御において、拡張現実GUI(Graphical User Interface)を利用してもよい。当該拡張現実GUIは、現実世界が拡張された感覚を作業者B40へ呈示するためのGUIである。具体的には、実空間作業部910の機能がヘッドマウントディスプレイである作業者端末40c及び作業者B40により実現される場合に、拡張現実GUIが利用される。作業者端末40cは、情報処理装置10からの動作指令に基づいて、作業者B40の視界の少なくとも一部に、指示情報を含む拡張現実GUIを重畳させて表示してもよい。それにより、作業者B40に対して当該拡張現実GUIにより指示情報が通知され、当該指示情報に対応する作業を作業者B40に実行させることができる。なお、作業者端末40cが表示する画面の詳細については、後述する。
また、システム制御部930は、仮想空間操作部920の制御において、仮想空間GUI(Graphical User Interface)を利用してもよい。当該仮想空間GUIは、現実感を伴う仮想的な世界を管理者B50へ呈示し、及び管理者B50による操作を受け付けるためのGUIである。具体的には、管理者端末50は、牛B30の状態を示す状態情報を含む仮想空間GUIを表示してもよい。それにより、管理者B50は、より直感的な操作により、実空間作業部910へ実行させる作業を決定することができる。なお、管理者端末50が表示する画面の詳細については、後述する。
<2.情報処理装置の機能構成>
続いて、図3〜図8を参照して、本実施形態に係る情報処理装置10の機能構成について説明する。図3は、本実施形態に係る情報処理装置10の機能構成の一例を示す説明図である。図3に示したように、情報処理装置10は、通信部200と、記憶部400と、制御部600と、を備える。
[2−1.通信部]
通信部200は、情報処理装置10の外部の装置と通信する。具体的には、通信部200は、ドローン20、センサ30、作業者端末40、及び管理者端末50から送信された各種情報を受信し、記憶部400及び制御部600へ出力する。より具体的には、通信部200は、ドローン20から牛B30の状態を示す状態情報として、撮像された画像又は当該画像に画像処理を行うことによって生成された情報を受信する。また、通信部200は、センサ30から状態情報として、検出結果を受信する。また、通信部200は、作業者端末40から作業者B40により入力された体調情報等の状態情報を受信する。また、通信部200は、状態情報に基づいて入力される牛B30に関連する作業を示す作業情報を、管理者端末50から受信する。以上のように、通信部200は、状態情報に基づいて入力される牛B30に関連する作業を示す作業情報を取得する本開示に係る取得部に相当する。
また、通信部200は、制御部600からの動作指令に基づいて、ドローン20、センサ30、作業者端末40、及び管理者端末50等の外部の装置へ各種情報を送信する。それにより、ドローン20及びセンサ30等の外部の装置の動作並びに作業者端末40及び管理者端末50による画面の表示が制御される。
[2−2.記憶部]
記憶部400は、情報処理装置10における各種処理のために参照されるデータを記憶する。具体的には、記憶部400は、制御部600が行う作業者端末40及び管理者端末50による画像の表示の制御に用いられる画像データ、制御部600が行う予測処理に用いられる予測モデル、及び通信部200から入力された各種情報を記憶する。また、記憶部400は、状態DB(データベース)410及び指示DB(データベース)420を記憶する。状態DB410では、状態情報が取得された時刻と当該状態情報とが紐付けられている。また、指示DB420では、指示情報が出力された時刻と当該指示情報とが紐付けられている。なお、状態DB410及び指示DB420の詳細については、後述する。
[2−3.制御部]
制御部600は、DB(データベース)操作部610と、状態情報生成部620と、仮想空間GUI生成部630と、管理者端末表示制御部640と、作業情報生成部650と、指示情報生成部660と、拡張現実GUI生成部670と、作業者端末表示制御部680と、駆動制御部690と、を含む。
(DB操作部)
DB操作部610は、記憶部400に記憶される状態DB410及び指示DB420からのデータの読み出し及び状態DB410及び指示DB420へのデータの登録を行う。DB操作部610は、読み出したデータを、状態情報生成部620、仮想空間GUI生成部630、作業情報生成部650、指示情報生成部660、拡張現実GUI生成部670、及び駆動制御部690へ出力する。また、DB操作部610は、取得した状態情報及び指示情報をそれぞれ状態DB410及び指示DB420へ登録することにより、状態DB410及び指示DB420を更新する。それにより、牛B30の状態の履歴、及び当該牛B30について指示された作業の履歴を記録として蓄積することができる。ゆえに、牛B30の状態と、当該牛B30について指示された作業の関連性を調査することができるので、牧場における業務の効率化等の改善活動を実施することができる。
(状態情報生成部)
状態情報生成部620は、状態情報に含まれる第1の状態情報に基づいて、当該第1の状態情報と対応する状態と異なる状態を示す状態情報である第2の状態情報を生成する。ここで、ドローン20、センサ30、又は作業者端末40から送信された検出結果等の状態情報は、通信部200により取得された後、記憶部400へ入力され、状態DB410へ登録される。状態情報生成部620は、例えば、第1の状態情報に相当する状態DB410へ登録された当該状態情報に基づいて、第2の状態情報を生成する。そして、状態情報生成部620は、生成された第2の状態情報をDB操作部610へ出力することにより、状態DB410への第2の状態情報の登録をDB操作部610に行わせてもよい。以上のように、状態情報生成部620により第2の状態情報が生成されることによっても、情報処理装置10は、状態情報を取得することができる。
なお、状態情報生成部620による第2の状態情報の生成は、通信部200から記憶部400へ入力された第1の状態情報が状態DB410へ登録されたことをトリガとして、行われてもよい。また、状態情報生成部620による第2の状態情報の生成は、所定時間が経過したことをトリガとして、行われてもよい。
状態情報生成部620は、例えば、第1の状態情報に相当する牛B30の発声に関する情報に基づいて、第2の状態情報として、牛B30が発情しているか否かを示す情報を生成してもよい。また、状態情報生成部620は、第1の状態情報に相当する牛B30の咀嚼に関する情報及び体温を示す情報に基づいて、第2の状態情報として、牛B30が病気を患っている可能性があるか否かを示す情報を生成してもよい。このように、取得された第1の状態情報に基づいて、第2の状態情報を生成することによって、牛B30のより多様な状態についての状態情報を取得することが可能となる。それにより、牛B30のより多様な状態についての状態情報を管理者B50へ呈示することができる。
状態情報生成部620は、例えば、事前に学習される予測モデルを用いて第1の状態情報から第2の状態情報を予測することによって、第2の状態情報を生成してもよい。事前の学習処理では、第2の状態情報と当該第2の状態情報に対応する第1の状態情報とのペアが多数用意される。ここで用意される第2の状態情報及び第1の状態情報は、教師あり学習における教師情報及び生徒情報にそれぞれ相当する。そして、例えばブースティング又はサポートベクタマシンといった既存のアルゴリズムに従って、第1の状態情報から第2の状態情報を予測するための予測モデルが構築される。当該予測モデルは、記憶部400に記憶される。状態情報生成部620は、当該予測モデルを用いた予測を行うことによって、第1の状態情報に基づいて、第2の状態情報を特定してもよい。
ここで、上述した状態DB410について、より詳細に説明する。状態DB410は、例えば、データテーブル形式であってもよい。図4は、状態DB410のデータテーブルD10の一例を示す説明図である。データテーブルD10には、DB操作部610によって、各種データが登録され得る。
図4に示したように、データテーブルD10では、各行において、状態情報が取得された時刻、当該状態情報、及び他の各種情報が紐付けられている。データテーブルD10において、「開始時刻」及び「終了時刻」は、状態情報の取得が開始され、及び終了した時刻をそれぞれ示す。ここで、状態情報の取得は、ドローン20、センサ30、若しくは作業者端末40による状態情報の取得、又は状態情報生成部620が行う第2の状態情報の生成による状態情報の取得を意味する。また、「取得場所」は、ドローン20、センサ30、又は作業者端末40により取得された検出結果等の状態情報についての、当該状態情報が取得された場所を示す。また、「牛ID」は、状態情報に対応する牛B30のIDを示す。また、「取得手段」は、状態情報の取得において利用された手段を示す。また、「手段詳細」は、取得手段のより詳細な情報を示す。また、「状態詳細」は、状態情報のより詳細な情報を示す。
例えば、図4に示したように、データテーブルD10において、領域G10に対応する行には、牛ID「0263」の牛B30について、「やや高熱」という状態を示す状態情報が示されている。また、当該状態情報は、図1におけるドローン20に相当するドローンAによって、赤外線カメラを用いて取得されたことが示されている。また、当該状態情報のより詳細な情報として、検出された温度に関する情報である温度ファイルが示されている。また、当該状態情報は、2015年12月14日16時29分から2015年12月14日17時52分までの間にドローンAにより取得されたことが示されている。また、当該状態情報が取得された場所に対応するアドレス番号が「35.631166,139.743612」であることが示されている。
なお、第2の状態情報の生成は、獣医等の専門家によって行われてもよい。例えば、獣医等は、情報処理装置10と通信可能な端末を利用することによって、状態DB410に登録された第1の状態情報を参照して、第2の状態情報を当該端末に入力することができる。そして、入力された第2の状態情報は、当該端末から情報処理装置10へ送信され、情報処理装置10によって取得され得る。獣医等の専門家によって入力される第2の状態情報は、例えば、病気の可能性があることを示す情報であってもよい。なお、獣医等の専門家による第2の状態情報の生成が必要であると判断される場合には、獣医等に第2の状態情報の生成を要求する必要がある旨を示す情報が、情報処理装置10のオペレータに通知されるように構成されてもよい。
(仮想空間GUI生成部)
仮想空間GUI生成部630は、管理者端末50に表示させるための情報として、仮想空間GUIを生成し、管理者端末表示制御部640へ出力する。生成された仮想空間GUIは、管理者端末表示制御部640が管理者端末50による画面の表示を制御することによって、管理者端末50に表示される。それにより、現実感を伴う仮想的な世界を管理者B50へ呈示することができる。
仮想空間GUI生成部630は、記憶部400に記憶される情報に基づいて、仮想空間GUIを生成する。具体的には、仮想空間GUI生成部630は、状態DB410に基づいて、牛B30の状態を示す状態情報を含む仮想空間GUIを生成する。また、仮想空間GUI生成部630は、牛B30の位置を示す位置情報に基づいて、実空間における牛B30の位置と仮想空間GUIにおける牛B30の位置とを対応付けて、仮想空間GUIを生成してもよい。また、仮想空間GUI生成部630は、管理者B50により選択された時刻に対応する仮想空間GUIを生成し、管理者端末表示制御部640へ出力してもよい。
仮想空間GUI生成部630は、管理者端末表示制御部640からの動作指令をトリガとして、仮想空間GUIを生成してもよい。また、仮想空間GUI生成部630は、DB操作部610により状態DB410が更新されたことをトリガとして、仮想空間GUIを生成してもよい。また、仮想空間GUI生成部630は、所定時間が経過したことをトリガとして、仮想空間GUIを生成してもよい。なお、仮想空間GUI生成部630により生成され、管理者端末50に表示される仮想空間GUIの詳細については、後述する。
(管理者端末表示制御部)
管理者端末表示制御部640は、管理者端末50による画面の表示を制御する。具体的には、管理者端末表示制御部640は、各種画面を管理者端末50に表示させるための情報の管理者端末50への送信を通信部200に行わせることによって、管理者端末50による画面の表示を制御する。管理者端末表示制御部640は、例えば、仮想空間GUI生成部630により生成された仮想空間GUIを管理者端末50に表示させる。また、管理者端末表示制御部640は、管理者B50からの操作入力に応じて、管理者端末50による画面の表示を制御してもよい。
本実施形態に係る管理者端末表示制御部640は、牛B30の状態を示す状態情報を管理者端末50に表示させる。具体的には、管理者端末表示制御部640は、仮想空間GUI生成部630により生成された仮想空間GUIを管理者端末50に表示させる。ここで、管理者端末50に表示される仮想空間GUIは、牛B30の状態を示す状態情報を含む。以上のように、管理者端末表示制御部640は、家畜の状態を示す状態情報の表示を制御する表示制御部に相当する。
また、管理者端末表示制御部640は、実空間における牛B30の位置と仮想空間における牛B30の位置とを対応付けて、当該仮想空間を管理者端末50に表示させてもよい。具体的には、管理者端末表示制御部640は、仮想空間GUI生成部630により実空間における牛B30の位置と仮想空間GUIにおける牛B30の位置とを対応付けて生成された仮想空間GUIを管理者端末50に表示させてもよい。それにより、管理者B50は、より直感的な操作によって、ドローン20等の装置又は作業者B40へ指示される作業を決定することができる。また、管理者B50は、牛B30の位置情報に基づいて、より適切な作業を決定することができる。以下、管理者端末50によって表示される画面の例について説明する。
図5は、管理者端末50に表示される俯瞰視点画面E12の一例を示す説明図である。俯瞰視点画面E12は、牧場を上空から見た仮想空間を示す仮想空間GUIである。このように、管理者端末表示制御部640は、上空から見た仮想空間を管理者端末50に表示させてもよい。俯瞰視点画面E12では、牧場における牛B30の状態情報及び位置情報が主に表示される。
図5に示したように、俯瞰視点画面E12では、例えば、牛B30の位置を示す牛画像F17が、牧場の外観を示す牧場画像F20に重畳して表示される。牧場画像F20は、例えば、建物、草木及び道等の牧場内において土地に対して固定されている物体を示す画像を含んでもよい。また、俯瞰視点画面E12において、ドローン20及び作業者B40の位置を示す画像が表示されてもよい。なお、俯瞰視点画面E12において、ドローン20及び作業者B40の稼働状況を示す情報として、牛B30に関連する作業を実行することができるか否かを示す情報が表示されてもよい。
また、俯瞰視点画面E12では、牛B30の状態を示す状態情報が表示される。例えば、俯瞰視点画面E12では、図5に示したように、牛B30の状態を示す牛状態アイコンF18が、対応する牛B30の牛画像F17の近傍に表示される。例えば、管理者端末表示制御部640は、俯瞰視点画面E12において表示される牛状態アイコンF18の種類を、牛B30の状態に応じて異ならせることによって、管理者B50へ牛B30の各々の状態を呈示してもよい。
具体的には、管理者端末表示制御部640は、表示される牛状態アイコンF18の色を、牛B30の状態に応じて異ならせてもよい。また、管理者端末表示制御部640は、表示される牛状態アイコンF18の形状を、牛B30の状態に応じて異ならせてもよい。俯瞰視点画面E12では、例えば、図5に示したように、牛状態アイコンF18の種類と牛B30の状態との対応関係を示す状態アイコン種類エリアF16が中央右側に設けられてもよい。なお、図5において、牛状態アイコンF18におけるハッチングの濃淡の差異は、牛B30の状態の差異を示す。
また、俯瞰視点画面E12では、例えば、図5に示したように、牛B30の最新の状態を管理者端末50に表示させるための最新状態取得ボタンF14が右上部に表示されてもよい。例えば、管理者B50により最新状態取得ボタンF14が選択された場合、管理者端末表示制御部640は、仮想空間GUI生成部630によって直近に生成された仮想空間GUIを管理者端末50に表示させる。それにより、牛B30の最新の状態を示す状態情報を管理者B50へ呈示することができる。また、牛B30の最新の位置を示す位置情報を管理者B50へ呈示することができる。
また、俯瞰視点画面E12では、例えば、図5に示したように、管理者端末50に表示させる仮想空間GUIに対応する時刻を選択するためのスライダである時刻スライダF12が上部に表示されてもよい。例えば、現在表示されている仮想空間GUIに対応する時刻と異なる時刻が、管理者B50により時刻スライダF12を用いて選択された場合、管理者端末表示制御部640は、管理者B50により選択された時刻に対応する仮想空間GUIを管理者端末50に表示させる。具体的には、管理者端末表示制御部640は、選択された時刻に対応する仮想空間GUIの生成を、仮想空間GUI生成部630に指示する。そして、管理者端末表示制御部640は、仮想空間GUI生成部630により生成された仮想空間GUIを取得し、管理者端末50に表示させる。
管理者B50は、時刻スライダF12を用いて、過去又は未来の時刻を選択可能であってもよい。管理者B50により過去の時刻が選択された場合、仮想空間GUI生成部630は、例えば、状態DB410における、選択された時刻に対応する情報を利用して、選択された時刻に対応する仮想空間GUIを生成してもよい。一方、管理者B50により未来の時刻が選択された場合、仮想空間GUI生成部630は、例えば、事前に学習される予測モデルを用いて、選択された時刻に対応する仮想空間GUIを生成してもよい。以上のように、管理者端末表示制御部640は、複数の時刻の各々に対応する仮想空間を切り替えて管理者端末50に表示させてもよい。それにより、管理者B50は、牛B30の状態の履歴に基づいて、ドローン20等の装置又は作業者B40へ指示される作業を決定することができる。
なお、過去の時刻が選択された場合に、状態DB410において、選択された時刻に対応する情報が存在しない又は不足しているときには、仮想空間GUI生成部630は、状態DB410における、選択された時刻と異なる時刻に対応する情報を利用して、仮想空間GUIを生成してもよい。具体的には、仮想空間GUI生成部630は、状態DB410に含まれる情報のうち、選択された時刻の直前及び直後の時刻に対応する情報を線形補間することによって、仮想空間GUIを生成してもよい。また、仮想空間GUI生成部630は、状態DB410に含まれる情報のうち、選択された時刻の直前の時刻に対応する情報に基づいて、仮想空間GUIを生成してもよい。
また、俯瞰視点画面E12では、例えば、図5に示したように、後述する一人称視点画面における視点を示す視点アイコンF22及び視界を示す視界アイコンF23が表示されてもよい。管理者端末表示制御部640は、管理者B50からの操作入力に応じて、視点アイコンF22及び視界アイコンF23の表示を制御してもよい。管理者B50は、俯瞰視点画面E12において、視点アイコンF22の位置を調整することによって、後述する一人称視点画面における視点を設定可能である。そして、管理者B50は、俯瞰視点画面E12において視点アイコンF22の向きを調整することにより、後述する一人称視点画面における視線方向を調整することによって、視界を設定可能である。
管理者端末表示制御部640は、管理者B50からの操作入力に応じて、図5に示した牧場を上空から見た仮想空間を示す俯瞰視点画面E12の表示と、図6に示した牧場を地上から見た仮想空間を示す一人称視点画面E14の表示とを切り替え可能であってもよい。俯瞰視点画面E12によれば、一人称視点画面E14と比較して、牧場における広域にわたる牛B30の状態を確認することができる。一方、一人称視点画面E14によれば、俯瞰視点画面E12と比較して、各牛B30についてのより詳細な情報の確認及び作業情報の入力を行うことができる。以下、このような一人称視点画面E14の詳細について説明する。
図6は、管理者端末50に表示される一人称視点画面E14の一例を示す説明図である。一人称視点画面E14は、牧場を地上から見た仮想空間を示す仮想空間GUIである。このように、管理者端末表示制御部640は、地上から見た仮想空間を管理者端末50に表示させてもよい。一人称視点画面E14では、俯瞰視点画面E12において視界アイコンF23により示された視界に映る牛B30の状態情報及び位置情報が主に表示される。
図6に示したように、一人称視点画面E14では、例えば、俯瞰視点画面E12と同様に、牛B30の位置を示す牛画像F17が、牧場の外観を示す牧場画像F20に重畳して表示される。また、一人称視点画面E14において、ドローン20及び作業者B40の位置を示す画像が表示されてもよい。一人称視点画面E14では、視点が地上に位置するので、俯瞰視点画面E12と比較して、作業者B40の視界に映る光景により近い画像を管理者B50へ呈示することができる。
また、一人称視点画面E14では、図6に示したように、牛状態アイコンF18が示す状態に関連するメッセージF28が当該牛状態アイコンF18の近傍に表示されてもよい。例えば、メッセージF28は、牛状態アイコンF18が示す状態のより詳細な情報であってもよい。また、メッセージF28は、牛状態アイコンF18に相当する状態情報を生成するために用いられた情報であってもよい。具体的には、状態情報生成部620により、牛B30の体温が高熱である旨、咳をしている旨、及び鼻汁が出ている旨を示す第1の状態情報に基づいて、牛B30が病気を患っている可能性がある旨を示す第2の状態情報が生成された場合において、当該第1の状態情報が図6に示したようにメッセージF28として表示されてもよい。
また、一人称視点画面E14では、図6に示したように、牛状態アイコンF18及び当該牛状態アイコンF18に対応するメッセージF28は、牛画像F17において当該メッセージF28に対応する部位の近傍に表示されてもよい。具体的には、図6に示したように、病気を患っている可能性がある旨を示す牛状態アイコンF18並びに咳をしている旨及び鼻汁が出ている旨を示すメッセージF28は、牛画像F17における鼻の近傍に表示されてもよい。
また、一人称視点画面E14は、ドローン20等の装置又は作業者端末40へ指示される作業を示す作業情報についての管理者B50による入力を受け付けるための入力画面に相当し得る。一人称視点画面E14の入力画面としての機能は、例えば、作業選択ウィンドウF26によって、実現される。一人称視点画面E14において、作業選択ウィンドウF26は、ドローン20等の装置又は作業者B40へ指示される作業を示す作業情報を管理者B50が入力するために、例えば、当該作業に対応する牛B30を示す牛画像F17の近傍に設けられる。
作業選択ウィンドウF26では、状態情報に基づいて生成された牛B30に関連する作業の複数の候補が表示されてもよい。例えば、作業選択ウィンドウF26では、図6に示したように、「牛舎へ移動させる」、「ビタミン剤の投与」、及び「人工授精」が作業の候補として表示される。また、作業選択ウィンドウF26では、作業の候補の各々について当該作業に要する推定時間が表示されてもよい。なお、作業選択ウィンドウF26では、牛B30の属性、牧場における設備の状況等に起因して、実行することができない作業の候補を示す領域は、グレーアウトされてもよい。作業選択ウィンドウF26に表示された作業の候補において、管理者B50により選択された作業を示す作業情報が、状態情報に基づいて入力された作業情報として、管理者端末50から情報処理装置10へ送信される。
牛B30に関連する作業の複数の候補は、例えば、管理者端末表示制御部640によって、状態情報に基づいて生成される。以上のように、管理者端末表示制御部640は、状態情報に基づいて生成された牛B30に関連する作業の複数の候補を、管理者端末50に表示させてもよい。それにより、管理者B50は、ドローン20等の装置又は作業者B40へ指示される作業を、より容易に決定することができる。
なお、一人称視点画面E14において、管理者B50により牛B30が選択されたことをトリガとして、選択された牛B30に対応する作業選択ウィンドウF26が表示されてもよい。また、作業選択ウィンドウF26では、選択された牛B30の名称及び生後月数が表示されてもよい。また、作業選択ウィンドウF26は、図6に示したように、選択された牛B30を示す吹き出し形状であってもよい。
上記では、管理者B50が、表示された作業の候補の中から作業を選択することによって、作業情報を入力する例について説明したが、作業の候補の中からの作業の選択以外の方法によって、管理者B50による作業情報の入力が行われてもよい。例えば、管理者B50は、表示された牛B30の状態情報に基づいて、ドローン20等の装置又は作業者B40へ指示される作業を判断し、当該作業を示す作業情報を入力してもよい。係る場合には、作業選択ウィンドウF26は、表示されなくてもよい。
上記では、管理者B50による作業情報の入力が一人称視点画面E14において受付可能である例について説明したが、管理者B50による作業情報の入力は、俯瞰視点画面E12において受付可能であってもよい。例えば、俯瞰視点画面E12において作業選択ウィンドウF26が表示されてもよい。
また、俯瞰視点画面E12及び一人称視点画面E14を利用して、管理者B50が作業者B40と通話可能に構成されてもよい。例えば、俯瞰視点画面E12又は一人称視点画面E14において、作業者B40を示す画像が表示される場合において、管理者B50が当該作業者B40を示す画像を選択した場合に、管理者端末50と作業者端末40が通信を開始することにより、管理者B50と作業者B40とが通話可能になってもよい。
また、俯瞰視点画面E12及び一人称視点画面E14に表示される牧場画像F20等の画像は、予め記憶部400に記憶される三次元モデルを用いて生成されてもよい。また、当該三次元モデルは、ドローン20により撮像された画像に基づいて生成され又は更新されてもよい。また、俯瞰視点画面E12及び一人称視点画面E14の一部は、ドローン20等によって撮像された画像により構成されてもよい。また、上述では、管理者端末表示制御部640が牧場における屋外についての画面を管理者端末50に表示させる例について説明したが、管理者端末表示制御部640は、牧場における屋内についての画面を管理者端末50に表示させてもよい。なお、管理者端末表示制御部640は、牧場における屋内及び屋外のいずれか一方又は双方について、管理者端末50による画面の表示を制御してもよい。
また、管理者端末表示制御部640は、管理者B50からの操作入力をトリガとして、管理者端末50への仮想空間GUIの表示を行ってもよい。その場合、管理者端末表示制御部640は、管理者B50からの操作入力に応じて、仮想空間GUI生成部630へ仮想空間GUIの生成を指示してもよい。また、管理者端末表示制御部640は、仮想空間GUI生成部630により仮想空間GUIが生成されたことをトリガとして、管理者端末50へ表示させる仮想空間GUIを更新してもよい。また、管理者端末表示制御部640は、所定時間が経過したことをトリガとして、管理者端末50へ表示させる仮想空間GUIを更新してもよい。
(作業情報生成部)
作業情報生成部650は、状態情報に基づいて、作業情報を生成し、指示情報生成部660へ出力する。作業情報生成部650は、例えば、DB操作部610を介して状態DB410に含まれる状態情報を取得してもよい。
本実施形態に係る牧場管理システム1では、作業情報の入力が管理者B50により管理者端末50を用いて行われる手動モードと、作業情報の入力が管理者B50の操作によらず情報処理装置10によって行われる自動モードとを切り替え可能に構成されてもよい。手動モードと自動モードの切り替えは、例えば、管理者端末50への管理者B50からの操作入力に応じて、行われてもよい。モード切り替えが行われたことを示す情報は、管理者端末50から情報処理装置10へ送信される。作業情報生成部650による作業情報の生成は、具体的には、作業情報の入力が自動モードである場合に行われる。
手動モードである場合には、上述したように、一人称視点画面E14において、管理者B50による作業情報の入力が受け付けられ、当該作業情報は管理者端末50から情報処理装置10へ送信される。この場合、情報処理装置10は、管理者端末50から送信された当該作業情報が示す作業を指示するための指示情報を出力する。一方、自動モードである場合には、情報処理装置10における作業情報生成部650が、状態情報に基づいて、作業情報を生成する。この場合、情報処理装置10は、作業情報生成部650により生成された当該作業情報が示す作業を指示するための指示情報を出力する。なお、指示情報の出力に関する処理の詳細については、後述する。
このように、作業情報生成部650により、状態情報に基づいて、作業情報が生成されることによって、管理者B50による作業情報の入力の負担を省略することができる。それにより、牛B30の管理における人的負担を軽減することができる。
作業情報生成部650は、例えば、事前に学習される予測モデルを用いて状態情報から作業情報を予測することによって、作業情報を生成してもよい。事前の学習処理では、管理者B50により入力された作業情報と当該作業情報に対応する状態情報とのペアが多数用意される。ここで用意される作業情報及び状態情報は、教師あり学習における教師情報及び生徒情報にそれぞれ相当する。そして、例えばブースティング又はサポートベクタマシンといった既存のアルゴリズムに従って、状態情報から作業情報を予測するための予測モデルが構築される。当該予測モデルは、記憶部400に記憶される。作業情報生成部650は、当該予測モデルを用いた予測を行うことによって、状態情報に基づいて、作業情報を特定してもよい。
なお、作業情報生成部650による作業情報の生成は、DB操作部610により状態DB410が更新されたことをトリガとして、行われてもよい。また、作業情報生成部650による作業情報の生成は、所定時間が経過したことをトリガとして、行われてもよい。
(指示情報生成部)
指示情報生成部660は、ドローン20等の外部の装置及び作業者B40に対して作業を指示するための指示情報を生成する。例えば、指示情報生成部660は、牛B30に関連する作業を示す作業情報に基づいて、当該作業情報が示す作業を指示するための指示情報を生成する。指示情報生成部660は、管理者B50により入力された作業情報を情報処理装置10が受信したことをトリガとして、当該作業情報が示す作業を指示するための指示情報を生成してもよい。なお、作業情報生成部650によって作業情報が生成される場合において、指示情報生成部660は、作業情報が生成されたことをトリガとして、当該作業情報が示す作業を指示するための指示情報を生成してもよい。
また、指示情報生成部660は、生成された指示情報をDB操作部610へ出力することにより、指示DB420への指示情報の登録をDB操作部610に行わせてもよい。指示情報生成部660は、作業が指示される対象である指示対象を決定し、決定された当該指示対象を示す情報をDB操作部610へ出力することにより、指示DB420への当該指示対象を示す情報の登録をDB操作部610に行わせてもよい。それにより、指示情報と、当該指示対象を示す情報と、が紐付けられる。
指示情報生成部660は、例えば、作業者B40及び外部の装置の各々と作業情報に対応する牛B30との距離に基づいて、作業が指示される対象である指示対象を決定してもよい。具体的には、図6に示した作業選択ウィンドウF26において、管理者B50により、牛B30に関連する作業として、「牛舎へ移動させる」が選択された場合、指示情報生成部660は、当該牛B30から最も近い位置に位置する作業者B40を指示対象として決定してもよい。その場合、当該牛B30を牛舎へ移動させる作業を指示するための指示情報と、指示対象が当該作業者B40である旨を示す情報と、が紐付けられる。
また、指示情報生成部660は、作業者B40及び外部の装置の各々の稼働状況に基づいて、指示対象を決定してもよい。具体的には、管理者B50により、牛B30に関連する作業として、「牛舎へ移動させる」が選択された場合、当該牛B30から所定の距離以下の範囲において、作業を実行することが可能な作業者B40が存在しないとき、ドローン20を指示対象として決定してもよい。その場合、当該牛B30を牛舎へ移動させる作業を指示するための指示情報と、指示対象がドローン20である旨を示す情報と、が紐付けられる。
ここで、上述した指示DB420について、より詳細に説明する。指示DB420は、例えば、データテーブル形式であってもよい。図7は、指示DB420のデータテーブルD20の一例を示す説明図である。データテーブルD20には、DB操作部610によって、各種データが登録され得る。
図7に示したように、データテーブルD20では、各行において、指示情報が出力された時刻、当該指示情報、及び他の各種情報が紐付けられている。データテーブルD20において、「指示開始時刻」及び「作業完了時刻」は、指示情報の出力が開始された時刻、及び指示情報に対応する作業が完了した時刻をそれぞれ示す。なお、情報処理装置10は、指示情報に対応する作業が完了した旨を示す情報を受信した場合に、指示情報の出力を終了してもよい。この場合、「作業完了時刻」は、指示情報の出力が終了した時刻を示す。また、「ステータス」は、指示される作業の進行状態を示す。また、「指示主体」は、指示される作業を示す作業情報を入力した主体を示す。なお、指示情報生成部660により指示情報が生成された場合、指示情報生成部660が指示主体に相当する。また、「指示対象」は、作業が指示される対象を示す。ここで、指示情報は、例えば、「作業対象」、「作業種別」、及び「作業詳細」を含む。「作業対象」は、指示される作業に対応する牛B30を示す。また、「作業種別」は、指示される作業の種別を示す。また、「作業詳細」は、指示される作業の詳細情報を示す。
例えば、図7に示したように、データテーブルD20において、領域G20に対応する行には、牛ID「0134」の牛B30を牛舎へ移動させる作業を指示するための指示情報が示されている。また、当該作業が指示される対象である指示対象が図1における作業者B40に相当する農場労働者Aであることが示されている。ゆえに、当該指示情報の出力先は、農場労働者Aが用いる作業者端末40である。また、指示主体が図1における管理者B50に相当する農場管理者Aであることが示されている。また、2015年12月14日15時35分に当該指示情報の出力が開始されており、当該指示情報に対応する作業は完了しておらず、未処理の状態であることが示されている。
なお、指示情報生成部660は、管理者B50により入力された作業情報を情報処理装置10が受信したこと、及び作業情報生成部650により作業情報が生成されたことによらず、指示情報を生成してもよい。例えば、指示情報生成部660は、所定時間が経過したことをトリガとして、予め設定された作業を指示させるための指示情報を生成してもよい。具体的には、指示情報生成部660は、10分おきに、物理量の検出をセンサ30に対して指示するための指示情報を生成してもよい。また、指示情報生成部660は、1時間おきに、所定の場所の撮像をドローン20に対して指示するための指示情報を生成してもよい。また、指示情報生成部660は、ドローン20等の外部の装置と作業者B40とが互いに協調して実行する作業を、当該外部の装置及び作業者B40に対して指示するための指示情報を生成してもよい。
(拡張現実GUI生成部)
拡張現実GUI生成部670は、作業者端末40に表示させるための情報として、拡張現実GUIを生成し、作業者端末表示制御部680へ出力する。生成された拡張現実GUIは、作業者端末表示制御部680がヘッドマウントディスプレイである作業者端末40cによる画面の表示を制御することによって、作業者端末40cに表示される。それにより、現実世界が拡張された感覚を作業者B40へ呈示することができる。
拡張現実GUI生成部670は、記憶部400に記憶される情報に基づいて、拡張現実GUIを生成する。具体的には、拡張現実GUI生成部670は、指示DB420に基づいて、作業を指示するための指示情報を含む拡張現実GUIを生成する。また、拡張現実GUI生成部670は、指示情報の出力先がヘッドマウントディスプレイである作業者端末40cである場合に、拡張現実GUIを生成する。拡張現実GUI生成部670は、例えば、DB操作部610により指示DB420が更新されたことをトリガとして、拡張現実GUIを生成する。また、拡張現実GUI生成部670により生成され、作業者端末40cに表示される拡張現実GUIの詳細については、後述する。
(作業者端末表示制御部)
作業者端末表示制御部680は、作業者端末40による画面の表示を制御する。具体的には、作業者端末表示制御部680は、各種画面を作業者端末40に表示させるための情報の作業者端末40への送信を通信部200に行わせることによって、作業者端末40による画面の表示を制御する。また、作業者端末表示制御部680は、作業者B40からの操作入力に応じて、作業者端末40による画面の表示を制御してもよい。
作業者端末表示制御部680は、指示情報を作業者B40が用いる作業者端末40へ出力することにより、指示情報を作業者B40へ通知する。指示情報を受信した作業者端末40には、当該指示情報が表示される。それにより、作業者B40への指示情報の通知が実現される。ゆえに、作業者B40は、実際の牛B30の状態に応じて、実行する作業を適宜判断することなく、状態情報に基づいて判断された作業を実行することができる。よって、作業者B40による実際の牛B30の状態の確認や、牧場全体の状況の確認等における人的負担を軽減しつつ、牛B30を適切に管理することができる。従って、牛B30の管理をより効率化することが可能である。
以上のように、作業者端末表示制御部680は、指示情報を出力する本開示に係る出力部に相当する。作業者端末表示制御部680は、例えば、DB操作部610により指示DB420が更新されたことをトリガとして、指示情報を出力する。なお、作業者B40への指示情報の通知は、当該指示情報の表示により実現される例に限定されず、例えば、当該指示情報の音声出力により実現されてもよい。具体的には、制御部600は、作業者端末40による音声出力を制御する音声出力制御部を含んでもよい。その場合には、当該音声出力制御部が、指示情報を作業者端末40へ出力することにより、指示情報を作業者B40へ通知する出力部に相当し得る。
また、作業者端末表示制御部680は、拡張現実GUI生成部670により生成された拡張現実GUIをヘッドマウントディスプレイである作業者端末40cに表示させてもよい。それにより、作業者B40の視界の少なくとも一部に指示情報を含む拡張現実GUIが重畳して表示される。以下、作業者端末40cによって表示される画面の例について説明する。
図8は、作業者端末40に表示される重畳画面E20の一例を示す説明図である。重畳画面E20は、牧場を地上から見た作業者B40の視界の少なくとも一部に重畳して表示される拡張現実GUIである。重畳画面E20では、作業者B40の視界に映る実空間における牛B30に対応する指示情報が主に表示される。
図8では、作業者B40の視界に映る実空間における牛B30、牧場B32、及び牧場B32の背景の一例である山B34が示されている。ここで、図8では、重畳画面E20において、牛B30を牛舎へ移動させる作業を指示するための指示情報が表示される例が示されている。例えば、重畳画面E20では、図8に示したように、当該指示情報として、メッセージF30、オブジェクトF32、及び矢印F34が示されている。メッセージF30は、当該指示情報に対応する作業の詳細を示す。また、メッセージF30は、当該指示情報に対応する牛B30を示す吹き出し形状であってもよい。オブジェクトF32は、当該指示情報に対応する牛B30を示すために、当該牛B30の近傍に表示される。矢印F34は、当該牛B30に対する牛舎の方向を示す。換言すると、矢印F34は、指示情報に対応する作業において、牛B30を移動させる方向を示す。
作業者B40の視界の少なくとも一部に指示情報を含む拡張現実GUIが重畳して表示されることにより、作業者B40は、指示された作業に対応する実空間における牛B30が視界に映った状態で、指示情報を確認することができる。それにより、作業者B40は、牛B30に関連する作業を、より円滑に実行することができる。
上記では、作業者端末表示制御部680が、拡張現実GUIを利用して、ヘッドマウントディスプレイである作業者端末40cによる画面の表示を制御する例について主に説明したが、作業者端末表示制御部680は、他の種類の作業者端末40による画面の表示を制御してもよい。例えば、作業者端末表示制御部680は、パーソナルコンピュータである作業者端末40a又はスマートフォンである作業者端末40bによる画面の表示を制御してもよい。その場合には、作業者端末表示制御部680は、例えば、DB操作部610を介して指示DB420から指示情報を取得し、当該指示情報を作業者端末40へ出力してもよい。
なお、作業者端末表示制御部680により出力された指示情報に対応する作業が完了した場合、作業者B40は、作業者端末40へ当該作業が完了した旨を示す情報を入力する。それにより、作業者端末40から情報処理装置10へ当該情報が送信される。作業者端末表示制御部680は、情報処理装置10により当該情報が受信されたことをトリガとして、指示情報の出力を終了する。また、DB操作部610は、当該指示情報に対応する作業が完了した旨を示す情報を指示DB420へ登録する。
(駆動制御部)
駆動制御部690は、ドローン20又はセンサ30等の外部の装置の動作を制御する。具体的には、駆動制御部690は、外部の装置の動作を制御するための動作指令の当該外部の装置への送信を通信部200に行わせることによって、当該外部の装置の動作を制御する。また、駆動制御部690は、指示情報を外部の装置へ出力することにより、当該外部の装置による作業の実行を制御する出力部に相当する。駆動制御部690は、例えば、DB操作部610により指示DB420が更新されたことをトリガとして、指示情報を出力する。
駆動制御部690により作業の実行が制御される外部の装置は、ドローン20を含んでもよい。換言すると、駆動制御部690は、指示情報をドローン20へ出力することにより、ドローン20による作業の実行を制御してもよい。それにより、状態情報に基づいて判断された作業の実行が、ドローン20によって、実現される。例えば、ドローン20は、指示情報に基づいて、牛B30の誘導、ドローン20に搭載されたセンサ30による物理量の検出、又はドローン20に搭載された撮像装置による撮像等の作業を実行し得る。よって、作業者B40による実際の牛B30の状態の確認や、牧場全体の状況の確認に加えて、牛B30に関連する作業における人的負担を軽減しつつ、牛B30を適切に管理することができる。従って、牛B30の管理をさらに効率化することが可能である。
また、駆動制御部690により作業の実行が制御される外部の装置は、センサ30を含んでもよい。換言すると、駆動制御部690は、指示情報をセンサ30へ出力することにより、センサ30による作業の実行を制御する出力部に相当する。それにより、状態情報に基づいて判断された作業の実行が、センサ30によって、実現される。例えば、センサ30は、指示情報に基づいて、物理量の検出の作業を実行し得る。また、センサ30は、指示情報に基づいて、検出された物理量に対してさらに演算処理を施してもよい。よって、作業者B40による実際の牛B30の状態の確認や、牧場全体の状況の確認に加えて、牛B30に関連する作業における人的負担を軽減しつつ、牛B30を適切に管理することができる。従って、牛B30の管理をさらに効率化することが可能である。
なお、駆動制御部690により作業の実行が制御される外部の装置は、ドローン20及びセンサ30以外の装置を含んでもよい。例えば、当該外部の装置として、自動走行車両等の移動体が適用されてもよい。この場合には、駆動制御部690は、指示情報を当該自動走行車両等へ出力することにより、当該自動走行車両等による作業の実行を制御し得る。
また、駆動制御部690により出力された指示情報に対応する作業が完了した場合、ドローン20又はセンサ30等の外部の装置は、情報処理装置10へ当該作業が完了した旨を示す情報を送信する。駆動制御部690は、情報処理装置10により当該情報が受信されたことをトリガとして、指示情報の出力を終了する。また、DB操作部610は、当該指示情報に対応する作業が完了した旨を示す情報を指示DB420へ登録する。
<3.動作>
続いて、本実施形態に係る牧場管理システム1が行う各種処理の流れについて説明する。
[3−1.指示情報の取得処理]
まず、図9を参照して、本実施形態に係る情報処理装置10が行う指示情報の取得処理の流れについて説明する。図9は、本実施形態に係る情報処理装置10が行う指示情報の取得処理の流れの一例を示すフローチャートである。なお、図9では、状態情報の取得、及び状態DB410への登録が行われた後における処理の流れを示す。
指示情報の取得処理では、図9に示したように、まず、情報処理装置10は、作業情報の入力が自動モードであるか否かを判定する(ステップS502)。作業情報の入力が自動モードであると判定された場合(ステップS502/YES)、ステップS508の処理へ進む。一方、作業情報の入力が自動モードでないと判定された場合(ステップS502/NO)、仮想空間GUI生成部630は、状態DB410に基づいて、牛B30の状態を示す状態情報を含む仮想空間GUIを生成し(ステップS504)、管理者端末表示制御部640へ出力する。次に、管理者端末表示制御部640は、仮想空間GUI生成部630により生成された仮想空間GUIを管理者端末50に表示させる(ステップS506)。
そして、作業情報が、管理者B50により管理者端末50へ状態情報に基づいて入力され、管理者端末50から情報処理装置10へ送信される。通信部200は、当該作業情報を取得する(ステップS508)。なお、作業情報の入力が自動モードであると判定された場合(ステップS502/YES)、作業情報は、作業情報生成部650により状態情報に基づいて生成されることによって、情報処理装置10により取得される(ステップS508)。次に、指示情報生成部660は、牛B30に関連する作業を示す作業情報に基づいて、当該作業情報が示す作業を指示するための指示情報を生成する(ステップS510)。そして、DB操作部610は、指示情報生成部660から入力された指示情報を指示DB420に登録し(ステップS512)、図9に示した処理は終了する。
[3−2.指示情報の出力処理]
次に、図10を参照して、本実施形態に係る情報処理装置10が行う指示情報の出力処理の流れについて説明する。図10は、本実施形態に係る情報処理装置10が行う指示情報の出力処理の流れの一例を示すフローチャートである。なお、図10では、DB操作部610による指示DB420への指示情報の登録が行われた後における処理の流れを示す。
指示情報の出力処理では、図10に示したように、まず、情報処理装置10は、指示DB420において未処理の指示情報があるか否かを判定する(ステップS602)。指示DB420において未処理の指示情報がないと判定された場合(ステップS602/NO)、図10に示した処理は終了する。一方、指示DB420において未処理の指示情報があると判定された場合(ステップS602/YES)、情報処理装置10は、指示情報の出力先が作業者端末40であるか否かを判定する(ステップS604)。
指示情報の出力先が作業者端末40であると判定された場合(ステップS604/YES)、拡張現実GUI生成部670は、指示DB420に基づいて、作業を指示するための指示情報を含む拡張現実GUIを生成し(ステップS606)、作業者端末表示制御部680へ出力する。そして、作業者端末表示制御部680は、拡張現実GUI生成部670により生成された拡張現実GUIをヘッドマウントディスプレイである作業者端末40cに表示させる(ステップS608)。それにより、作業者B40への指示情報の通知が実現される。なお、指示情報の出力先の作業者端末40が、パーソナルコンピュータである作業者端末40a又はスマートフォンである作業者端末40bである場合には、作業者端末表示制御部680は、例えば、DB操作部610を介して指示DB420から指示情報を取得し、当該指示情報を作業者端末40へ出力してもよい。情報処理装置10が行う処理は、ステップS608の処理の後、ステップS612の処理へ進む。
一方、ステップS604の判定処理において、指示情報の出力先が作業者端末40でないと判定された場合(ステップS604/NO)、駆動制御部690は、指示情報をドローン20又はセンサ30等の外部の装置へ出力する(ステップS610)。それにより、当該外部の装置による作業の実行が実現される。
ステップS608又はステップS610の処理の後、通信部200は、指示情報の出力先である作業者端末40又はドローン20等の外部の装置から作業が完了した旨の情報を受信する。そして、DB操作部610は、当該情報を指示DB420へ登録することによって、指示DB420を更新し(ステップS612)、ステップS602の処理へ戻る。
[3−3.牧場管理処理]
続いて、本実施形態に係る牧場管理システム1がシステム全体として行う処理の流れに対する理解を容易にするために、図11を参照して、牧場管理システム1が行う牧場を管理するための牧場管理処理の流れについて説明する。図11は、本実施形態に係る牧場管理システム1が行う牧場管理処理の流れの一例を示すフローチャートである。図11では、作業情報の入力が手動モードであり、指示情報の出力先がヘッドマウントディスプレイに相当する作業者端末40cである場合における牧場管理処理の流れの一例が示されている。
牧場管理処理では、図11に示したように、まず、情報処理装置10が、牛B30の状態を示す状態情報を含む仮想空間GUIを生成する(ステップS702)。そして、情報処理装置10は、生成された仮想空間GUIを管理者端末50に表示させる(ステップS704)。次に、管理者端末50が、管理者B50による操作入力によって、作業情報を取得する(ステップS706)。そして、管理者端末50は、作業情報を情報処理装置10へ送信する(ステップS708)。
次に、情報処理装置10が、取得した作業情報に基づいて、当該作業情報が示す作業を指示するための指示情報を生成する(ステップS710)。そして、情報処理装置10は、指示情報を含む拡張現実GUIを生成する(ステップS712)。そして、情報処理装置10は、拡張現実GUIを作業者端末40cに表示させる(ステップS714)。次に、作業者端末40が、拡張現実GUIを作業者B40の視界の少なくとも一部に重畳させて表示することによって、作業者B40へ指示情報を通知する(ステップS716)。作業が完了した後、作業者端末40は、作業者B40による操作入力によって、作業が完了した旨の情報を取得し、情報処理装置10へ送信する(ステップS717)。次に、情報処理装置10が、当該情報を指示DB420へ登録することによって、指示DB420を更新し(ステップS718)、ステップS702の処理へ戻る。
<4.ハードウェア構成>
以上、本開示の実施形態を説明した。上述した情報処理装置10の処理は、ソフトウェアと、以下に説明する情報処理装置10のハードウェアとの協働により実現される。
図12は、本開示に係る情報処理装置10のハードウェア構成の一例を示す説明図である。図12に示したように、情報処理装置10は、CPU(Central Processing Unit)142と、ROM(Read Only Memory)144と、RAM(Random Access Memory)146と、ブリッジ148と、バス150と、インタフェース152と、入力装置154と、出力装置156と、ストレージ装置158と、ドライブ160と、接続ポート162と、通信装置164とを備える。
CPU142は、演算処理装置および制御装置として機能し、各種プログラムと協働して情報処理装置10内の各機能構成の動作を実現する。また、CPU142は、マイクロプロセッサであってもよい。ROM144は、CPU142が使用するプログラムまたは演算パラメータ等を記憶する。RAM146は、CPU142の実行において使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。CPU142、ROM144およびRAM146は、CPUバスなどから構成される内部バスにより相互に接続されている。
入力装置154は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどオペレータが情報を入力するための入力手段であり、オペレータによる入力に基づいて入力信号を生成し、CPU142に出力する入力制御回路などから構成されている。情報処理装置10のオペレータは、入力装置154を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置156は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの装置への出力を行う。さらに、出力装置156は、スピーカおよびヘッドフォンなどの音声出力を行ってもよい。
ストレージ装置158は、データ格納用の装置である。ストレージ装置158は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置158は、CPU142が実行するプログラムや各種データを格納する。
ドライブ160は、記憶媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ160は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM144に出力する。また、ドライブ160は、リムーバブル記憶媒体に情報を書込むこともできる。
接続ポート162は、例えば、情報処理装置10の外部の情報処理装置または周辺機器と接続するためのバスである。また、接続ポート162は、USB(Universal Serial Bus)であってもよい。
通信装置164は、例えば、ネットワークに接続するための通信デバイスで構成された通信インタフェースである。また、通信装置164は、赤外線通信対応装置であっても、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
なお、上述のような本実施形態に係る情報処理装置10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。本実施形態に係る情報処理装置10は、本開示に係るコンピュータに相当し得る。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。また、本実施形態に係る情報処理装置10の各機能は複数のコンピュータにより分割されてもよく、その場合、当該複数のコンピュータが有する各機能は、上記のコンピュータプログラムにより実現され得る。
<5.まとめ>
以上説明したように、本開示の実施形態によれば、情報処理装置10は、牛B30の状態を示す状態情報の表示を制御し、当該状態情報に基づいて入力される牛B30に関連する作業を示す作業情報を取得し、当該作業情報が示す作業を指示するための指示情報を出力する。それにより、実際の牛B30の状態に応じた適切な作業の実行を、人的負担を低減しつつ、実現することができる。ゆえに、本実施形態に係る情報処理装置10によれば、牛B30の管理をより効率化することが可能である。
上記では、管理者端末50に表示される仮想空間GUIを利用した、牛B30の状態の閲覧及び牛B30に関連する作業を示す作業情報の入力についての操作が、牧場の管理者B50によって行われる例について説明したが、当該仮想空間GUIを利用した当該操作は、他のユーザによって行われてもよい。情報処理装置10は、例えば、当該仮想空間GUIを他のユーザが用いる端末へ表示させてもよい。それにより、当該仮想空間GUIを利用した他のユーザによる当該操作を、オンラインでのゲーム、教育、又は観光として、活用することができる。それにより、仮想的な観光体験、家畜管理における非熟練者の訓練等を実現することができる。また、当該仮想空間GUIを利用した当該操作は、牧場に対して遠隔の地に位置する獣医、家畜に関する専門家、家畜のオーナー、又は一般労働者等のユーザによって行われてもよい。
また、上記では、ドローン20が撮像により得られた画像に画像処理を行うことによって、得られる情報を情報処理装置10へ送信してもよい点について説明した。また、センサ30が、検出された物理量に演算処理を施して得られる情報を検出結果として情報処理装置10へ送信してもよい点について説明した。このような、ドローン20による上記画像処理及びセンサ30による上記演算処理は、情報処理装置10側で行われてもよい。
また、上記では、情報処理装置10が、作業者端末40及び管理者端末50と異なる装置である例について説明したが、本開示の技術的範囲は係る例に限定されない。例えば、情報処理装置10が有する機能は、作業者端末40によって実現されてもよく、管理者端末50によって実現されてもよい。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAMに読み込まれ、CPUなどのプロセッサにより実行される。各プログラムを実行するプロセッサは、単数であっても複数であってもよい。
また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲は係る例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
家畜の状態を示す状態情報の表示を制御する表示制御部と、
前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得する取得部と、
前記作業情報が示す前記作業を指示するための指示情報を出力する出力部と、
を備える情報処理装置。
(2)
前記表示制御部は、実空間における前記家畜の位置と仮想空間における前記家畜の位置とを対応付けて、前記仮想空間を表示させる、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、複数の時刻の各々に対応する前記仮想空間を切り替えて表示させる、前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、上空から見た前記仮想空間を表示させる、前記(2)又は(3)に記載の情報処理装置。
(5)
前記表示制御部は、地上から見た前記仮想空間を表示させる、前記(2)から(4)のいずれか一項に記載の情報処理装置。
(6)
前記表示制御部は、前記状態情報に基づいて生成された前記家畜に関連する前記作業の複数の候補を表示させる、前記(1)から(5)のいずれか一項に記載の情報処理装置。
(7)
前記出力部は、前記指示情報をユーザが用いる通信装置へ出力することにより、前記指示情報を前記ユーザへ通知する、前記(1)から(6)のいずれか一項に記載の情報処理装置。
(8)
前記通信装置は、前記ユーザの視界の少なくとも一部に前記指示情報を重畳させて表示する、前記(7)に記載の情報処理装置。
(9)
前記出力部は、前記指示情報を外部の装置へ出力することにより、前記外部の装置による前記作業の実行を制御する、前記(1)から(8)のいずれか一項に記載の情報処理装置。
(10)
前記外部の装置は、移動体を含む、前記(9)に記載の情報処理装置。
(11)
前記外部の装置は、センサを含む、前記(9)又は(10)に記載の情報処理装置。
(12)
前記状態情報に基づいて、前記作業情報を生成する作業情報生成部をさらに備える、前記(1)から(11)のいずれか一項に記載の情報処理装置。
(13)
前記状態情報に含まれる第1の状態情報に基づいて、前記第1の状態情報に対応する状態と異なる状態を示す前記状態情報である第2の状態情報を生成する状態情報生成部をさらに備える、前記(1)から(12)のいずれか一項に記載の情報処理装置。
(14)
前記状態情報が取得された時刻と前記状態情報とが紐付けられた状態データベース及び前記指示情報が出力された時刻と前記指示情報とが紐付けられた指示データベースを更新するデータベース操作部をさらに備える、前記(1)から(13)のいずれか一項に記載の情報処理装置。
(15)
家畜の状態を示す状態情報の表示を、情報処理装置によって、制御することと、
前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得することと、
前記作業情報が示す前記作業を指示するための指示情報を出力することと、
を含む情報処理方法。
(16)
コンピュータを、
家畜の状態を示す状態情報の表示を制御する表示制御部と、
前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得する取得部と、
前記作業情報が示す前記作業を指示するための指示情報を出力する出力部と、
として機能させるためのプログラム。
1 牧場管理システム
10 情報処理装置
20 ドローン
30 センサ
40、40a、40b、40c 作業者端末
50 管理者端末
142 CPU
144 ROM
146 RAM
148 ブリッジ
150 バス
152 インタフェース
154 入力装置
156 出力装置
158 ストレージ装置
160 ドライブ
162 接続ポート
164 通信装置
200 通信部
400 記憶部
410 状態DB
420 指示DB
600 制御部
610 DB操作部
620 状態情報生成部
630 仮想空間GUI生成部
640 管理者端末表示制御部
650 作業情報生成部
660 指示情報生成部
670 拡張現実GUI生成部
680 作業者端末表示制御部
690 駆動制御部
910 実空間作業部
920 仮想空間操作部
930 システム制御部
940 記憶部

Claims (16)

  1. 家畜の状態を示す状態情報の表示を制御する表示制御部と、
    前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得する取得部と、
    前記作業情報が示す前記作業を指示するための指示情報を出力する出力部と、
    を備える情報処理装置。
  2. 前記表示制御部は、実空間における前記家畜の位置と仮想空間における前記家畜の位置とを対応付けて、前記仮想空間を表示させる、請求項1に記載の情報処理装置。
  3. 前記表示制御部は、複数の時刻の各々に対応する前記仮想空間を切り替えて表示させる、請求項2に記載の情報処理装置。
  4. 前記表示制御部は、上空から見た前記仮想空間を表示させる、請求項2に記載の情報処理装置。
  5. 前記表示制御部は、地上から見た前記仮想空間を表示させる、請求項2に記載の情報処理装置。
  6. 前記表示制御部は、前記状態情報に基づいて生成された前記家畜に関連する前記作業の複数の候補を表示させる、請求項1に記載の情報処理装置。
  7. 前記出力部は、前記指示情報をユーザが用いる通信装置へ出力することにより、前記指示情報を前記ユーザへ通知する、請求項1に記載の情報処理装置。
  8. 前記通信装置は、前記ユーザの視界の少なくとも一部に前記指示情報を重畳させて表示する、請求項7に記載の情報処理装置。
  9. 前記出力部は、前記指示情報を外部の装置へ出力することにより、前記外部の装置による前記作業の実行を制御する、請求項1に記載の情報処理装置。
  10. 前記外部の装置は、移動体を含む、請求項9に記載の情報処理装置。
  11. 前記外部の装置は、センサを含む、請求項9に記載の情報処理装置。
  12. 前記状態情報に基づいて、前記作業情報を生成する作業情報生成部をさらに備える、請求項1に記載の情報処理装置。
  13. 前記状態情報に含まれる第1の状態情報に基づいて、前記第1の状態情報に対応する状態と異なる状態を示す前記状態情報である第2の状態情報を生成する状態情報生成部をさらに備える、請求項1に記載の情報処理装置。
  14. 前記状態情報が取得された時刻と前記状態情報とが紐付けられた状態データベース及び前記指示情報が出力された時刻と前記指示情報とが紐付けられた指示データベースを更新するデータベース操作部をさらに備える、請求項1に記載の情報処理装置。
  15. 家畜の状態を示す状態情報の表示を、情報処理装置によって、制御することと、
    前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得することと、
    前記作業情報が示す前記作業を指示するための指示情報を出力することと、
    を含む情報処理方法。
  16. コンピュータを、
    家畜の状態を示す状態情報の表示を制御する表示制御部と、
    前記状態情報に基づいて入力される前記家畜に関連する作業を示す作業情報を取得する取得部と、
    前記作業情報が示す前記作業を指示するための指示情報を出力する出力部と、
    として機能させるためのプログラム。
JP2017567960A 2016-02-16 2016-11-29 情報処理装置、情報処理方法及びプログラム Abandoned JPWO2017141521A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016027085 2016-02-16
JP2016027085 2016-02-16
PCT/JP2016/085442 WO2017141521A1 (ja) 2016-02-16 2016-11-29 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JPWO2017141521A1 true JPWO2017141521A1 (ja) 2018-12-06

Family

ID=59625791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017567960A Abandoned JPWO2017141521A1 (ja) 2016-02-16 2016-11-29 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (1) US10765091B2 (ja)
EP (1) EP3418956A4 (ja)
JP (1) JPWO2017141521A1 (ja)
WO (1) WO2017141521A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018100883A1 (ja) * 2016-11-29 2018-06-07 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
CN108052357A (zh) * 2017-12-05 2018-05-18 深圳春沐源控股有限公司 信息管理方法、装置、电子设备及计算机可读存储介质
US11074447B1 (en) * 2018-07-13 2021-07-27 Hana Resources, Inc. Land analysis system using drone-captured data
AU2019383975B2 (en) * 2018-11-19 2023-04-13 Chorchek, Inc. System and method for activity validation
JP7120942B2 (ja) * 2019-02-18 2022-08-17 富士フイルム株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US11094077B2 (en) * 2019-03-18 2021-08-17 John Lindsay System and process for mobile object tracking
CN110074014B (zh) * 2019-05-28 2021-08-10 江苏绿佳生态农业科技有限公司 一种高产蛋鸡养殖的智能农场管理系统
US10997401B2 (en) * 2019-06-27 2021-05-04 RoundhouseOne Inc. Computer vision system that provides information relative to animal wellness
WO2022038648A1 (ja) * 2020-08-17 2022-02-24 株式会社Peco 健康管理支援システム
SE2151542A1 (en) * 2021-12-16 2022-11-07 Delaval Holding Ab Animal location system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09107840A (ja) * 1995-10-23 1997-04-28 Fujihira Kogyo Kk 家畜の個体別作業装置
JPH1083462A (ja) * 1996-09-06 1998-03-31 Matsushita Electric Ind Co Ltd 仮想空間情報作成装置、仮想空間表示装置、仮想空間情報記録媒体、及び仮想空間情報提供方法
JP2008148569A (ja) * 2006-12-14 2008-07-03 Oki Electric Ind Co Ltd 飼育支援システム
KR101628054B1 (ko) * 2009-12-28 2016-06-08 삼성전자주식회사 가상 공간 제공 장치 및 방법
JP5846294B2 (ja) 2012-03-30 2016-01-20 富士通株式会社 発情報知方法、発情報知装置、および発情報知プログラム
NL2009456C2 (en) 2012-09-13 2014-03-18 Lely Patent Nv Method and system for creating a map of a barn.
AU2014270036B2 (en) * 2013-05-20 2018-10-04 St Reproductive Technologies Llc Sensor apparatus and associated systems and methods
WO2014197631A1 (en) 2013-06-04 2014-12-11 Clicrweight, LLC Methods and systems for marking animals
US9974284B2 (en) * 2013-06-14 2018-05-22 Dairymaster Method for communicating with an electronic device and an electronic device locatable on or in an animal
CA2932744A1 (en) * 2014-01-08 2015-07-16 Precisionhawk Inc. Method and system for generating augmented reality agricultural presentations
US9538729B2 (en) * 2014-04-08 2017-01-10 Medisim, Ltd. Cattle monitoring for illness
US10045511B1 (en) * 2015-08-20 2018-08-14 Medisim, Ltd. Cattle and other veterinary monitoring

Also Published As

Publication number Publication date
EP3418956A1 (en) 2018-12-26
EP3418956A4 (en) 2018-12-26
WO2017141521A1 (ja) 2017-08-24
US20190045751A1 (en) 2019-02-14
US10765091B2 (en) 2020-09-08

Similar Documents

Publication Publication Date Title
WO2017141521A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20210310826A1 (en) Method, device and system for processing a flight task
US20180374268A1 (en) Interactive mixed reality system for a real-world event
US10140769B2 (en) Electronic device and method for providing map service
US10022626B2 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method, for performing augmented reality
US10241565B2 (en) Apparatus, system, and method of controlling display, and recording medium
US10924691B2 (en) Control device of movable type imaging device and control method of movable type imaging device
JP7090837B2 (ja) 仮想ペットの情報表示方法および装置、端末、サーバ並びにそのコンピュータプログラム
JP2017529521A (ja) 社会的且つ環境的認識を提供する装用可能イヤピース
CN108521788A (zh) 生成模拟航线的方法、模拟飞行的方法、设备及存储介质
US20220027772A1 (en) Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
JP6843100B2 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
US20200090627A1 (en) Display control device, display control method, and program
CN109314800B (zh) 用于将用户注意力引导到基于位置的游戏进行伴随应用的方法和系统
US20240303018A1 (en) Head mounted processing apparatus
JP2020005147A (ja) 情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラム
TWI764366B (zh) 基於光通信裝置的互動方法和系統
US20200058271A1 (en) Display control device, display control method, and program
JP2010039256A (ja) 表示システム、表示方法,及び移動体
JPWO2019026919A1 (ja) 画像処理システム、画像処理方法、及びプログラム
KR20220002654A (ko) 영역 기반 증강 현실 콘텐츠를 동적으로 로드하기 위한 시스템 및 방법
US11518510B1 (en) Systems and methods for controlling an unmanned aerial vehicle
US20240323240A1 (en) Communication control server, communication system, and communication control method
KR102477703B1 (ko) 차량 내부 영상을 기반으로 콘텐츠를 저작하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US20240323249A1 (en) Communication control server, communication system, and communication control method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191101

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20200601