JP7049636B1 - 情報処理装置、プログラム、システム、及び情報処理方法 - Google Patents

情報処理装置、プログラム、システム、及び情報処理方法 Download PDF

Info

Publication number
JP7049636B1
JP7049636B1 JP2021203363A JP2021203363A JP7049636B1 JP 7049636 B1 JP7049636 B1 JP 7049636B1 JP 2021203363 A JP2021203363 A JP 2021203363A JP 2021203363 A JP2021203363 A JP 2021203363A JP 7049636 B1 JP7049636 B1 JP 7049636B1
Authority
JP
Japan
Prior art keywords
image
spike
unit
region
spikes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021203363A
Other languages
English (en)
Other versions
JP2023088557A (ja
Inventor
暁陽 茅
プラウィット ブアヤイ
浩樹 横澤
陽平 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Yamanashi NUC
Original Assignee
University of Yamanashi NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Yamanashi NUC filed Critical University of Yamanashi NUC
Priority to JP2021203363A priority Critical patent/JP7049636B1/ja
Application granted granted Critical
Publication of JP7049636B1 publication Critical patent/JP7049636B1/ja
Publication of JP2023088557A publication Critical patent/JP2023088557A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】ぶどうの房づくりを支援するための情報処理装置及び方法、プログラム並びにシステムを提供する。【解決手段】房づくり支援システムを構成する情報処理装置は、花穂領域検出部41aと、主軸特定部41bと、円形パーツ検出部41cと、境界位置推定部41dとを制御部20に備える。花穂領域検出部41aは、画像に含まれるぶどうの複数の花穂の画像上における領域である花穂領域を検出する。主軸特定部41bは、花穂領域の主軸である花穂主軸を特定する。円形パーツ検出部41cは、画像に含まれる円形パーツを検出する。境界位置推定部41dは、円形パーツの直径の実寸法と円形パーツの画像上の大きさとを用いてキャリブレーションを行うことにより、花穂主軸上において、画像上における複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する。【選択図】図5

Description

特許法第30条第2項適用 1.刊行物:CYBERWORLD 2021講演予稿集、発行日:2021年9月30日 2.集会名:CYBERWORLD 2021、開催日:2021年9月30日
本発明は、ぶどうの房づくりを支援するための情報処理装置、プログラム、システム、及び情報処理方法に関する。
ぶどうの栽培においては、収穫時の果房の形や大きさを整えるため、開花期に房から不要な花穂を取り除く「房づくり」が行われる。房づくりでは通常、図11に示すように、一つの房G(すなわち、花穂全体)における先端から所定の長さ(目標長さLr)の位置(数cm)を境界位置Xrとし、境界位置Xrの先端側の範囲の花穂H1を残し、境界位置Xrの基端側の他の花穂H2(副穂)を切断する。また、特許文献1には、はさみを入れる回数を少なくして労働作業を軽減できる房づくり方法が開示されている。
特許第3588754号公報
しかしながら、ぶどうの房づくりにおいて、残すべき花穂H1と切断すべき花穂H2とを瞬時に判断し、実際に不要な花穂をはさみで切断することは、熟練者でない限り困難であった。
本発明はこのような事情に鑑みてなされたものであり、ぶどうの房づくりを支援するための、情報処理装置、プログラム、システム、及び情報処理方法を提供するものである。
本発明によれば、情報処理装置であって、花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、前記花穂領域検出部は、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出部は、前記画像に含まれる円形パーツを検出し、前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理装置が提供される。
本発明では、ぶどうの花穂及びはさみが撮影された画像において、円形パーツの直径の実寸法と円形パーツの画像上の大きさとを用いてキャリブレーションを行うことにより、画像上における花穂領域の主軸上において、複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する。これにより、熟練者でなくとも切断すべき花穂を知ることができ、ぶどうの房づくりを支援することが可能となっている。
以下、本発明の種々の実施形態を例示する。以下に示す実施形態は互いに組み合わせ可能である。
好ましくは、前記円形パーツは前記ぶどうの花穂を切断するはさみの支点部分に設けられる円形の留め具であり、前記円形パーツ検出部は、はさみ検出部と留め具検出部とを備えており、前記はさみ検出部は、第1学習モデルに基づいて、前記画像上におけるはさみ領域を検出し、前記留め具検出部は、前記第1学習モデルと異なる第2学習モデルに基づいて、前記はさみ領域から前記留め具の外接矩形領域を検出し、前記境界位置推定部は、前記外接矩形領域の長辺の長さを前記留め具の大きさとする。
好ましくは、前記花穂領域検出部は、前記第1学習モデルに基づいて前記花穂領域を検出する。
好ましくは、前記主軸特定部は、前記花穂領域の凸包を求めるとともに凸包領域の主軸を前記花穂主軸とし、前記境界位置推定部は、前記花穂主軸と前記凸包領域の交点を基準として前記境界位置を推定する。
好ましくは、出力画像生成部をさらに備え、前記出力画像生成部は、前記境界位置を示す出力画像を生成する。
また、本発明によれば、システムであって、画像撮影部と、画像処理部とを備え、前記画像撮影部は、ぶどうの複数の花穂及び円形パーツを含む画像を撮影し、前記画像処理部は、花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、前記花穂領域検出部は、前記画像に含まれる前記複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出部は、前記画像に含まれる前記円形パーツを検出し、前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、システムが提供される。
好ましくは、ユーザ端末と、情報処理装置とを備え、前記ユーザ端末は、前記画像撮影部と、出力画像表示部を備え、前記情報処理装置は、前記画像処理部と、出力画像生成部とを備えており、前記出力画像生成部は、前記境界位置を示す出力画像を生成し、前記出力画像表示部は、前記出力画像を表示する。
また、本発明によれば、プログラムであって、コンピュータに、花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを実行させ、前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、プログラムが提供される。
また、本発明によれば、情報処理方法であって、花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを備え、前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理方法が提供される。
本発明の一実施形態に係る房づくり支援システム1の概要を示す図である。 図1の房づくり支援システム1のユーザ端末3が撮影した画像P1の例を模式的に示す説明図である。 ユーザ端末3が表示する出力画像P6の例を模式的に示す説明図である。 図4Aは、図1の情報処理装置2のハードウェア構成を示すブロック図であり、図4Bは、図1のユーザ端末3のハードウェア構成を示すブロック図である。 図5Aは、図1の情報処理装置2の機能構成を示すブロック図であり、図5Bは、図1のユーザ端末3機能構成を示すブロック図である。 花穂領域検出部41aによる花穂領域A1の検出について示す説明図である。 主軸特定部41bによる花穂主軸Mの特定について示す説明図である。 図8A及び図8Bは、円形パーツ検出部41cによる留め具60の検出について示す説明図である。 境界位置推定部41dによる境界位置Xpの推定について示す説明図である。 図1の情報処理装置2による情報処理の各工程を示すフローチャートである。 ぶどうの房づくりにおいて、花穂H2の切断の前後の様子を示す説明図である。
以下、本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。また、各特徴について独立して発明が成立する。
1.房づくり支援システム1
本発明の一実施形態に係る房づくり支援システム1は、図1に示すように、情報処理装置2と、ユーザ端末3とを備える。
情報処理装置2とユーザ端末3は、通信回線4を介して通信可能に構成される。ユーザ端末3は、ぶどうの複数の花穂5(花穂5の全体を花穂群5Eとする)及びはさみ6が含まれる画像P1(図2参照)を撮影し、通信回線4を介して情報処理装置2へ送信する。情報処理装置2は、ユーザ端末3から受信した画像P1を処理し、当該画像P1における複数の花穂5のうちの残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界である境界位置Xp(図3参照)を推定する。推定した境界位置Xpは通信回線4を介してユーザ端末3に送られ、ユーザ端末3は、境界位置Xpを示す出力画像P6(図1及び図3参照)を表示することで、ユーザの房づくりを支援する。なお、図1及び図3には、境界位置Xpを示す画像に加えてぶどうの花穂5、はさみ6及び作業者Wが含まれているが、実際の出力画像P6としては境界位置Xpを示す画像のみが表示されていれば良く、その他の要素は画像ではなく透過された実際の視界を示している。ただし、その他の要素を透明な画像として表示することも可能である。以下、このような機能を実現する情報処理装置2及びユーザ端末3の各構成について説明する。
2.房づくり支援システム1のハードウェア構成
2-1.情報処理装置2のハードウェア構成
本実施形態に係る情報処理装置2は、図4Aのブロック図に示すように、制御部20と、記憶部21と、通信部22とを備える。また、情報処理装置2は、キーボード及びマウス等で構成された各種操作の入力を受け付ける操作入力部23と、各種画像を表示する例えば液晶ディスプレイ装置等のモニタ24とを備えていてもよい。
制御部20は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、DSP(Digital Signal Processor)等であり、情報処理装置2の全体の動作を制御する。
記憶部21の一部は、例えば、RAM(Random Access Memory)やDRAM(Dynamic Random Access Memory)等で構成されており、制御部20による各種プログラムに基づく処理の実行時のワークエリア等として用いられる。また、記憶部21の一部は、例えば、ROM(Read Only Memory)等の不揮発性メモリ、又はHDD(Hard Disk Drive)であり、各種データ及び制御部20の処理に利用されるプログラム等を保存する。
記憶部21に記憶されるプログラムは、例えば、情報処理装置2の基本的な機能を実現するためのOS(Operating System)、各種ハードウェア制御するためのドライバ、各種機能を実現するためのプログラム等であって、本実施形態に係るコンピュータプログラムを含む。
通信部22は、例えばNIC(Network Interface Controller)であり、通信回線4に接続する機能を有する。なお、通信部22は、NICに代えて又はNICと共に、無線LAN(Local Area Network)に接続する機能、無線WAN(Wide Area Network)に接続する機能、Bluetooth(登録商標)等の近距離の無線通信や赤外線通信等を可能とする機能を有してもよい。情報処理装置2は、通信回線4を介してユーザ端末3等の他の情報処理装置等と接続され、他の情報処理装置等との間で各種データの送受信を行うことができる。なお、通信回線4には、高速通信及び低遅延を可能にするため、例えば、ローカル5Gシステムが用いられる。ただし、パブリック5Gシステムを用いることや、他の通信システムを用いても良い。
これら制御部20、記憶部21、通信部22、操作入力部23、及びモニタ24は、システムバス25を介して相互に電気的に接続されている。従って、制御部20は、記憶部21へのアクセス、モニタ24に対する画像の表示、ユーザによる操作入力部23に対する操作状態の把握、及び通信部22を介した各種通信網や他の情報処理装置へのアクセス等を行うことができる。
2-2.ユーザ端末3のハードウェア構成
ユーザ端末3は、実際にぶどうの房づくりを行うユーザである作業者Wが使用する情報処理端末である。ユーザ端末3は、好ましくは、光学透過型ヘッドマウントディスプレイ(OSTHMD)あるいはAR(拡張現実)グラス/MR(複合現実)グラスとされる。ただし、ユーザ端末3は、その他のスマートグラス、スマートフォンやタブレット端末等であっても良い。本実施形態のユーザ端末3は、図4Bのブロック図に示すように、制御部30と、記憶部31と、通信部32と、撮影部33と、表示部34とを備える。また、ユーザ端末3は、音を出力するスピーカや、電源ボタンその他の操作ボタン等により構成される操作部(図示せず)等を備えていてもよい。以下、情報処理装置2との相違点を中心に説明する。
撮影部33は、静止画、動画等を撮影できるカメラを備える。表示部34は、眼鏡のレンズに相当する部位と投影等の機能を有する部位との組み合わせによるディスプレイを備えうる。また、ユーザ端末3は、網膜に直接映像を照射する部位を備えていてもよい。ただし、ユーザ端末3がスマートフォンやタブレット端末等である場合には、表示部34は、画像等を表示し操作を受け付け可能なタッチパネルディスプレイ等であってもよい。
これら制御部30、記憶部31、通信部32、撮影部33及び表示部34は、システムバス25を介して相互に電気的に接続されている。従って、制御部30は、記憶部31へのアクセス、撮影部33に対する制御、表示部34による画像の表示、作業者Wによる操作状態の把握及び通信部32を介した各種通信網や他の情報処理装置へのアクセス等を行うことができる。
3.房づくり支援システム1の機能構成
3-1.情報処理装置2の機能構成
情報処理装置2の機能構成として、情報処理装置2の制御部20は、図5Aに示すように、画像取得部40と、画像処理部41と、出力画像生成部42とを備える。画像取得部40は、ユーザ端末3から送信された画像P1(図1,2参照)を取得する。画像処理部41は、画像取得部40が取得した画像P1を処理し、画像P1上における複数の花穂5(花穂群5E)のうち残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界である境界位置Xp(図3参照)を推定する。また、出力画像生成部42は、画像処理部41が推定した境界位置Xpを示す画像である出力画像P6を生成する(図1,3参照)。
画像処理部41は、具体的には、花穂領域検出部41aと、主軸特定部41bと、円形パーツ検出部41cと、境界位置推定部41dとを備える。また、円形パーツ検出部41cには、はさみ検出部41c1と留め具検出部41c2とが含まれる。画像処理部41の各機能の詳細については、後述する。
3-2.ユーザ端末3の機能構成
ユーザ端末3の機能構成として、ユーザ端末3の制御部30は、図5Bに示すように、画像撮影部50と、出力画像表示部51とを備える。画像撮影部50は、撮影部33により画像P1を撮影する。ここで、画像P1に映る範囲には、略同一平面上にぶどうの花穂群5E及びはさみ6が含まれ(図2参照)、ユーザ端末3が光学透過型ヘッドマウントディスプレイ等である場合には、ユーザである房づくりの作業者Wの視野に近い範囲となりうる。
出力画像表示部51は、情報処理装置2から送信された境界位置Xpを示す出力画像P6(結果)を表示部34に表示する。表示部34に出力画像P6が表示されることで、作業者Wは、現実の花穂全体のうち残すべき花穂H1の範囲と切断すべき花穂H2の範囲の境界位置Xr(図11参照)を把握することができる。特に、ユーザ端末3が光学透過型ヘッドマウントディスプレイ等であれば、作業者Wの視界に含まれる実際のぶどうの花穂に、境界位置Xpを重畳表示することができる(図3参照)。
3-3.機能構成の実現方法
上述したように、本実施形態の房づくり支援システム1は、機能構成として、画像撮影部50と、画像取得部40と、画像処理部41と、出力画像生成部42と、出力画像表示部51とを備える。
上述した機能構成は、情報処理装置2又はユーザ端末3に適宜インストールされるソフトウェア(いわゆるアプリを含む)によって実現してもよく、ハードウェアによって実現してもよい。ソフトウェアによって実現する場合、制御部20又は制御部30がソフトウェアを構成するプログラムを実行することによって各種機能を実現することができる。
プログラムを実行することで実現される場合、当該プログラムは、情報処理装置2又はユーザ端末3が内蔵する記憶部21又は記憶部31に格納してもよく、コンピュータが読み取り可能な非一時的な記録媒体に格納してもよい。また、外部の記憶装置に格納されたプログラムを読み出し、いわゆるクラウドコンピューティングにより実現してもよい。もしくは、ハードウェアによって実現する場合、ASIC、SOC、FPGA、又はDRPなどの種々の回路によって実現することができる。
また、情報処理装置2の機能として説明した一部の機能構成は、ソフトウェア又はハードウェアによってユーザ端末3等で処理されるようにしてもよい。反対に、ユーザ端末3の機能として説明した一部の機能構成は、ソフトウェア又はハードウェアによって情報処理装置2等で処理されるようにしてもよい。
3-4.花穂領域検出部41aの機能
花穂領域検出部41aは、図6に示すように、画像取得部40が取得した画像P1からぶどうの花穂5が存在する領域である花穂領域A1を検出する。花穂領域検出部41aによる花穂領域A1の検出は、第1学習モデルに基づいて行われる。すなわち、花穂領域検出部41aは、機械学習、深層学習(ディープラーニング)等に基づく画像認識処理を行い、物体の検出や分類等を行う。ここで、第1学習モデルは、花穂領域A1及び後述するはさみ6を検出することができる学習モデルであれば特に制限されないが、例えば、多数の教師データ(既知の入力データと正解データの組)を用いてモデルを訓練し、将来の出力を予測可能にする学習モデルである。
第1学習モデルとしては、検出する物体のバウンディングボックスに加え、ピクセルマスクを得ることが可能なモデルを用いることが好ましい。このようなモデルとしては、例えば、再帰的特徴ピラミッド(Recursive Feature Pyramid)と切り替え可能なアトラスコンボリューション(Atrous Convolution)を用いたインスタンス・セグメンテーション・ネットワーク・モデルである「DetectoRS」を用いることができる。「DetectoRS」は、マルチステージモデルアーキテクチャを採用し、出力を次の学習セットとして使用することで検出精度の向上を図ったモデルである。
花穂領域検出部41aが適用する第1学習モデルは、図1及び図2の画像P1に示すような、作業者Wが花穂の上方を保持した状態の画像を用いて学習される。これにより、第1学習モデルは、作業者Wが保持する位置よりも下方の花穂を検出できるよう学習される。
以上のような第1学習モデルにより、花穂領域検出部41aは、画像P1から花穂領域A1を検出し、図6に示す、花穂領域A1以外の領域がマスクされたマスク画像P2を得ることができる。画像P2は、具体的には例えば、花穂領域A1以外の領域が黒く塗りつぶされ、花穂領域A1が白抜きされている。
3-5.主軸特定部41bの機能
主軸特定部41bは、図7に示すように、まず、花穂領域検出部41aが検出した花穂領域A1の凸包領域A2を求め、次いで、凸包領域A2の主軸を求める。具体的には、主軸特定部41bは、花穂領域A1が複数の連結成分を有している場合、当該連結成分の凸包を算出し、1つの結合領域としての凸包領域A2を得る。次に、主軸特定部41bは、得られた凸包領域A2の主軸を算出し、花穂主軸Mとする。なお、凸包の算出及び主軸の算出には、従来既知の任意のアルゴリズムを用いることができるため、その詳細な説明は省略する。
以上のように、主軸特定部41bは、画像P2から凸包領域A2を得ることができ(画像P3参照)、凸包領域A2の主軸として花穂主軸Mを得ることができる(画像P4参照)。なお、上記で説明した画像P2~画像P4(図6~図7)は、各機能の説明のために示した画像にすぎず、撮影された画像は適宜拡大されており、また、ユーザ(作業者W)に対して実際に表示させる必要はない。
3-6.円形パーツ検出部41cの機能
円形パーツ検出部41cは、図8A又は図8Bに示すように、画像P1に含まれるはさみ6の支点部分に設けられる円形の留め具60(かしめ)を検出する。本実施形態において、円形パーツ検出部41cは、図5Aに示すように、はさみ検出部41c1と留め具検出部41c2とから構成される。
はさみ検出部41c1は、画像取得部40が取得した画像P1からはさみ6を検出する。はさみ検出部41c1によるはさみ6の検出は、上述した花穂領域検出部41aと同様、第1学習モデルに基づいて行われる。はさみ検出部41c1が適用する第1学習モデルは、図1及び図2の画像P1に示すような、はさみ6が含まれる画像を用いて学習される。以上のような第1学習モデルにより、はさみ検出部41c1は、画像P1からはさみ領域A3を検出し、図8A及び図8Bに示すような、はさみ領域A3以外の部分をマスクしたマスク画像P5を得ることができる。画像P5は、具体的には例えば、はさみ領域A3以外の部分が黒く塗りつぶされ、はさみ領域A3が白抜きされている。なお、図8Aは、元の画像P1のはさみ6が正面を向いている場合のはさみ領域A3を示し、図8Bは、画像P1のはさみ6が回転して斜めを向いている場合のはさみ領域A3を示している。
留め具検出部41c2は、はさみ検出部41c1が取得した画像P5のはさみ領域A3から留め具60を検出する。留め具検出部41c2による留め具60の検出は、上述した第1学習モデルとは異なる第2学習モデルに基づいて行われる。
第2学習モデルとしては、高速で検出する物体のバウンディングボックス(外接矩形領域)を得ることができるモデルを用いることが好ましい。このようなモデルとしては、例えば、リアルタイムでの実行が可能な高速な物体検出手法である「YoloV5」を用いることができる。「YoloV5」は、出力として検出する物体のマスク画像を提供することはできないものの、物体検出モデルとしては最も高速であることが知られている。
以上のような第2学習モデルにより、留め具検出部41c2は、画像P5のはさみ領域A3から留め具60のバウンディングボックスBを得ることができる。
3-7.境界位置推定部41dの機能
境界位置推定部41dは、既知であるはさみ6の留め具60の直径の実寸法と留め具60の画像P1上の大きさとを用いてキャリブレーションを行うことにより、花穂主軸M上において、画像P1上における境界位置Xp(花穂群5Eのうちの残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界)を推定する。ここで、現実の目標となる所望の(正しい)境界位置Xrは、図11に示すように、ぶどうの一つの房Gの先端からあらかじめ定めた目標長さLr(例えば、4cm)だけ離れた位置として定められる。
境界位置推定部41dは、具体的には、まず、留め具60の画像P1上の大きさを、円形パーツ検出部41cにより得られた留め具60のバウンディングボックスBの長辺の長さ(幅又は高さの大きい方)と近似する。これは、はさみ6の留め具60が略正円形状をしていることで、はさみ6の角度に依存せず、バウンディングボックスBの長辺の長さが留め具60の直径となることに基づいている。
そして、境界位置推定部41dは、下記式(1)~(4)により、画像P1上における境界位置Xpの座標を求める。
Figure 0007049636000002
Figure 0007049636000003
Figure 0007049636000004
Figure 0007049636000005
ここで、数式(1)におけるDetectedLencmは、推定される花穂全体の長さ(単位:cm)であり、ScrewDimcmは、留め具60の直径の実寸法(単位:cm)である。また、DetectedLenpxは、画像P1上の花穂群5Eの長さであり、図9に示すように、画像P4上における花穂主軸Mに沿った花穂領域A1の長さ(単位:画素(px))、すなわち、凸包領域A2と花穂主軸Mの2つの交点N1,N2間の距離により近似される。また、ScrewWidthpxとScrewHeightpxはそれぞれ、画像P1(P5)上の留め具60の幅と長さ(単位:px)である。
一方、数式(2)におけるTargetLenpxは、交点N1を基準とした、画像P1(P4)上の目標長さLp(単位:px)であり、TargetLencmは、あらかじめ定めた残すべき花穂H1全体の目標長さLr(単位:cm)(図11参照)である。さらに、数式(3)及び数式(4)におけるTargetBotXpxとTargetBotYpxは、花穂群5Eの先端位置(穂先)の画像P1(P4)上(XY平面上)の座標であり、凸包領域A2と花穂主軸Mの下側の交点N1の座標により近似される。加えて、TargetTopXpxとTargetTopYpxは、推定される画像P1(P4)上の境界位置Xpの座標であり、θは花穂主軸MとY軸の間の角度である。
そして、式(1)により、画像P1(P4)上の花穂群5Eの長さ(花穂領域A1の長さ)を、留め具60の直径の実寸法と留め具60の長辺の長さとによりキャリブレーションすることで、実際の花穂全体の長さが推定される。また、式(2)により、予め定めた残すべき花穂H1全体の目標長さLr(図11参照)を、式(1)により推定された実際の花穂全体の長さと画像P1(P4)上の花穂領域A1の長さとによりキャリブレーションすることで、画像P1(P4)上における残すべき花穂5全体の目標長さLpが推定される。また、式(3)及び式(4)により、画像P1(P4)上における残すべき花穂5全体の目標長さLpと、凸包領域A2と花穂主軸Mの下側の交点N1の座標及び花穂主軸MのY軸に対する傾きとから、画像P1上における境界位置Xpの座標を求めることができる。
なお、実際の花穂全体の長さを推定することは必須ではなく、予め定めた残すべき花穂H1の目標長さLr(図11参照)を留め具60の直径の実寸法と留め具60の長辺の長さとによりキャリブレーションをすることで、画像P1上における花穂5の目標長さLpを推定し、画像P1上における境界位置Xpの座標を求めることも可能である。
以上のようにして境界位置推定部41dが推定した画像P1(P4)上の境界位置Xpは、出力画像生成部42により出力画像P6として出力される。出力画像P6は、境界位置Xpが把握できればどのような表示のしかたでも良いが、例えば、図1及び図3に示すように、花穂主軸Mを直線で示すとともに、花穂群5Eの先端位置と境界位置Xpを互いに平行な直線で表すことが考えられる。なお、出力画像P6には、境界位置Xpを示す表示に加えて、残すべき花穂全体の目標長さLr(図11参照)及び推定される花穂全体の長さ(図9におけるDetectedLenpx参照)の表示を含めることも好適である。
4.房づくり支援システム1による処理の流れ
次に、房づくり支援システム1による処理の流れについて説明する。まず、ユーザ端末3の制御部30が画像撮影工程を実行する。画像撮影工程では、ユーザ端末3の画像撮影部50により画像P1が撮影され、撮影された画像P1は、通信回線4を介してユーザ端末3から情報処理装置2へ送信される。
次に、情報処理装置2の制御部20は、図10に示す情報処理の各工程、すなわち、画像取得工程S1、花穂領域検出工程S2、主軸特定工程S3、円形パーツ検出工程S4、境界位置推定工程S5、及び出力画像生成工程S6を順次実行する。なお、花穂領域検出工程S2及び主軸特定工程S3と円形パーツ検出工程S4とは、順序を入れ替えて実行してもよく、並列的に実行しても良い。
具体的には、画像取得工程S1では、画像取得部40が画像P1を取得する。花穂領域検出工程S2では、画像処理部41の花穂領域検出部41aが画像P1から花穂領域A1を検出する。また、主軸特定工程S3では、主軸特定部41bが花穂領域A1から花穂主軸Mを推定する。さらに、円形パーツ検出工程S4では、まずはさみ検出部41c1が画像P1からはさみ領域A3を検出し、次いで留め具検出部41c2がはさみ領域A3から留め具60のバウンディングボックスBを取得する。そして、境界位置推定工程S5では、境界位置推定部41dが花穂主軸M上において、画像P1(P4)上における残すべき花穂5と切断すべき花穂5の境界位置Xpを推定する。最後に、出力画像生成工程S6では、出力画像生成部42が出力画像P6を生成する。
次に、情報処理装置2の制御部20は、出力画像送信工程を実行する。出力画像送信工程では、出力画像P6が通信回線4を介して情報処理装置2からユーザ端末3へ送信される。その後、ユーザ端末3の制御部30は、出力画像表示工程を実行する。出力画像表示工程では、ユーザ端末3の出力画像表示部51に出力画像P6が表示される。
5.推定される境界位置Xpの検証
実際の食用ぶどう農園における77房の花穂(花穂群)について、上述した房づくり支援システム1により推定した花穂領域A1の長さ(式(1)参照)と定規で測定した花穂群の長さを比較したところ、平均誤差は0.19cmであった。これは、実際に使用するのに十分な精度である。そして、推定した花穂領域の長さの推定精度が高ければ、境界位置Xpの推定精度も高いと考えられる。従って、上述した房づくり支援システム1により境界位置Xpをユーザに提示することで、ぶどうの房づくりを好適に支援することができる。
6.作用効果
以上のように、本実施形態の房づくり支援システム1は、情報処理装置2の境界位置推定部41dが、ユーザ端末3の撮影部33によって撮影された画像P1上における複数の花穂5(花穂群5E)のうちの残すべき花穂5の範囲W1と切断すべき花穂5の範囲W2の境界である境界位置Xp(図3参照)を推定し、ユーザ端末3の表示部34に表示するよう構成されている。これにより、熟練者でなくとも、切断すべき花穂を知ることができ、ぶどうの房づくりを支援することが可能となっている。
また、本実施形態の境界位置推定部41dは、花穂の切断に必要な道具である実際のはさみの留め具の直径と画像P1上における留め具60の大きさとを用いてキャリブレーションを行うようになっている。これにより、特別の参照物を必要とすることなく境界位置Xpを推定することが可能となっている。さらに、円形の形状であるはさみの留め具を用いることにより、撮影距離やはさみの角度に依存せずに留め具の直径を得ることができ、キャリブレーションに好適に利用することが可能となっている。
また、円形パーツ検出部41cは、第1学習モデルを用いるはさみ検出部41c1と第2学習モデルを用いる留め具検出部41c2を備え、2段階で留め具60を検出するアプローチをとっている。これにより、不要な情報を捨て、関心のある領域だけに焦点を当てることができ、円形パーツである留め具60の検出を高速で行い、且つ、その検出精度を向上させることが可能となっている。また、このような画像処理部41の処理の高速化に加え、情報処理装置2とユーザ端末3の間の通信回線4としてローカル5Gシステムを使用すれば、ユーザ端末3の撮影部33による画像P1の撮影から表示部34による境界位置Xp(結果)の表示までを高速で行うことができる。そして、ユーザ端末3として光学透過型ヘッドマウントディスプレイを用いることにより、作業者Wの視界に含まれる実際のぶどうの花穂に境界位置Xpを重畳表示することで、作業者Wの房づくりをリアルタイムで支援することが可能となっている。
7.変形例
なお、本発明は、以下の態様でも実施可能である。
上記実施形態では、房づくり支援システム1が通信回線4を介して接続された情報処理装置2及びユーザ端末3を備えた構成であった。しかしながら、ユーザ端末3に情報処理装置2を組み込んで、通信回線4を介さずに処理する構成とすることも可能である。
上記実施形態では、キャリブレーションに用いる円形パーツとしてはさみの留め具を用いていたが、画像に含ませる円形パーツとして、円形シール、指輪、円形パーツ付のブレスレット等を用いることも可能である。
上記実施形態では、情報処理装置2がぶどうの房づくり支援のための房づくり支援システム1として用いられたが、本発明は、ぶどうの房づくり以外の用途にも用いることが可能である。例えば、本発明は、はさみを用いる必要のある果樹の選定や摘果作業における対象物の寸法を計測する場面において広く使用することができる。このような場面においても、はさみの留め具を画像上の寸法と実寸法とのキャリブレーションに用いることで、特別の参照物を必要とせず、また、撮影距離や角度に依存せず、実寸法を推定することが可能である。さらに、農作業以外の業態においても、はさみを用いる場面において本発明を用いることで、実寸法を推定することが可能である。
1 :支援システム
2 :情報処理装置
3 :ユーザ端末
4 :通信回線
5 :花穂
5 :花穂群
6 :はさみ
20 :制御部
21 :記憶部
22 :通信部
23 :操作入力部
24 :モニタ
25 :システムバス
30 :制御部
31 :記憶部
32 :通信部
33 :撮影部
34 :表示部
40 :画像取得部
41 :画像処理部
41a :花穂領域検出部
41b :主軸特定部
41c :円形パーツ検出部
41c1 :検出部
41c2 :留め具検出部
41d :境界位置推定部
42 :出力画像生成部
50 :画像撮影部
51 :出力画像表示部
60 :留め具
A1 :花穂領域
A2 :凸包領域
A3 :はさみ領域
B :バウンディングボックス
G :房
H1 :残すべき花穂
H2 :切断すべき花穂
Lr :現実の目標長さ
Lp :画像上の目標長さ
M :花穂主軸
N1,N2 :交点
P1~P5 :画像
P6 :出力画像
S1 :画像取得工程
S2 :花穂領域検出工程
S3 :主軸特定工程
S4 :円形パーツ検出工程
S5 :境界位置推定工程
S6 :出力画像生成工程
W :作業者
W1 :範囲
W2 :範囲
Xp :現実の境界位置
Xr :画像上の境界位置

Claims (9)

  1. 情報処理装置であって、
    花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、
    前記花穂領域検出部は、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、
    前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、
    前記円形パーツ検出部は、前記画像に含まれる円形パーツを検出し、
    前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記円形パーツは前記ぶどうの花穂を切断するはさみの支点部分に設けられる円形の留め具であり、
    前記円形パーツ検出部は、はさみ検出部と留め具検出部とを備えており、
    前記はさみ検出部は、第1学習モデルに基づいて、前記画像上におけるはさみ領域を検出し、
    前記留め具検出部は、前記第1学習モデルと異なる第2学習モデルに基づいて、前記はさみ領域から前記留め具の外接矩形領域を検出し、
    前記境界位置推定部は、前記外接矩形領域の長辺の長さを前記留め具の大きさとする、情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記花穂領域検出部は、前記第1学習モデルに基づいて前記花穂領域を検出する、情報処理装置。
  4. 請求項1~請求項3のいずれかに記載の情報処理装置であって、
    前記主軸特定部は、前記花穂領域の凸包を求めるとともに凸包領域の主軸を前記花穂主軸とし、
    前記境界位置推定部は、前記花穂主軸と前記凸包領域の交点を基準として前記境界位置を推定する、情報処理装置。
  5. 請求項1~請求項4のいずれかに記載の情報処理装置であって、
    出力画像生成部をさらに備え、
    前記出力画像生成部は、前記境界位置を示す出力画像を生成する、情報処理装置。
  6. システムであって、
    画像撮影部と、画像処理部とを備え、
    前記画像撮影部は、ぶどうの複数の花穂及び円形パーツを含む画像を撮影し、
    前記画像処理部は、花穂領域検出部と、主軸特定部と、円形パーツ検出部と、境界位置推定部とを備え、
    前記花穂領域検出部は、前記画像に含まれる前記複数の花穂の前記画像上における領域である花穂領域を検出し、
    前記主軸特定部は、前記花穂領域の主軸である花穂主軸を特定し、
    前記円形パーツ検出部は、前記画像に含まれる前記円形パーツを検出し、
    前記境界位置推定部は、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、システム。
  7. 請求項6に記載のシステムであって、
    ユーザ端末と、情報処理装置とを備え、
    前記ユーザ端末は、前記画像撮影部と、出力画像表示部を備え、
    前記情報処理装置は、前記画像処理部と、出力画像生成部とを備えており、
    前記出力画像生成部は、前記境界位置を示す出力画像を生成し、
    前記出力画像表示部は、前記出力画像を表示する、システム。
  8. プログラムであって、
    コンピュータに、花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを実行させ、
    前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、
    前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、
    前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、
    前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、プログラム。
  9. 情報処理方法であって、
    花穂領域検出工程と、主軸特定工程と、円形パーツ検出工程と、境界位置推定工程とを備え、
    前記花穂領域検出工程では、画像に含まれるぶどうの複数の花穂の前記画像上における領域である花穂領域を検出し、
    前記主軸特定工程では、前記花穂領域の主軸である花穂主軸を特定し、
    前記円形パーツ検出工程では、前記画像に含まれる円形パーツを検出し、
    前記境界位置推定工程では、前記円形パーツの直径の実寸法と前記円形パーツの前記画像上の大きさとを用いてキャリブレーションを行うことにより、前記花穂主軸上において、前記画像上における前記複数の花穂のうちの残すべき花穂と切断すべき花穂の境界である境界位置を推定する、情報処理方法。
JP2021203363A 2021-12-15 2021-12-15 情報処理装置、プログラム、システム、及び情報処理方法 Active JP7049636B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021203363A JP7049636B1 (ja) 2021-12-15 2021-12-15 情報処理装置、プログラム、システム、及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021203363A JP7049636B1 (ja) 2021-12-15 2021-12-15 情報処理装置、プログラム、システム、及び情報処理方法

Publications (2)

Publication Number Publication Date
JP7049636B1 true JP7049636B1 (ja) 2022-04-07
JP2023088557A JP2023088557A (ja) 2023-06-27

Family

ID=81259233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021203363A Active JP7049636B1 (ja) 2021-12-15 2021-12-15 情報処理装置、プログラム、システム、及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7049636B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN207269432U (zh) 2017-08-11 2018-04-27 杭州美人紫农业开发有限公司 替刃式葡萄花穗整形剪刀
JP2018143214A (ja) 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法
CN111666883A (zh) 2020-06-08 2020-09-15 佛山科学技术学院 一种葡萄采摘机器人目标识别及果梗夹切点定位方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5751507B1 (ja) * 2014-08-27 2015-07-22 岡山県 無核ブドウの房作り方法、及びその方法によって生産される生食用ブドウ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018143214A (ja) 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法
CN207269432U (zh) 2017-08-11 2018-04-27 杭州美人紫农业开发有限公司 替刃式葡萄花穗整形剪刀
CN111666883A (zh) 2020-06-08 2020-09-15 佛山科学技术学院 一种葡萄采摘机器人目标识别及果梗夹切点定位方法

Also Published As

Publication number Publication date
JP2023088557A (ja) 2023-06-27

Similar Documents

Publication Publication Date Title
US10832039B2 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
US20200250466A1 (en) Method for generating a customized/personalized head related transfer function
US11861062B2 (en) Blink-based calibration of an optical see-through head-mounted display
JP6885935B2 (ja) 眼の特徴を用いる眼ポーズ識別
US10255482B2 (en) Interactive display for facial skin monitoring
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
EP3830799A1 (en) Virtual try-on systems and methods for spectacles
CN111670018A (zh) 用于定位患者和手术机器人的引导
JP2017509967A (ja) ハフプロセッサ
US11042730B2 (en) Method, apparatus and device for determining an object, and storage medium for the same
JP2015177397A (ja) ヘッドマウントディスプレイおよび農作業補助システム
WO2020252969A1 (zh) 眼部关键点的标注及其检测模型的训练方法和装置
WO2021227969A1 (zh) 一种数据处理方法及其设备
US11775058B2 (en) Method and system for performing eye tracking using an off-axis camera
KR102045228B1 (ko) 신체 정보 분석 장치 및 얼굴형 모의 방법
CN105701496B (zh) 一种基于人工智能技术的围棋盘面识别方法
JP7049636B1 (ja) 情報処理装置、プログラム、システム、及び情報処理方法
US11250592B2 (en) Information processing apparatus
JP2019128748A (ja) 視線校正データ生成装置、視線測定装置およびそれらのプログラム
Goka et al. Development of Tomato Harvest Support System Using Mixed Reality Head Mounted Display
CN111784604A (zh) 图像处理方法、装置、设备及计算机可读存储介质
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023027712A1 (en) Methods and systems for simultaneously reconstructing pose and parametric 3d human models in mobile devices
JP2000306106A (ja) 3次元有向体の定位方法及び画像処理装置
JP2021064043A (ja) 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220104

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220104

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220317

R150 Certificate of patent or registration of utility model

Ref document number: 7049636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150