JP2022187508A - Information processing system, program, and information processing method - Google Patents

Information processing system, program, and information processing method Download PDF

Info

Publication number
JP2022187508A
JP2022187508A JP2021095519A JP2021095519A JP2022187508A JP 2022187508 A JP2022187508 A JP 2022187508A JP 2021095519 A JP2021095519 A JP 2021095519A JP 2021095519 A JP2021095519 A JP 2021095519A JP 2022187508 A JP2022187508 A JP 2022187508A
Authority
JP
Japan
Prior art keywords
target object
information processing
image data
image
acquisition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021095519A
Other languages
Japanese (ja)
Inventor
一樹 滝澤
Kazuki Takizawa
康之 辻
Yasuyuki Tsuji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui E&S Machinery Co Ltd
Original Assignee
Mitsui E&S Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui E&S Machinery Co Ltd filed Critical Mitsui E&S Machinery Co Ltd
Priority to JP2021095519A priority Critical patent/JP2022187508A/en
Publication of JP2022187508A publication Critical patent/JP2022187508A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing system, a program, and an information processing method which allow for reduction in load on a server and delay time due to reduction in data volume by inputting only data extracted by automatic recognition in an image collection device to the server.SOLUTION: In the information processing system in which a plurality of imaging devices, a plurality of image collection devices, a server, and a carrier transporting device are connected via a network, a controller 43 of the server which implements determination of a transport sequence, method, and so on of a thing carried on a target object comprises: an acceptance unit 431 which accepts image data including "the target object received in field angles", sent from the image collection devices; an identification unit 432 which identifies the thing carried on the target object on the basis of information associated with the target object and information detectable from the image data; a specification unit 433 which determines a transport sequence and method for the carried thing; and a transmission unit 434 which notifies the carrier transporting device of the determined information.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理システム、プログラム及び情報処理方法に関する。 The present invention relates to an information processing system, a program, and an information processing method.

工場でのライン作業やトラックの荷台からの荷物の搬出や搬入を行う場合、作業アームの近傍に設置された観測カメラ等を利用した画像認識により対象物を確認した後に行うのが一般的である。ライン作業において部品等の間違いがあれば製品の品質確保もできず、また荷物の搬出や搬入において間違いがあれば、後の予定を大幅に修正する必要も生じるからである。 When performing line work in a factory or loading and unloading cargo from a truck bed, it is common to confirm the target object by image recognition using an observation camera installed near the work arm. . This is because if there is an error in parts or the like in the line work, the quality of the product cannot be ensured, and if there is an error in carrying out or carrying in the cargo, it will be necessary to make major revisions to the subsequent schedule.

特許文献1には、カメラでの撮影によって得られた画像データをサーバに送信し、データ削減画像を作成したうえで、当該削減画像に基づいて被写体の認識認証処理を行なう画像認識認証システムが記載されている。 Patent Document 1 describes an image recognition authentication system that transmits image data obtained by photographing with a camera to a server, creates a data reduction image, and performs recognition and authentication processing of a subject based on the reduced image. It is

特開2009-218695号公報JP 2009-218695 A

しかしながら、特許文献1に開示されるようなサーバ自身が画像データを受け付けるとなると、サーバのコストは大きくなり、また負荷も大きくなる。さらにデータ削減画像は、ベストショットを判定した後にデータ圧縮を行うため、工場でのライン作業場等において必要な動画での画像認証に供する画像が圧縮されることもあり、認証精度に問題が生じる場合もありうる。 However, if the server itself receives image data as disclosed in Patent Document 1, the cost and load of the server increase. Furthermore, since the data reduction image is compressed after the best shot is determined, the image used for image authentication in the moving image required in the line work area at the factory may be compressed, which may cause problems with authentication accuracy. can also be

本発明では上記事情を鑑み、画像収集装置における自動認識により抽出されたデータのみサーバに入力されることにより、データ量の低減によるサーバの負荷軽減および遅延時間の軽減が図れる情報処理システム、プログラム及び情報処理方法を提供することを目的とする。 In view of the above circumstances, the present invention provides an information processing system, a program, and an information processing system capable of reducing the load on the server and the delay time by reducing the amount of data by inputting only the data extracted by automatic recognition in the image collecting device into the server. An object is to provide an information processing method.

本発明の一態様によれば、情報処理システム、プログラム及び情報処理方法が提供される。この情報処理システム、プログラム及び情報処理方法は、次の各ステップを実行するように構成される。抽出ステップでは、画像収集装置が、前記画像収集装置で受信された画像データに含まれる目的対象物を認識し、前記目的対象物が画角に収容された画像データのみを抽出する。受付ステップでは、前記抽出された画像データを受け付ける。識別ステップでは、前記目的対象物に紐づけられた情報と、前記抽出された画像データから読み取れる情報とに基づいて、前記目的対象物に担持された物を識別する。特定ステップでは、前記目的対象物に担持された物の運搬順序と方法を特定する。通知ステップでは、前記特定された情報を担持物運搬装置に通知する。 According to one aspect of the present invention, an information processing system, a program, and an information processing method are provided. This information processing system, program, and information processing method are configured to execute the following steps. In the extracting step, an image acquisition device recognizes a target object included in image data received by the image acquisition device, and extracts only image data in which the target object is included in the angle of view. The receiving step receives the extracted image data. In the identifying step, an object carried by the target object is identified based on information linked to the target object and information read from the extracted image data. The identifying step identifies the order and method of transportation of the objects carried by the target object. In the notification step, the identified information is notified to the carried object transporting device.

これによれば、画像収集装置における自動認識により抽出されたデータのみサーバに入力されることにより、データ量の低減によるサーバの負荷軽減および遅延時間の軽減が図れる。 According to this, by inputting only the data extracted by the automatic recognition in the image collection device to the server, the load on the server and the delay time can be reduced by reducing the amount of data.

本実施形態に係る情報処理システム全体図である。1 is an overall view of an information processing system according to an embodiment; FIG. 画像収集装置3のハードウェア構成を示すブロック図である。3 is a block diagram showing the hardware configuration of the image acquisition device 3; FIG. サーバ4のハードウェア構成を示すブロック図である。4 is a block diagram showing the hardware configuration of the server 4; FIG. 画像収集装置3(制御部33)によって実現される機能を示すブロック図である。3 is a block diagram showing functions realized by the image acquisition device 3 (control unit 33); FIG. サーバ4(制御部43)によって実現される機能を示すブロック図である。4 is a block diagram showing functions realized by the server 4 (control unit 43); FIG. 本実施形態のフローチャート図である。It is a flowchart figure of this embodiment.

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。 Embodiments of the present invention will be described below with reference to the drawings. Various features shown in the embodiments shown below can be combined with each other.

1.ハードウェア構成
第1節では、本実施形態のハードウェア構成について説明する。
1. Hardware Configuration Section 1 describes the hardware configuration of this embodiment.

1.1 情報処理システム1
図1は、本実施形態に係る情報処理システム全体図である。情報処理システム1は、画像撮像装置2(例えば、画像撮像装置2-1、2-2、・・・、2-n)と、画像収集装置3(例えば、画像収集装置3-1、3-2、・・・、3-n)と、サーバ4と、担持物運搬装置5を備え、これらがネットワークを通じて接続されている。これらの構成要素についてさらに説明する。ここで、情報処理システム1に例示されるシステムとは、1つ又はそれ以上の装置又は構成要素からなるものである。
1.1 Information processing system 1
FIG. 1 is an overall view of an information processing system according to this embodiment. The information processing system 1 includes image capturing devices 2 (eg, image capturing devices 2-1, 2-2, . . . , 2-n) and image collecting devices 3 (eg, image capturing devices 3-1, 3- 2, . . . , 3-n), a server 4, and a carrying device 5, which are connected through a network. These components are further described. Here, the system exemplified by the information processing system 1 consists of one or more devices or components.

1.2 画像撮像装置2
画像撮像装置2は前記目的対象物に担持された物について識別を容易にするため、所定の空間において死角が発生しないよう、複数備え付けられている。また画像撮像装置2は担持物運搬装置5の動きの妨げにならないよう、レーンや車線の上方や外側に設置されることが望ましい。画像撮像装置2は、例えば定点観測カメラである。なお広範囲を撮像しつつ、画像分解能を高く維持したいような場合には、4K(画素数:3840×2160)カメラであり、画像収集装置3に送信されるデータ量を低減するためには好ましくは、30FPS(フレーム/秒)以内であり、より好ましくは5FPS以内であり、具体的には例えば、5、10,15,20,25,30FPSであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。フレームレートを低くすることで、後述の画像収集装置3へ送信されるデータ量を抑制し、ひいてはサーバ4に送信されるデータ量も抑制することができる。
1.2 Imaging device 2
A plurality of imaging devices 2 are installed so as not to generate a blind spot in a predetermined space in order to facilitate identification of an object carried by the target object. In addition, it is desirable that the imaging device 2 be installed above or outside the lane or lane so as not to interfere with the movement of the object transporting device 5 . The imaging device 2 is, for example, a fixed-point observation camera. If you want to image a wide range and maintain a high image resolution, a 4K (number of pixels: 3840 × 2160) camera is preferable in order to reduce the amount of data transmitted to the image acquisition device 3. , 30 FPS (frames per second) or less, more preferably 5 FPS or less, specifically, for example, 5, 10, 15, 20, 25, 30 FPS, between any two of the numerical values exemplified here may be within the range of By lowering the frame rate, it is possible to suppress the amount of data transmitted to the image acquisition device 3, which will be described later, and thus the amount of data transmitted to the server 4 as well.

画像撮像装置2は、後述の画像収集装置3における通信部31とネットワークを介して接続され、前記目的対象物が画角に収容された画像データのみを画像収集装置3に転送可能に構成される。 The imaging device 2 is connected via a network to a communication unit 31 of the image acquisition device 3, which will be described later, and is configured to be capable of transferring only image data in which the target object is included in the angle of view to the image acquisition device 3. .

また、画像撮像装置2として、可視光だけではなく紫外域や赤外域といったヒトが知覚できない帯域において計測可能なものを採用してもよい。このような画像撮像装置2を採用することによって、暗視野であっても本実施形態に係る情報処理システム1を実施することができる。 Further, as the imaging device 2, a device capable of measuring not only visible light but also a band such as an ultraviolet region or an infrared region that cannot be perceived by humans may be adopted. By adopting such an imaging device 2, the information processing system 1 according to this embodiment can be implemented even in a dark field.

1.3 画像収集装置3
画像収集装置3は、画像撮像装置2のそれぞれに対応して備え付けられており、画像撮像装置2に紐づけられた番号と同一の番号を有する。なお画像撮像装置2のひとつが前記目的対象物を画角に捉えた場合、前記目的対物が担持する物の識別力を向上させるため、他の画像撮像装置2が連動しうるよう画像収集装置3のひとつは複数の画像撮像装置2と対応して備え付けられていてもよい。前記画像収集装置3のひとつと接続される前記画像撮像装置2の台数については、前記画像撮像装置2から送信されるデータ量を収容できる限りにおいては特に指定されるものではない。画像収集装置3は、エッジデバイスに代表されるような端末装置である。
1.3 Image acquisition device 3
The image acquisition device 3 is provided corresponding to each image capturing device 2 and has the same number as the number associated with the image capturing device 2 . In addition, when one of the imaging devices 2 captures the target object in the angle of view, the image collecting device 3 is arranged so that the other imaging devices 2 can be linked in order to improve the ability to identify the object carried by the target object. may be provided corresponding to a plurality of imaging devices 2 . The number of image pickup devices 2 connected to one of the image acquisition devices 3 is not particularly specified as long as the amount of data transmitted from the image pickup devices 2 can be accommodated. The image collection device 3 is a terminal device typified by an edge device.

図2(a)は、画像収集装置3のハードウェア構成を示すブロック図である。画像収集装置3は、通信部31と、記憶部32と、制御部33とを有し、これらの構成要素が画像収集装置3の内部において通信バス30を介して電気的に接続されている。各構成要素についてさらに説明する。 FIG. 2(a) is a block diagram showing the hardware configuration of the image acquisition device 3. As shown in FIG. The image acquisition device 3 has a communication unit 31 , a storage unit 32 , and a control unit 33 , and these components are electrically connected via a communication bus 30 inside the image acquisition device 3 . Each component will be further described.

通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。画像収集装置3は、通信部31を介して、画像撮像装置2からの画像データの受信や前記目的対象物が画角に収容された画像データを送信する。詳細は後述する。 The communication unit 31 preferably uses wired communication means such as USB, IEEE1394, Thunderbolt, wired LAN network communication, etc., but wireless LAN network communication, mobile communication such as LTE/3G, Bluetooth (registered trademark) communication, etc., can be used as necessary. may be included. That is, it is more preferable to implement as a set of these communication means. The image acquisition device 3 receives image data from the imaging device 2 and transmits image data in which the target object is included in the angle of view via the communication unit 31 . Details will be described later.

記憶部32は、前述の画像撮像装置2から受信した画像データを一時的に記憶する。これは、例えば、制御部33によって実行される画像収集装置3に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、図4のステップS103に記載の「目的対象物の画像データのみ抽出」が実施され、図4のステップS104に記載の「メモリ等からの消去」がなされるまで記憶される。 The storage unit 32 temporarily stores the image data received from the imaging device 2 described above. This may be, for example, a storage device such as a solid state drive (SSD) for storing various programs related to the image acquisition device 3 executed by the control unit 33, or a temporary storage device related to program calculation. It can be implemented as a memory such as a Random Access Memory (RAM) that stores information (arguments, arrays, etc.) required for the . A combination of these may also be used. In particular, "extract only the image data of the target object" described in step S103 of FIG. 4 is performed, and stored until "delete from memory etc." is performed in step S104 of FIG.

制御部33は、画像収集装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、前記目的対象物を認識し、前記目的対象物が画角に収容された画像データのみを抽出を実現する。すなわち、記憶部32に記憶されているソフトウェアによる情報処理が、ハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる機能部として実行されうる。これらについては、次節においてさらに詳述する。なお、制御部33は単一であることに限定されず、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。 The control unit 33 processes and controls overall operations related to the image acquisition device 3 . The control unit 33 is, for example, a central processing unit (CPU) (not shown). The control unit 33 recognizes the target object by reading out a predetermined program stored in the storage unit 32, and realizes extraction of only image data in which the target object is accommodated in the angle of view. That is, information processing by software stored in the storage unit 32 can be specifically realized by the control unit 33 which is an example of hardware, and can be executed as a functional unit included in the control unit 33 . These are further detailed in the next section. Note that the control unit 33 is not limited to a single unit, and may be implemented so as to have a plurality of control units 33 for each function. A combination thereof may also be used.

1.4 サーバ4
図2(b)は、サーバ4のハードウェア構成を示すブロック図である。上述の画像収集装置3ように、サーバ4は、通信部41と、記憶部42と、制御部43とを有し、これらの構成要素がサーバ4の内部において通信バス40を介して電気的に接続されている。そのため各構成要素については上述と異なる部分のみ説明する。
1.4 Server 4
FIG. 2B is a block diagram showing the hardware configuration of the server 4. As shown in FIG. Like the image acquisition device 3 described above, the server 4 has a communication unit 41 , a storage unit 42 , and a control unit 43 . It is connected. Therefore, only parts different from those described above will be described for each component.

サーバ4は、通信部41を介して、画像収集装置3から、前記目的対象物が画角に収容された画像データを受信する。なお上記画像データが画像撮像装置2から画像収集装置3に送信された全画像データのうちどの部分に該当するかを判断するために、画像撮像装置2に接続されていてもよい。詳細は後述する。 The server 4 receives image data in which the target object is included in the angle of view from the image acquisition device 3 via the communication unit 41 . It may be connected to the image pick-up device 2 in order to determine which part of all the image data transmitted from the image pick-up device 2 to the image acquisition device 3 corresponds to the image data. Details will be described later.

記憶部42は、前述の画像収集装置3により発せられた前記目的対象物が画角に収容された画像データを解析対象データとして記憶する。特に、図4のステップS108に記載の「解析対象データを教師データとして保存」が実施されるまで記憶され、その後、解析対象データは教師データとして、記憶部42の別の領域に格納されることになる。 The storage unit 42 stores, as analysis target data, image data in which the target object is contained in the angle of view emitted by the image acquisition device 3 described above. In particular, the data to be analyzed is stored until "save data to be analyzed as teacher data" described in step S108 of FIG. become.

制御部43は、記憶部42に記憶された所定のプログラムを読み出すことによって、図4のステップS106に記載の目的対象物が担持する物の「運搬順序・方法等の決定」を実現する。 The control unit 43 reads out a predetermined program stored in the storage unit 42 to realize the "determination of transportation order, method, etc." of the objects carried by the target object described in step S106 of FIG.

1.5 担持物運搬装置5
担持物運搬装置5は、サーバ4から発せられた「運搬順序・方法等」についての情報を受け付け、その「運搬順序・方法等」を実行する。なお担持物運搬装置5が動作する場合、安全面等を考慮して、担持物運搬装置5に備え付けられた拡声器によって音声による注意喚起がなされてもよい。
1.5 Carrier 5
The carried object transporting device 5 receives information about the “transportation order/method” issued from the server 4, and executes the “transportation order/method”. In addition, when the object transporting device 5 is operated, a loudspeaker attached to the object transporting device 5 may be used to call attention by voice in consideration of safety and the like.

2.機能構成
本節では、本実施形態の機能構成について説明する。前述の通り、記憶部32、42に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部33、43によって具体的に実現されることで、制御部33、43に含まれる機能部として実行されうる。
2. Functional Configuration This section describes the functional configuration of this embodiment. As described above, information processing by software stored in the storage units 32 and 42 is specifically realized by the control units 33 and 43, which are examples of hardware, so that the functional units included in the control units 33 and 43 can be run as

図3(a)は、画像収集装置3(制御部33)によって実現される機能を示すブロック図である。具体的には、画像収集装置3(制御部33)は、受付部331と、認識部332と、抽出部333と、送信部334とを備える。 FIG. 3A is a block diagram showing functions realized by the image acquisition device 3 (control unit 33). Specifically, the image acquisition device 3 (control unit 33 ) includes a reception unit 331 , a recognition unit 332 , an extraction unit 333 and a transmission unit 334 .

受付部331は、各種の情報を受け付けるように構成される。例えば、受付部331は、画像撮像装置2から発せられた全画像データを受け付ける。 The reception unit 331 is configured to receive various types of information. For example, the reception unit 331 receives all image data emitted from the imaging device 2 .

認識部332は、画像撮像装置2から送信される全画像データのうち、目的対象物が画角に収容されているかを自動認識するように構成される。例えば、認識部332は、記憶部32に記憶された所定のプログラムを呼び出し、画像撮像装置2から送信された全画像データから特徴量を抽出(エッジ抽出)、解析を行い、目的対象物を自動認識する。
なお、前記自動認識は、サーバ4に随時保存され、画像収集装置3に送付された教師データに基づく機械学習がより好ましく、必要に応じて、前記特徴量抽出アルゴリズムを含ませてもよい。機械学習のアルゴリズムは特に限定されず、k近傍法、ロジスティック回帰、サポートベクターマシン、ニューラルネットワーク、トピックモデル、混合ガウスモデル等が適宜採用されればよい。
The recognition unit 332 is configured to automatically recognize whether or not the target object is included in the angle of view in all the image data transmitted from the imaging device 2 . For example, the recognition unit 332 calls a predetermined program stored in the storage unit 32, extracts (edge extracts) feature amounts from all image data transmitted from the imaging device 2, performs analysis, and automatically recognizes the target object. recognize.
It should be noted that the automatic recognition is more preferably machine learning based on training data that is stored in the server 4 as needed and sent to the image collection device 3, and the feature quantity extraction algorithm may be included as necessary. The machine learning algorithm is not particularly limited, and k-nearest neighbor method, logistic regression, support vector machine, neural network, topic model, Gaussian mixture model, etc. may be employed as appropriate.

抽出部333は、前記自動認識により、目的対象物が画角に収容されている画像を特定し、当該画像のみ抽出するように構成される。なおこの際、抽出されなかった画像については画像収集装置3に備えつけられたメモリ等から自動的に消去される。また画像収集装置3のひとつがが複数の画像撮像装置2と接続されている場合、当該画像の抽出は互いに連動して行われる。 The extraction unit 333 is configured to specify an image in which the target object is contained in the angle of view by the automatic recognition, and extract only the image. At this time, images that have not been extracted are automatically deleted from the memory or the like provided in the image acquisition device 3 . Further, when one of the image acquisition devices 3 is connected to a plurality of image capturing devices 2, the extraction of the images is performed in conjunction with each other.

送信部334は、前記抽出された画像データをサーバ4に送信するよう構成される。なお送信部334は、画像収集装置3のひとつがが複数の画像撮像装置2と接続されている場合、ある特定の時刻において、画像撮像装置2の一部の画像が抜け落ちているか否かという前記連動性について確認後、問題がない場合にサーバ4に送信するよう構成される。 The transmission unit 334 is configured to transmit the extracted image data to the server 4 . Note that when one of the image acquisition devices 3 is connected to a plurality of image pickup devices 2, the transmission unit 334 determines whether or not some images of the image pickup devices 2 are missing at a specific time. It is configured to transmit to the server 4 if there is no problem after confirming interlocking.

図3(b)は、サーバ4(制御部43)によって実現される機能を示すブロック図である。具体的には、サーバ4(制御部43)は、受付部431と、解析部432と、抽出部433と、送信部434とを備える。 FIG. 3B is a block diagram showing functions realized by the server 4 (control unit 43). Specifically, the server 4 (control unit 43 ) includes a reception unit 431 , an analysis unit 432 , an extraction unit 433 and a transmission unit 434 .

受付部431は、各種の情報を受け付けるように構成される。例えば、受付部431は、画像収集装置3から発せられた「目的対象物が画角に収容された」画像データを受け付ける。 The reception unit 431 is configured to receive various types of information. For example, the reception unit 431 receives image data “a target object is contained in the angle of view” emitted from the image acquisition device 3 .

識別部432は、前記目的対象物に紐付けられた情報と、前記「目的対象物が画角に収容された」画像データから読み取れる情報とに基づき、前記目的対象物に担持される物を識別するよう構成される。例えば、前記画像データから読み取れる情報とは、目的対象物が担持する物の背面に印字された製造番号や型番であり、コンテナに記載された文字番号である。 The identification unit 432 identifies an object carried by the target object based on the information linked to the target object and the information read from the image data "the target object is contained in the angle of view". configured to For example, the information that can be read from the image data is the manufacturing number or model number printed on the back of the object carried by the target object, and the character number written on the container.

特定部433は、前記識別部432による識別後、記憶部42にある所定のプログラムを読み出し、前記目的対象物に担持される物のユーザの目的に応じた「運搬順序と方法」を解析し、特定するよう構成される。
なお、前記解析し、特定された情報についての運搬装置5への通知は、時々刻々と変化する現場において柔軟に対応できるよう、ユーザが前記解析終了後、所定の時間を経過した後と設定してもよい。
After identification by the identification unit 432, the identification unit 433 reads out a predetermined program in the storage unit 42, analyzes the "transportation order and method" of the object carried by the target object according to the user's purpose, configured to identify
In order to be able to flexibly cope with the ever-changing site, the notification of the analyzed and specified information to the transporting device 5 is set by the user after a predetermined time has elapsed after the end of the analysis. may

3.情報処理方法
本節では、前述した情報処理システム1の情報処理方法について説明する。この情報処理方法は、次の各ステップを備える。抽出ステップでは、画像収集装置が、前記画像収集装置で受信された画像データに含まれる目的対象物を認識し、前記目的対象物が画角に収容された画像データのみを抽出する。受付ステップでは、前記抽出された画像データを受け付ける。識別ステップでは、前記目的対象物に紐づけられた情報と、前記抽出された画像データから読み取れる情報とに基づいて、前記目的対象物に担持された物を識別する。特定ステップでは、前記目的対象物に担持された物の運搬順序と方法を特定する。
通知ステップでは、前記特定された情報を担持物運搬装置に通知する。
3. Information Processing Method In this section, the information processing method of the information processing system 1 described above will be described. This information processing method includes the following steps. In the extracting step, an image acquisition device recognizes a target object included in image data received by the image acquisition device, and extracts only image data in which the target object is included in the angle of view. The receiving step receives the extracted image data. In the identification step, an object carried by the target object is identified based on information linked to the target object and information read from the extracted image data. The identification step identifies the order and method of transportation of the objects carried by the target object.
In the notification step, the identified information is notified to the carried object transporting device.

図4は、情報処理システム1によって実行される情報処理の流れを示すフローチャート図である。以下、このフローチャート図の各フローに沿って、説明するものとする。 FIG. 4 is a flow chart showing the flow of information processing executed by the information processing system 1. As shown in FIG. Hereinafter, description will be made along each flow of this flowchart.

ユーザであるオペレーターが担持物運搬装置5を操作しようとする場合、担持物運搬装置5を起動させることになるが、担持物運搬装置5と連動して画像撮像装置2と画像収集装置3も起動する。画像収集装置3は画像撮像装置2からの全画像データを受け付けるよう構成されている(ステップS101)。
画像収集装置3は画像撮像装置2から受け付けた画像データの中に、目的対象物としている画像が含まれているかどうかを自動認識する(ステップS102)。前記自動認識は上述のとおり、特徴量を抽出するエッジ抽出法や教師ありデータを用いた機械学習などがある。さらにこれらを組み合わせたものでもよい。
When an operator, who is a user, tries to operate the object transporting device 5, the object transporting device 5 is started. do. The image acquisition device 3 is configured to receive all image data from the image capture device 2 (step S101).
The image acquisition device 3 automatically recognizes whether or not the image data received from the image pickup device 2 includes the image of the target object (step S102). As described above, the automatic recognition includes an edge extraction method for extracting feature amounts, machine learning using supervised data, and the like. Furthermore, what combined these may be used.

前記自動認識がなされると、画像収集装置3は、目的対象物が画角に収容された画像データのみ抽出し(ステップS103)、サーバ4に送信する。一方目的対象物が画角に収容されなかった画像データについては画像収集装置3に備え付けられたソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスやランダムアクセスメモリ(Random Access Memory:RAM)等のメモリから消去される(ステップS104)。スッテプS104のデータ消去はステップS103に漏れたすべてのデータであって、画像収集装置3が画像撮像装置2からの全画像データを受け付ける関係上、ステップS103の後、なるだけ早く実行されることが好ましい。 When the automatic recognition is performed, the image acquisition device 3 extracts only image data in which the target object is included in the angle of view (step S103), and transmits it to the server 4. FIG. On the other hand, for image data in which the target object is not accommodated in the angle of view, a storage device such as a solid state drive (SSD) or a random access memory (RAM) provided in the image acquisition device 3 is stored. is erased from the memory (step S104). The data deletion in step S104 is performed as soon as possible after step S103 because all the data that has leaked to step S103 is deleted and the image acquisition device 3 accepts all the image data from the image capturing device 2. preferable.

サーバ4に送信された、目的対象物が画角に収容された画像データは、解析対象として取り込まれる(ステップS105)。前記目的対象物に紐づけられた情報と、前記抽出された画像データから読み取れる情報とに基づいて、前記目的対象物に担持された物を識別した後、当該物の運搬順序や方法等について解析され、特定される(ステップS106)。当該解析および特定は、上述のとおりサーバ4の記憶部42に格納されている所定のプログラムを読み出すことで実行され、ユーザの目的に応じて各種パラメータ等が調整されることは言うまでもない。 The image data in which the target object is included in the angle of view, which has been transmitted to the server 4, is taken in as an analysis target (step S105). After identifying the objects carried by the target object based on the information linked to the target object and the information that can be read from the extracted image data, analyze the order and method of transporting the objects. and identified (step S106). The analysis and identification are executed by reading out the predetermined program stored in the storage unit 42 of the server 4 as described above, and needless to say, various parameters are adjusted according to the purpose of the user.

その後、上記特定された情報を運搬装置稼働命令として担持物運搬装置5に送信される(ステップS107)。担持物運搬装置5は前記稼働命令を受け付け、搬出および搬入を行う。そうして一連のフローが終了することになる。なおスッテプS102の画像自動認識が、教師ありデータによる機械学習の場合、上記ステップS107の終了後、解析対象データを教師データとしてサーバ4に保存する(ステップS108)。次回のシステムの起動時等、スッテプS102の教師データが更新されるよう設定されていてもよい(ステップS109)。 After that, the specified information is transmitted to the carrying device 5 as a carrying device operation command (step S107). The carrying device 5 receives the operation command, and performs carry-out and carry-in. Then the series of flows ends. If the automatic image recognition in step S102 is machine learning using supervised data, the data to be analyzed is stored in the server 4 as supervised data after step S107 (step S108). The teaching data in step S102 may be set to be updated when the system is next started (step S109).

4.その他
本実施形態に係る情報処理システム1に関して、以下のような態様を採用してもよい。
前記情報処理システム1において、前記画像収集装置3における目的対象物の認識は、複数の種類の前記目的対象物を教師データとして予め学習させた学習済みデータに基づく、ものである。
機械学習を用いることで前記画像収集装置3が、精度の高い自動認識を実現できるようになるため、より好ましい。
4. Others Regarding the information processing system 1 according to the present embodiment, the following aspects may be adopted.
In the information processing system 1, recognition of the target object in the image acquisition device 3 is based on learned data in which a plurality of types of target objects are learned in advance as teacher data.
The use of machine learning is more preferable because the image collection device 3 can realize highly accurate automatic recognition.

上述の機械学習を用いた前記情報処理システム1において、画像収集装置3は学習ステップをさらに備え、当該学習ステップでは、前記目的対象物が画角に収容された画像データを教師データとして、前記学習済みデータを生成又は更新する、ものである。
図4のステップS109に記載のとおり、自動認識に成功した実データを教師データとして更新していくため、前記画像収集装置3の自動認識の精度が高まるのため、さらに好ましい。
In the information processing system 1 using machine learning described above, the image acquisition device 3 further includes a learning step, in which image data in which the target object is accommodated in the angle of view is used as teacher data for the learning. create or update existing data.
As described in step S109 in FIG. 4, since the real data that has been successfully automatically recognized is updated as the teacher data, the precision of the automatic recognition of the image collecting device 3 is improved, which is more preferable.

前記情報処理システム1において、前記目的対象物に紐づけられた情報が二次元バーコードである、ものである。例えば二次元バーコードはQRコード(登録商標)であり、作成および読み取りが早く、担持物運搬装置5への稼働命令(図4に記載のステップS107)への遅延が生じにくいだけでなく、サーバ4の識別部432での識別能力の向上も合わせて図りうるため、好ましい。 In the information processing system 1, the information linked to the target object is a two-dimensional barcode. For example, the two-dimensional barcode is a QR code (registered trademark), which is quick to create and read, and not only is it less likely to cause a delay in issuing an operation command (step S107 in FIG. 4) to the object transporting device 5, This is preferable because it is also possible to improve the identification ability of the identification unit 432 of No. 4.

前記情報処理システム1において、前記画像収集装置で受信された画像データは、複数車線が画角に収まるように定点から撮像された画像データであり、前記目的対象物は、陸上運搬機の運転席上部の天井部分である、ものである。
車やトラックのヘッドは四角形状であり、上述のエッジ抽出は容易である。さらに機械学習を用いることでより精度の高い自動認識が実現できるため、好ましい。
In the information processing system 1, the image data received by the image collecting device is image data captured from a fixed point so that a plurality of lanes fit within the angle of view, and the target object is the driver's seat of a land transportation machine. This is the upper part of the ceiling.
The heads of cars and trucks are square, which facilitates the edge extraction described above. Furthermore, the use of machine learning is preferable because more accurate automatic recognition can be achieved.

上述の、画像データは複数車線が画角に収まるように定点から撮像された画像データであり、前記目的対象物は、陸上運搬機の運転席上部の天井部分である情報処理システム1において、前記担持物はコンテナであり、前記担持物運搬装置は、コンテナクレーンである、ものである。
コンテナクレーンによる荷物の運び出し等の順序は効率化が求められるため、特にデータ量の低減によるサーバの負荷軽減および遅延時間の軽減が図れるメリットが大きいため、さらに好ましい。
The image data described above is image data captured from a fixed point so that multiple lanes fit within the angle of view, and the target object is the ceiling above the driver's seat of a land transport machine. The carrier is a container, and the carrier is a container crane.
This is more preferable because the order in which the cargo is carried out by the container crane is required to be efficient, and the reduction in the amount of data in particular has the advantage of reducing the load on the server and reducing the delay time.

前記情報処理システム1において、カメラと、サーバとを備え、前記カメラは、前記目的対象物が画角に収容された画像データを生成するように構成され、前記サーバは、前記カメラ及び前記画像収集装置とネットワークを介して接続され、前記画像収集装置から、目的対象物が画角に収容された画像データのみを受け付けるように構成される、ものである。
画像収集装置3の機能を画像撮像装置2に付加させることも可能であり、画像収集装置3の設置する場所等に余裕がない場合であっても、情報処理システム1が画像撮像装置2であるカメラとサーバ4が一体となったシステムであることにより本発明の目的を達成しうるため、好ましい。
The information processing system 1 includes a camera and a server, the camera is configured to generate image data in which the target object is accommodated in an angle of view, and the server is configured to collect the image and the camera. It is connected to a device via a network and configured to receive only image data in which a target object is contained in an angle of view from the image acquisition device.
It is also possible to add the functions of the image capturing device 3 to the image capturing device 2, and even if there is no space for installing the image capturing device 3, the information processing system 1 is the image capturing device 2. A system in which the camera and the server 4 are integrated is preferable because the object of the present invention can be achieved.

なお上記の実施形態では、情報処理システム1の構成として説明したが、コンピュータに、情報処理システム1における各ステップを実行させるプログラムが提供されてもよい。
上述の画像収集装置3の設置する場所等に余裕がない場合であっても、本発明の目的を達成しうるため、より好ましい。
Although the configuration of the information processing system 1 has been described in the above embodiment, a program that causes a computer to execute each step in the information processing system 1 may be provided.
This is more preferable because the object of the present invention can be achieved even if there is no space for the installation of the image acquisition device 3 described above.

最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Finally, while various embodiments of the invention have been described, these have been presented by way of example and are not intended to limit the scope of the invention. The novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1 :画像処理システム1
2 :画像撮像装置2
3 :画像収集装置3
30 :通信バス30
31 :通信部31
32 :記憶部32
33 :制御部33
331 :受付部331
332 :認識部332
333 :抽出部333
334 :送信部334
4 :サーバ4
40 :通信バス40
41 :通信部41
42 :記憶部42
43 :制御部43
431 :受付部431
432 :識別部432
433 :特定部433
434 :送信部434
5 :担持物運搬装置5










1: Image processing system 1
2: image capturing device 2
3: Image acquisition device 3
30: communication bus 30
31: communication unit 31
32: storage unit 32
33: control unit 33
331: reception unit 331
332: recognition unit 332
333: extraction unit 333
334: Transmitter 334
4: Server 4
40: communication bus 40
41: Communication unit 41
42: storage unit 42
43: control unit 43
431: reception unit 431
432: identification unit 432
433: Identification unit 433
434: Transmitter 434
5: Carrier 5










Claims (15)

情報処理システムであって、
次の各ステップを実行するように構成され、
抽出ステップでは、画像収集装置が、前記画像収集装置で受信された画像データに含まれる目的対象物を認識し、前記目的対象物が画角に収容された画像データのみを抽出し、
受付ステップでは、前記抽出された画像データを受け付け、
識別ステップでは、前記目的対象物に紐づけられた情報と、前記抽出された画像データから読み取れる情報とに基づいて、前記目的対象物に担持された物を識別し、
特定ステップでは、前記目的対象物に担持された物の運搬順序と方法を特定し、
通知ステップでは、前記特定された情報を担持物運搬装置に通知する、もの。
An information processing system,
configured to perform each of the following steps,
In the extracting step, an image acquisition device recognizes a target object included in image data received by the image acquisition device, and extracts only image data in which the target object is contained in an angle of view;
The receiving step receives the extracted image data,
In the identification step, based on information linked to the target object and information read from the extracted image data, an object carried by the target object is identified;
the identifying step identifies the order and method of transportation of the objects carried by the target object;
In the notification step, the identified information is notified to the carrier transporting device.
請求項1に記載の情報処理システムにおいて、
前記画像収集装置における前記目的対象物の認識は、複数の種類の前記目的対象物を教師データとして予め学習させた学習済みデータに基づく、もの。
In the information processing system according to claim 1,
The recognition of the target object in the image acquisition device is based on learned data obtained by previously learning a plurality of types of the target object as teacher data.
請求項2に記載の情報処理システムにおいて、
前記画像収集装置は学習ステップをさらに備え、
前記学習ステップでは、前記目的対象物が画角に収容された画像データを教師データとして、前記学習済みデータを生成又は更新する、もの。
In the information processing system according to claim 2,
The image acquisition device further comprises a learning step,
In the learning step, the learned data is generated or updated using image data in which the target object is accommodated in an angle of view as teacher data.
請求項1~請求項3の何れか1つに記載の情報処理システムにおいて、
前記目的対象物に紐づけられた情報が二次元バーコードである、もの。
In the information processing system according to any one of claims 1 to 3,
The information linked to the target object is a two-dimensional barcode.
請求項1~請求項4の何れか1つに記載の情報処理システムにおいて、
前記画像収集装置で受信された画像データは、複数車線が画角に収まるように定点から撮像された画像データであり、
前記目的対象物は、陸上運搬機の運転席上部の天井部分である、もの
In the information processing system according to any one of claims 1 to 4,
The image data received by the image collecting device is image data captured from a fixed point so that multiple lanes fit within the angle of view,
The target object is a ceiling part above the driver's seat of a land transport machine
請求項5に記載の情報処理システムにおいて、
前記担持物はコンテナであり、
前記担持物運搬装置は、コンテナクレーンである、もの。
In the information processing system according to claim 5,
the carrier is a container;
The object carrier is a container crane.
請求項1~請求項6の何れか1つに記載の情報処理システムにおいて、
カメラと、サーバとを備え、
前記カメラは、前記目的対象物が画角に収容された画像データを生成するように構成され、
前記サーバは、
前記カメラ及び前記画像収集装置とネットワークを介して接続され、
前記画像収集装置から、目的対象物が画角に収容された画像データのみを受け付けるように構成される、もの。
In the information processing system according to any one of claims 1 to 6,
comprising a camera and a server,
the camera is configured to generate image data in which the target object is contained in an angle of view;
The server is
connected to the camera and the image acquisition device via a network;
configured to accept from said image acquisition device only image data in which a target object is contained in an angle of view.
情報処理方法であって、
次の各ステップを備え、
抽出ステップでは、画像収集装置が、前記画像収集装置で受信された画像データに含まれる目的対象物を認識し、前記目的対象物が画角に収容された画像データのみを抽出し、
受付ステップでは、前記抽出された画像データを受け付け、
識別ステップでは、前記目的対象物に紐づけられた情報と、前記抽出された画像データから読み取れる情報とに基づいて、前記目的対象物に担持された物を識別し、
特定ステップでは、前記目的対象物に担持された物の運搬順序と方法を特定し、
通知ステップでは、前記特定された情報を担持物運搬装置に通知する、方法。
An information processing method,
comprising the following steps,
In the extracting step, an image acquisition device recognizes a target object included in image data received by the image acquisition device, and extracts only image data in which the target object is contained in an angle of view;
The receiving step receives the extracted image data,
In the identification step, based on information linked to the target object and information read from the extracted image data, an object carried by the target object is identified;
the identifying step identifies the order and method of transportation of the objects carried by the target object;
The method, wherein the notifying step notifies the carrier carrier of the identified information.
請求項8に記載の情報処理方法において、
前記画像収集装置における前記目的対象物の認識は、複数の種類の前記目的対象物を教師データとして予め学習させた学習済みデータに基づく、方法。
In the information processing method according to claim 8,
The method, wherein the recognition of the target object in the image acquisition device is based on learned data in which a plurality of types of the target object are pre-learned as teacher data.
請求項9に記載の情報処理方法において、
前記画像収集装置は学習ステップをさらに備え、
前記学習ステップでは、前記目的対象物が画角に収容された画像データを教師データとして、前記学習済みデータを生成又は更新する、方法。
In the information processing method according to claim 9,
The image acquisition device further comprises a learning step,
In the learning step, the learned data is generated or updated using image data in which the target object is accommodated in an angle of view as teacher data.
請求項8~請求項10の何れか1つに記載の情報処理方法において、
前記目的対象物に紐づけられた情報が二次元バーコードである、方法。
In the information processing method according to any one of claims 8 to 10,
A method, wherein the information associated with the target object is a two-dimensional barcode.
請求項8~請求項11の何れか1つに記載の情報処理方法において、
前記画像収集装置で受信された画像データは、複数車線が画角に収まるように定点から撮像された画像データであり、
前記目的対象物は、陸上運搬機の運転席上部の天井部分である、方法。
In the information processing method according to any one of claims 8 to 11,
The image data received by the image collecting device is image data captured from a fixed point so that multiple lanes fit within the angle of view,
A method according to claim 1, wherein the target object is a ceiling portion above a driver's seat of a land transport vehicle.
請求項12に記載の情報処理方法において、
前記担持物はコンテナであり、
前記担持物運搬装置は、コンテナクレーンである、方法。
In the information processing method according to claim 12,
the carrier is a container;
The method, wherein the carrier carrier is a container crane.
請求項8~請求項13の何れか1つに記載の情報処理方法において、
カメラと、サーバとを備え、
前記カメラは、前記目的対象物が画角に収容された画像データを生成するように構成され、
前記サーバは、
前記カメラ及び前記画像収集装置とネットワークを介して接続され、
前記画像収集装置から、目的対象物が画角に収容された画像データのみを受け付けるように構成される、方法。
In the information processing method according to any one of claims 8 to 13,
comprising a camera and a server,
the camera is configured to generate image data in which the target object is contained in an angle of view;
The server is
connected to the camera and the image acquisition device via a network;
A method configured to accept only image data in which a target object is contained in an angle of view from the image acquisition device.
プログラムであって、
コンピュータに、請求項1~請求項7の何れか1つに記載の情報処理システムにおける各ステップを実行させる、もの。
a program,
A computer that executes each step in the information processing system according to any one of claims 1 to 7.
JP2021095519A 2021-06-08 2021-06-08 Information processing system, program, and information processing method Pending JP2022187508A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021095519A JP2022187508A (en) 2021-06-08 2021-06-08 Information processing system, program, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021095519A JP2022187508A (en) 2021-06-08 2021-06-08 Information processing system, program, and information processing method

Publications (1)

Publication Number Publication Date
JP2022187508A true JP2022187508A (en) 2022-12-20

Family

ID=84531968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021095519A Pending JP2022187508A (en) 2021-06-08 2021-06-08 Information processing system, program, and information processing method

Country Status (1)

Country Link
JP (1) JP2022187508A (en)

Similar Documents

Publication Publication Date Title
US7961911B2 (en) Method and apparatus of automated optical container code recognition with positional identification for a transfer container crane
US11048270B2 (en) Systems and methods for a material handling vehicle network
US10630944B2 (en) Method and system for door status detection and alert generation
US11076130B2 (en) Operation information transmission device, construction management system, operation information transmission method, and program
JP2008500252A (en) Container identification support method and apparatus for multiple wharf cranes
CN110770407A (en) Vehicle operation system, in-vehicle device, electronic key, and vehicle operation method
JP6562716B2 (en) Information processing apparatus, information processing method, program, and forklift
CN112863001B (en) Inspection method, device and system for power distribution machine room
JP5818064B2 (en) Data collection system and data collection method using crane hook
CN108153302B (en) Guiding method and device of automatic guided vehicle and computer readable storage medium
JP2010152728A (en) Management system, management method, program, management device and on-vehicle machine
JP4716322B2 (en) Container management system
JP2022187508A (en) Information processing system, program, and information processing method
CN112232130B (en) Offline detection method, industrial personal computer, ETC antenna device and system
CN113379830A (en) Anti-collision method and device, storage medium and electronic equipment
JP6670351B2 (en) Map updating device and map updating method
JP7346283B2 (en) Information processing device, information processing method, and program
KR102543818B1 (en) System, apparatus and method for recognizing license plate of vehicle and appratus for managing the same
CN114332892A (en) Printing process method, printing process device, printing equipment and computer readable storage medium
CN115830601A (en) Box number identification method and device, hub card and drive control method and system thereof
CN111310745A (en) Object recognition method and device, storage medium and electronic device
KR20220076674A (en) Management method of rebar stock and system thereof
KR20230158812A (en) System and method for recognition of crane lifting object and computer-readable recording medium including the same
KR20220074381A (en) Fixed Odor Removal System and Odor Removal Method Thereof
KR20150107536A (en) Position recognition device for heavy weight

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230517