JP2021026465A - Information processing device, program and imaging system - Google Patents

Information processing device, program and imaging system Download PDF

Info

Publication number
JP2021026465A
JP2021026465A JP2019143340A JP2019143340A JP2021026465A JP 2021026465 A JP2021026465 A JP 2021026465A JP 2019143340 A JP2019143340 A JP 2019143340A JP 2019143340 A JP2019143340 A JP 2019143340A JP 2021026465 A JP2021026465 A JP 2021026465A
Authority
JP
Japan
Prior art keywords
cell
information processing
cells
objects
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019143340A
Other languages
Japanese (ja)
Other versions
JP7280142B2 (en
Inventor
ダオ・フウフング
Huu Hung Dao
ファン・チャウフクティン
Chaufuktin Fang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fpt Japan Holdings Co Ltd
Original Assignee
Fpt Japan Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fpt Japan Holdings Co Ltd filed Critical Fpt Japan Holdings Co Ltd
Priority to JP2019143340A priority Critical patent/JP7280142B2/en
Publication of JP2021026465A publication Critical patent/JP2021026465A/en
Priority to JP2023078274A priority patent/JP2023103355A/en
Application granted granted Critical
Publication of JP7280142B2 publication Critical patent/JP7280142B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an information processing device which has the high recognition force even when the number of objects is arbitrary and large, and can estimate the number of objects or ratio (density) of occupation in an image, and also provide a program and an imaging system.SOLUTION: In a control unit of an imaging system, a communication part receives image data including a plurality of objects, and a cell division part divides the image data into a plurality of cells. A cell group extraction part extracts a cell group including a desired cell and a surrounding cell from the plurality of cells, where the desired cell is one of the plurality of cells, and the surrounding cell is the cell located in the periphery of the desired cell. An estimation part estimates the number or density of objects included in the image data by inputting each cell included in the cell group to a machine learning architecture. The machine learning architecture includes a CNN layer which performs the convolution of the same weight matrix to each cell included in the cell group, and an LSTM layer which can process a plurality of feature intermediate values output from the CNN layer in a time series manner.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、プログラム、及び撮像システムに関する。 The present invention relates to an information processing device, a program, and an imaging system.

様々な分野において、カメラで撮影された画像から所望の対象物の個数や、画像中における占める割合(密度)を計測するという需要がある。例えば、監視カメラ等、カメラを含む撮像システムでは、人物や自動車等が所望の対象物として扱われる。例えば、特許文献1には、所定の物体を検出する物体認識装置が開示されている。かかる物体認識装置は、所定の物体(ここでは道路標識)が検出された場合に、カメラ制御値を調整することで、認識率の向上を図っている。 In various fields, there is a demand for measuring the number of desired objects and their proportion (density) in an image from an image taken by a camera. For example, in an imaging system including a camera such as a surveillance camera, a person, an automobile, or the like is treated as a desired object. For example, Patent Document 1 discloses an object recognition device that detects a predetermined object. Such an object recognition device aims to improve the recognition rate by adjusting a camera control value when a predetermined object (here, a road sign) is detected.

特開2019−125022号公報Japanese Unexamined Patent Publication No. 2019-125022

しかし、特許文献1に開示される物体認識装置は、そもそも物体をどのように検出するかについては言及されていない。道路標識であれば、そもそも形態が定まっており、一度の撮影に際してその個数は限定的であると推定される。すなわち、このような条件下であれば、既存のアルゴリズムでもある程度の成果は期待されるものの、対象物を任意の物体であって多数ある場合にまで拡張させるのであれば、より優れたアルゴリズムが必要と考えられる。 However, the object recognition device disclosed in Patent Document 1 does not mention how to detect an object in the first place. If it is a road sign, the form is fixed in the first place, and it is estimated that the number of road signs is limited at one time of shooting. In other words, under such conditions, some results can be expected even with existing algorithms, but if the object is to be extended to an arbitrary object and there are many, a better algorithm is required. it is conceivable that.

本発明は、かかる事情を鑑みてなされたものであり、対象物が任意かつ多数であっても、高い認識力を有し、かかる対象物の個数又は画像中における占める割合(密度)を推定可能な情報処理装置、プログラム、及び撮像システムを提供することを目的とする。 The present invention has been made in view of such circumstances, has high cognitive ability even if the number of objects is arbitrary and large, and can estimate the number of such objects or the proportion (density) of the objects in an image. It is an object of the present invention to provide various information processing devices, programs, and imaging systems.

本発明の一態様によれば、情報処理装置であって、受付部と、セル分割部と、セル群抽出部と、推定部とを備え、前記受付部は、複数の対象物を含む画像データを受付可能に構成され、前記セル分割部は、前記画像データを複数のセルに分割可能に構成され、前記セル群抽出部は、当該複数のセルから所望セルと周囲セルとを含むセル群を抽出可能に構成され、ここで、前記所望セルは前記複数のセルのうちの1つで、前記周囲セルは前記所望セルの周囲に位置するセルで、前記推定部は、前記セル群に含まれる各セルを機械学習アーキテクチャに入力することで、前記画像データに含まれる対象物の数又は密度を推定可能に構成され、ここで、前記機械学習アーキテクチャは、前記セル群に含まれる各セルに対して同一の重み付け行列を畳み込むCNN層と、当該CNN層から出力された複数の特徴中間値を順次系列的に処理可能なLSTM層とを含むものが提供される。 According to one aspect of the present invention, the information processing apparatus includes a reception unit, a cell division unit, a cell group extraction unit, and an estimation unit, and the reception unit includes image data including a plurality of objects. The cell division unit is configured to be able to divide the image data into a plurality of cells, and the cell group extraction unit is configured to select a cell group including a desired cell and surrounding cells from the plurality of cells. It is configured to be extractable, where the desired cell is one of the plurality of cells, the peripheral cell is a cell located around the desired cell, and the estimation unit is included in the cell group. By inputting each cell into the machine learning architecture, the number or density of objects contained in the image data can be estimated, and the machine learning architecture is the same for each cell included in the cell group. A CNN layer that convolves the weighting matrix of the above, and an LSTM layer that can sequentially process a plurality of feature intermediate values output from the CNN layer are provided.

本発明の一態様に係る情報処理装置によれば、対象物が任意かつ多数であっても、高い認識力を有しつつ、かかる対象物の個数又は画像中における占める割合(密度)を推定することができる、という有利な効果を奏する。 According to the information processing apparatus according to one aspect of the present invention, even if the number of objects is arbitrary and large, the number of such objects or the ratio (density) occupied in the image is estimated while having high cognitive ability. It has the advantageous effect of being able to do it.

撮像システムのハードウェア構成概要を示すブロック図。A block diagram showing an outline of the hardware configuration of an imaging system. [図2A]情報処理装置のハードウェア構成概要を示すブロック図、[図2B]制御部の機能を示す機能ブロック図。FIG. 2A is a block diagram showing an outline of a hardware configuration of an information processing device, and FIG. 2B is a functional block diagram showing a function of a control unit. カメラによって撮像された画像の一例を示す図。The figure which shows an example of the image taken by the camera. 図3に示された画像を複数のセルに分割した一例を示す図。The figure which shows an example which divided the image shown in FIG. 3 into a plurality of cells. [図5A]図4に示された複数のセルから任意のセル群を抽出した一例を示す図、[図5B]図5Aに示されたセル群を構成する所望セルと周囲セルとを示す図。FIG. 5A is a diagram showing an example in which an arbitrary cell group is extracted from a plurality of cells shown in FIG. 4, and [FIG. 5B] a diagram showing desired cells and surrounding cells constituting the cell group shown in FIG. 5A. .. 撮像システムの動作の流れを示すアクティビティ図。An activity diagram showing the flow of operation of the imaging system. モールデータセット(http://personal.ie.cuhk.edu.hk/〜ccloy/downloads_mall_dataset.htmlから取得可能)の1つを本特許出願にあたってグレースケール化した画像。A grayscale image of one of the mall datasets (available from http: // personal.ie.kuhk.edu.hk/ ~ ccloy / downloads_mall_dataset.html).

以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。特に、本明細書において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、0又は1で構成される2進数のビット集合体として信号値の高低によって表され、広義の回路上で通信・演算が実行されうる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The various features shown in the embodiments shown below can be combined with each other. In particular, in the present specification, the "part" may include, for example, a combination of hardware resources implemented by circuits in a broad sense and information processing of software that can be concretely realized by these hardware resources. .. Further, various information is handled in this embodiment, and these information are represented by high and low signal values as a bit set of binary numbers composed of 0 or 1, and communication / calculation is executed on a circuit in a broad sense. Can be done.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 Further, a circuit in a broad sense is a circuit realized by at least appropriately combining a circuit (Circuit), circuits (Circuitry), a processor (Processor), a memory (Memory), and the like. That is, an integrated circuit for a specific application (Application Special Integrated Circuit: ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device: SPLD), a composite programmable logic device (Complex Program)) It includes a programmable gate array (Field Programmable Gate Array: FPGA) and the like.

1.全体構成
第1節では、本実施形態に含まれる構成要素について、順次説明する。
1. 1. Overall Configuration In Section 1, the components included in this embodiment will be described in sequence.

1.1 撮像システム1
図1は、本実施形態に係る撮像システム1のハードウェア構成概要を示すブロック図である。撮像システム1は、カメラ2と、情報処理装置3とを備える。本実施形態では、カメラ2と、情報処理装置3とはネットワークNを介して接続されている。かかる接続は有線であっても無線であってもよい。
1.1 Imaging system 1
FIG. 1 is a block diagram showing an outline of the hardware configuration of the imaging system 1 according to the present embodiment. The imaging system 1 includes a camera 2 and an information processing device 3. In the present embodiment, the camera 2 and the information processing device 3 are connected via the network N. Such a connection may be wired or wireless.

1.2 カメラ2
カメラ2は、例えば、外界の情報を光学的に撮像するものであり、動画として撮像されるものが好ましい。カメラ2の解像度やフレームレートは、用途(撮像する対象物O)に応じて適宜選択すればよく、本実施形態においては特に限定されるものではない。例えば、解像度は、フルHD、WQHD、4k等でよく、フレームレートは、30fps、60fps、120fps、250fps等でよい。カメラ2が撮像した画像IMが、後述の情報処理装置3に送信される。図3は、カメラ2によって撮像された画像IMの一例を示しているので参照されたい。ここでは、対象物Oがヒトである場合を例示している。
1.2 Camera 2
The camera 2 optically captures information in the outside world, and is preferably captured as a moving image. The resolution and frame rate of the camera 2 may be appropriately selected according to the application (object O to be imaged), and are not particularly limited in the present embodiment. For example, the resolution may be full HD, WQHD, 4k, etc., and the frame rate may be 30 fps, 60 fps, 120 fps, 250 fps, or the like. The image IM captured by the camera 2 is transmitted to the information processing device 3 described later. FIG. 3 shows an example of the image IM captured by the camera 2, so please refer to it. Here, the case where the object O is a human is illustrated.

1.3 情報処理装置3
情報処理装置3は、ハードウェアであるコンピュータと、ソフトウェアであるプログラムとによって実現されるものである。なお、コンピュータのユーザUが、インターネット等を介してプログラムをコンピュータにインストールさせることによって情報処理装置3が実現されてもよいし(ダウンロード)、予めコンピュータにプログラムがインストールされていることによって情報処理装置3が実現されてもよい。
1.3 Information processing device 3
The information processing device 3 is realized by a computer as hardware and a program as software. The information processing device 3 may be realized by having the computer user U install the program on the computer via the Internet or the like (download), or the information processing device may be realized by installing the program on the computer in advance. 3 may be realized.

図2Aは、情報処理装置3のハードウェア構成概要を示し、図2Bは、制御部33の機能を示す機能ブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33と、表示部34と、入力部35とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。以下、各構成要素についてさらに説明する。 FIG. 2A shows an outline of the hardware configuration of the information processing device 3, and FIG. 2B is a functional block diagram showing the functions of the control unit 33. The information processing device 3 includes a communication unit 31, a storage unit 32, a control unit 33, a display unit 34, and an input unit 35, and these components provide a communication bus 30 inside the information processing device 3. It is electrically connected via. Hereinafter, each component will be further described.

<通信部31>
通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。これらは一例であり、専用の通信規格を採用してもよい。すなわち、これら複数の通信手段の集合として実施することがより好ましい。
<Communication unit 31>
Although wired communication means such as USB, IEEE1394, Thunderbolt, and wired LAN network communication are preferable, the communication unit 31 performs wireless LAN network communication, mobile communication such as LTE / 3G, Bluetooth (registered trademark) communication, and the like as necessary. May be included. These are examples, and a dedicated communication standard may be adopted. That is, it is more preferable to carry out as a set of these plurality of communication means.

特に、通信部31によって、図1に示されるように、情報処理装置3はネットワークNを介してカメラ2と情報通信可能に構成される。例えば、通信部31は、カメラ2が撮像した画像IMをネットワークN経由で受信する。換言すると、通信部31(「受付部」の一例)は、複数の対象物Oを含む画像IMのデータを受付可能に構成される。 In particular, as shown in FIG. 1, the communication unit 31 configures the information processing device 3 so that it can communicate with the camera 2 via the network N. For example, the communication unit 31 receives the image IM captured by the camera 2 via the network N. In other words, the communication unit 31 (an example of the “reception unit”) is configured to be able to receive data of an image IM including a plurality of objects O.

<記憶部32>
記憶部32は、様々な情報を記憶する揮発性又は不揮発性の記憶媒体である。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。
<Memory unit 32>
The storage unit 32 is a volatile or non-volatile storage medium that stores various information. This is, for example, as a storage device such as a solid state drive (SSD), or a random access memory (Random Access Memory:) that stores temporarily necessary information (arguments, arrays, etc.) related to program operations. It can be implemented as a memory such as RAM). Moreover, these combinations may be used.

特に、記憶部32は、コンピュータを情報処理装置3と機能させるプログラムを記憶している。また、記憶部32は、後述の機械学習(特に深層学習)アーキテクチャを記憶していることにも留意されたい。 In particular, the storage unit 32 stores a program that causes the computer to function as the information processing device 3. It should also be noted that the storage unit 32 stores the machine learning (particularly deep learning) architecture described below.

<制御部33>
制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)として実現される。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的には、通信部31が受信した画像IMのデータを複数のセルCに分割するセル分割機能、当該複数のセルCから所望セルC0と周囲セルC1〜C8とを含むセル群CGを抽出するセル群抽出機能、セル群CGに含まれる各セルCを機械学習アーキテクチャに入力することで、画像IMに含まれる対象物Oの数又は密度を推定する推定機能等が該当する。
<Control unit 33>
The control unit 33 processes and controls the entire operation related to the information processing device 3. The control unit 33 is realized as, for example, a central processing unit (CPU) (not shown). The control unit 33 realizes various functions related to the information processing device 3 by reading a predetermined program stored in the storage unit 32. Specifically, a cell division function that divides the image IM data received by the communication unit 31 into a plurality of cells C, and extracts a cell group CG including desired cells C0 and surrounding cells C1 to C8 from the plurality of cells C. The cell group extraction function, the estimation function for estimating the number or density of the object O included in the image IM, and the like by inputting each cell C included in the cell group CG into the machine learning architecture are applicable.

すなわち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、セル分割部331、セル群抽出部332、及び推定部333として実行されうる。なお、図2Aにおいては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。以下、セル分割部331、セル群抽出部332、及び推定部333についてさらに詳述する。 That is, the information processing by the software (stored in the storage unit 32) is specifically realized by the hardware (control unit 33), so that the cell division unit 331, the cell group extraction unit 332, and the estimation unit 333 can be used. Can be executed. Although it is described as a single control unit 33 in FIG. 2A, it is not actually limited to this, and it may be implemented so as to have a plurality of control units 33 for each function. Moreover, it may be a combination thereof. Hereinafter, the cell division unit 331, the cell group extraction unit 332, and the estimation unit 333 will be described in more detail.

[セル分割部331]
セル分割部331は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。セル分割部331は、カメラ2が撮像し、通信部31を介して受信した画像IMを、複数のセルCに分割する。図4は、図3に示された画像IMを複数のセルC(ここでは、8×8=64)に分割した一例を示しているので参照されたい。
[Cell division unit 331]
In the cell division unit 331, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33). The cell division unit 331 divides the image IM imaged by the camera 2 and received via the communication unit 31 into a plurality of cells C. FIG. 4 shows an example in which the image IM shown in FIG. 3 is divided into a plurality of cells C (here, 8 × 8 = 64), so please refer to it.

[セル群抽出部332]
セル群抽出部332は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。セル群抽出部332は、セル分割部331によって分割された複数のセルCから所望セルC0と周囲セルC1〜C8とを含むセル群CGを抽出する。図5Aは、図4に示された複数のセルCから任意のセル群CGを抽出した一例を示し、図5Bは、図5Aに示されたセル群CG(ここでは、3×3=9)を構成する所望セルC0と周囲セルC1〜C8とを示しているので参照されたい。ここで、所望セルC0とは、複数のセルCのうちの1つで、周囲セルC1〜C8とは、所望セルC0の周囲に位置するセルCである。換言すると、セル群CGが1つの所望セルC0と8つの周囲セルC1〜C8との計9つのセルからなるものである。
[Cell group extraction unit 332]
In the cell group extraction unit 332, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33). The cell group extraction unit 332 extracts a cell group CG including a desired cell C0 and surrounding cells C1 to C8 from a plurality of cells C divided by the cell division unit 331. FIG. 5A shows an example in which an arbitrary cell group CG is extracted from a plurality of cell Cs shown in FIG. 4, and FIG. 5B shows a cell group CG shown in FIG. 5A (here, 3 × 3 = 9). The desired cells C0 and the surrounding cells C1 to C8 that constitute the above are shown, so refer to them. Here, the desired cell C0 is one of the plurality of cells C, and the peripheral cells C1 to C8 are cells C located around the desired cell C0. In other words, the cell group CG is composed of a total of nine cells, one desired cell C0 and eight surrounding cells C1 to C8.

[推定部333]
推定部333は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。推定部333は、セル群CGに含まれる各セルCを記憶部32に記憶された機械学習アーキテクチャに入力することで、画像IMに含まれる対象物Oの数又は密度を推定する。ここで、本実施形態において採用している機械学習アーキテクチャは、セル群CGに含まれる各セルCに対して同一の重み付け行列を畳み込むCNN(Convolutional Neural Network)層と、当該CNN層から出力された複数の特徴マップを順次系列的に処理可能なLSTM(Long short−term memory)層とを含むものであることに留意されたい。
[Estimating unit 333]
In the estimation unit 333, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33). The estimation unit 333 estimates the number or density of the objects O included in the image IM by inputting each cell C included in the cell group CG into the machine learning architecture stored in the storage unit 32. Here, the machine learning architecture adopted in the present embodiment is output from a CNN (Convolutional Neural Network) layer that convolves the same weighting matrix for each cell C included in the cell group CG, and the CNN layer. It should be noted that it includes an LSTM (Long short-term memory) layer capable of sequentially processing a plurality of feature maps.

CNN層は、複数の層を有するニューラルネットワークである。具体的には、CNN層は、画像IM(正確にはセルC)からエッジ抽出といった特徴量を抽出する畳み込み層と、平行移動等のロバスト性を担保するプーリング層と、出力値(「特徴中間値」の一例)を与える結合層とを備える。すなわち、図5Bに示される、セル群CGを構成する所望セルC0及び周囲セルC1〜C8をCNN層にそれぞれ入力し、複数の特徴中間値をそれぞれ得る。なお得られる複数の特徴中間値は、セル群CGに含まれるセルCの個数と同一に限定されるものではない。また、畳み込み層において畳み込む行列は、特に限定されるものではないが、各セルCに対して同一の重み付け行列を畳み込むShared weight CNNであることに留意されたい。 The CNN layer is a neural network having a plurality of layers. Specifically, the CNN layer includes a convolutional layer that extracts features such as edge extraction from the image IM (to be exact, cell C), a pooling layer that ensures robustness such as translation, and an output value (“feature intermediate”). It is provided with a binding layer that gives an example of "value"). That is, the desired cells C0 and the surrounding cells C1 to C8 that constitute the cell group CG shown in FIG. 5B are input to the CNN layer, respectively, and a plurality of feature intermediate values are obtained. The plurality of feature intermediate values obtained are not limited to the same number of cells C included in the cell group CG. Further, the convolution matrix in the convolutional layer is not particularly limited, but it should be noted that the convolutional weight CNN convolves the same weighting matrix for each cell C.

LSTM層は、系列データ(特に時系列データ)に基づく分類、処理、予測に適した機械学習モデルである。例えば、図4を参照すると、画像IMにおける複数のセルCにまたがって、対象物Oが占めていることが確認できる。このような特徴から、発明者らは、所望セルC0と周囲セルC1〜C8を系列データとして取り扱って機械学習させることで、対象物Oに対して優れた認識性を発揮するものと着想した。また、図4に示されるように、対象物Oが互いに重なっていても優れた認識性を発揮することにも留意されたい。 The LSTM layer is a machine learning model suitable for classification, processing, and prediction based on series data (particularly time series data). For example, referring to FIG. 4, it can be confirmed that the object O occupies the plurality of cells C in the image IM. Based on these characteristics, the inventors have conceived that the desired cell C0 and the surrounding cells C1 to C8 are treated as series data and machine-learned to exhibit excellent recognition of the object O. It should also be noted that, as shown in FIG. 4, even if the objects O overlap each other, they exhibit excellent recognizability.

LSTM層では、あるセルCの出力値を次のセルCの入力値にフィードバックさせるように構成される。そして、所望セルC0に対応する特徴中間値を入力として、複数あるLSTM層のうち系列順に最後のLSTM層が、所望セルC0における対象物Oの数又は密度を出力する。 The LSTM layer is configured to feed back the output value of one cell C to the input value of the next cell C. Then, with the feature intermediate value corresponding to the desired cell C0 as an input, the last LSTM layer in the sequence order among the plurality of LSTM layers outputs the number or density of the objects O in the desired cell C0.

<表示部34>
表示部34は、例えば、情報処理装置3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。表示部34は、ユーザUが操作可能なグラフィカルユーザインターフェース(Graphical User Interface:GUI)の画面を表示する。これは例えば、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等の表示デバイスを、情報処理装置3の種類に応じて使い分けて実施することが好ましい。当該表示デバイスは、制御部33による所定の制御信号に応答して、GUIの画面を選択的に表示しうる。なお、GUIについて補足すると、例えば、入力フォームやラジオボタン等といった具体的なインターフェースが表示されうる。
<Display unit 34>
The display unit 34 may be included in the housing of the information processing device 3, or may be externally attached, for example. The display unit 34 displays a screen of a graphical user interface (GUI) that can be operated by the user U. For example, it is preferable to use display devices such as a CRT display, a liquid crystal display, an organic EL display, and a plasma display properly according to the type of the information processing device 3. The display device can selectively display the GUI screen in response to a predetermined control signal by the control unit 33. As a supplement to the GUI, a specific interface such as an input form or a radio button may be displayed.

表示部34は、通信部31がカメラ2より受信した画像IMを表示する。また、表示部34は、制御部33における推定部333が推定した対象物Oの数又は密度を表示する。 The display unit 34 displays the image IM received by the communication unit 31 from the camera 2. Further, the display unit 34 displays the number or density of the object O estimated by the estimation unit 333 in the control unit 33.

<入力部35>
入力部35は、情報処理装置3の筐体に含まれるものであってもよいし、外付けされるものであってもよい。例えば、入力部35は、表示部34と一体となってタッチパネルとして実施されうる。タッチパネルであれば、ユーザUは、タップ操作、スワイプ操作等を入力することができる。もちろん、タッチパネルに代えて、スイッチボタン、マウス、QWERTYキーボード等を採用してもよい。すなわち、入力部35がユーザUによってなされた操作入力を受け付ける。当該入力が命令信号として、通信バス30を介して制御部33に転送され、制御部33が必要に応じて所定の制御や演算を実行しうる。
<Input unit 35>
The input unit 35 may be included in the housing of the information processing device 3 or may be externally attached. For example, the input unit 35 can be implemented as a touch panel integrally with the display unit 34. If it is a touch panel, the user U can input a tap operation, a swipe operation, and the like. Of course, instead of the touch panel, a switch button, a mouse, a QWERTY keyboard, or the like may be adopted. That is, the input unit 35 receives the operation input made by the user U. The input is transferred as a command signal to the control unit 33 via the communication bus 30, and the control unit 33 can execute a predetermined control or calculation as needed.

2.各機能の説明
第2節では、本実施形態に係る撮像システム1の動作の流れについて説明する。図6は、撮像システム1の動作の流れを示すアクティビティ図である。以下、図6に示されるアクティビティ図の各アクティビティに沿って説明をする。
2. 2. Description of Each Function Section 2 describes the operation flow of the imaging system 1 according to the present embodiment. FIG. 6 is an activity diagram showing an operation flow of the imaging system 1. Hereinafter, each activity in the activity diagram shown in FIG. 6 will be described.

[ここから]
(アクティビティA01)
撮像システム1におけるカメラ2が、対象物Oを含む画像IMとして撮像する。かかる撮像は、フレームレートに基づいて連続的に行われるものである。各フレームは、ネットワークNを介して、順次情報処理装置3に送信される。
[from here]
(Activity A01)
The camera 2 in the image pickup system 1 takes an image as an image IM including the object O. Such imaging is continuously performed based on the frame rate. Each frame is sequentially transmitted to the information processing apparatus 3 via the network N.

(アクティビティA11)
情報処理装置3における通信部31が、アクティビティA1において撮像された画像IMを受信する(画像IMが情報処理装置3に受付される)。
(Activity A11)
The communication unit 31 in the information processing device 3 receives the image IM captured in the activity A1 (the image IM is received by the information processing device 3).

(アクティビティA12)
アクティビティA11の完了後、情報処理装置3におけるセル分割部331が、アクティビティA11において受信した画像IMを複数のセルCに分割する。
(Activity A12)
After the completion of the activity A11, the cell division unit 331 in the information processing apparatus 3 divides the image IM received in the activity A11 into a plurality of cells C.

(アクティビティA13)
アクティビティA12の完了後、情報処理装置3におけるセル群抽出部332が、アクティビティA12において分割された複数のセルCのうち、その一部をセル群CG(所望セルC0及び周囲セルC1〜C8)として抽出する。
(Activity A13)
After the completion of the activity A12, the cell group extraction unit 332 in the information processing apparatus 3 uses a part of the plurality of cells C divided in the activity A12 as the cell group CG (desired cell C0 and surrounding cells C1 to C8). Extract.

(アクティビティA14)
アクティビティA13の完了後、情報処理装置3における推定部333が、所望セルC0及び周囲セルC1〜C8を入力として、記憶部32に記憶された機械学習アーキテクチャに基づいて、対象物Oの数又は密度の推定を開始する。ここでは、所望セルC0及び周囲セルC1〜C8を入力として、畳み込み行列をそれぞれ共有したCNN層を導入することで、複数の特徴中間値が出力される。
(Activity A14)
After the completion of the activity A13, the estimation unit 333 in the information processing device 3 inputs the desired cells C0 and the surrounding cells C1 to C8, and the number or density of the objects O is based on the machine learning architecture stored in the storage unit 32. Start estimating. Here, a plurality of feature intermediate values are output by introducing a CNN layer sharing a convolutional matrix with desired cells C0 and surrounding cells C1 to C8 as inputs.

(アクティビティA15)
アクティビティA14の完了後、アクティビティA14において得られた複数の特徴中間値を系列的な入力として、LSTM層を導入することで、所望セルC0における対象物Oの密度が推定的に出力される。
(Activity A15)
After the completion of the activity A14, the density of the object O in the desired cell C0 is estimatedly output by introducing the LSTM layer by using the plurality of feature intermediate values obtained in the activity A14 as a series input.

(アクティビティA16)
アクティビティA15の結果得られた所望セルC0における対象物Oの密度推定を、画像IMに対して全体的に実施することによって、画像IMにおける対象物Oの数又は密度を推定することができる。
[ここまで]
(Activity A16)
The number or density of the object O in the image IM can be estimated by performing the density estimation of the object O in the desired cell C0 obtained as a result of the activity A15 on the image IM as a whole.
[to this point]

3.実施例
第3節では、第1節で説明した情報処理装置3の実施例について説明する。あくまでも評価実験であるため、カメラ2で撮像する画像IMに代えて、当業者によって幅広くベンチマークとして用いられているモールデータセット(Mall Dataset)を採用した(図7参照)。モールデータセットには、対象物Oであるヒトが画像IMに大量に含まれている。
3. 3. Example In Section 3, the example of the information processing apparatus 3 described in Section 1 will be described. Since this is just an evaluation experiment, a mall data set (Mall Dataset) widely used as a benchmark by those skilled in the art was adopted instead of the image IM imaged by the camera 2 (see FIG. 7). In the mall data set, a large amount of human beings, which are objects O, are included in the image IM.

モールデータセットの各ヘッド位置のアノテーションは一般に公開されている。最初の800フレームをトレーニング用に使用し、残りの1200フレームをテスト用に保持するものとした。各フレーム全体を32×32サイズの画像のグリッドに分割することで、800フレームのデータセットからより多くのトレーニングデータを増やすことができる。全体で、800×20×15のトレーニング画像が生成され、モデルのトレーニングに使用した。そして、Adamオプティマイザを使用してモデルを訓練した。 Annotations for each head position in the mall dataset are open to the public. The first 800 frames were used for training and the remaining 1200 frames were reserved for testing. By dividing the entire frame into a grid of 32 x 32 size images, more training data can be added from the 800 frame dataset. Overall, 800x20x15 training images were generated and used to train the model. The model was then trained using the Adam optimizer.

真値とのずれを評価する上で、[数1]に規定されるMAE(平均絶対値誤差)と、[数2]に規定されるMSE(平均2乗誤差)とを測定した。



In evaluating the deviation from the true value, the MAE (mean absolute value error) specified in [Equation 1] and the MSE (mean square error) specified in [Equation 2] were measured.



より詳細には、MAEは推定の精度を示し、MSEは推定の頑健性を示す指標である。式中における、Nはテストサンプルの数、y_iは真値カウント、y_i’はi番目のサンプルに対応する推定カウントである。MAE及びMSEの値が低いほど、精度が高くなり、推定値が良いものといえる。 More specifically, MAE is an indicator of the accuracy of the estimate and MSE is an indicator of the robustness of the estimate. In the equation, N is the number of test samples, y_i is the true value count, and y_i'is the estimated count corresponding to the i-th sample. It can be said that the lower the MAE and MSE values, the higher the accuracy and the better the estimated value.

さらに、[表1]に評価実験の結果を示す。比較例として、従来技術に係る対象物Oの数又は密度推定手法を記載している。従来手法に比べて、精度及び推定の頑健性が高いことが示されている。

Furthermore, [Table 1] shows the results of the evaluation experiment. As a comparative example, the number or density estimation method of the object O according to the prior art is described. It has been shown that accuracy and estimation robustness are higher than those of conventional methods.

4.結言
以上のように、本実施形態によれば、対象物Oが任意かつ多数であっても、高い認識力を有し、かかる対象物Oの個数又は画像IM中における占める割合(密度)を推定可能な情報処理装置3を提供することができる。
4. Conclusion As described above, according to the present embodiment, even if the number of objects O is arbitrary and large, the object O has high cognitive ability, and the number of such objects O or the ratio (density) occupied in the image IM is estimated. A possible information processing device 3 can be provided.

すなわち、情報処理装置であって、受付部と、セル分割部と、セル群抽出部と、推定部とを備え、前記受付部は、複数の対象物を含む画像データを受付可能に構成され、前記セル分割部は、前記画像データを複数のセルに分割可能に構成され、前記セル群抽出部は、当該複数のセルから所望セルと周囲セルとを含むセル群を抽出可能に構成され、ここで、前記所望セルは前記複数のセルのうちの1つで、前記周囲セルは前記所望セルの周囲に位置するセルで、前記推定部は、前記セル群に含まれる各セルを機械学習アーキテクチャに入力することで、前記画像データに含まれる対象物の数又は密度を推定可能に構成され、ここで、前記機械学習アーキテクチャは、前記セル群に含まれる各セルに対して同一の重み付け行列を畳み込むCNN層と、当該CNN層から出力された複数の特徴中間値を順次系列的に処理可能なLSTM層とを含むものが提供される。 That is, the information processing device includes a reception unit, a cell division unit, a cell group extraction unit, and an estimation unit, and the reception unit is configured to be able to receive image data including a plurality of objects. The cell division unit is configured to be able to divide the image data into a plurality of cells, and the cell group extraction unit is configured to be able to extract a cell group including a desired cell and surrounding cells from the plurality of cells. The desired cell is one of the plurality of cells, the surrounding cell is a cell located around the desired cell, and the estimation unit uses each cell included in the cell group as a machine learning architecture. By inputting, the number or density of objects contained in the image data can be estimated, and here, the machine learning architecture convolves the same weighting matrix for each cell included in the cell group. And an LSTM layer capable of sequentially processing a plurality of feature intermediate values output from the CNN layer are provided.

また、本実施形態によれば、対象物Oが任意かつ多数であっても、高い認識力を有し、かかる対象物Oの個数又は画像IM中における占める割合(密度)を推定可能なプログラムを提供することができる。このようなプログラムを、コンピュータ(情報処理装置3)が読み取り可能な非一時的な記録媒体として提供してもよいし、外部のサーバからダウンロード可能に提供してもよいし、外部のコンピュータで当該プログラムを起動させて、クライアント端末で各機能を実施可能な、いわゆるクラウド・コンピューティングを実施してもよい。 Further, according to the present embodiment, even if the number of objects O is arbitrary and large, a program having high cognitive ability and capable of estimating the number of such objects O or the ratio (density) occupied in the image IM is provided. Can be provided. Such a program may be provided as a non-temporary recording medium that can be read by a computer (information processing device 3), may be provided as a downloadable program from an external server, or may be provided by an external computer. You may start a program and execute so-called cloud computing that can execute each function on the client terminal.

すなわち、プログラムであって、コンピュータを前記情報処理装置として機能させるものが提供される。 That is, a program that causes the computer to function as the information processing device is provided.

また、本実施形態によれば、対象物Oが任意かつ多数であっても、高い認識力を有し、かかる対象物Oの個数又は画像IM中における占める割合(密度)を推定可能な撮像システム1を提供することができる。 Further, according to the present embodiment, even if the number of objects O is arbitrary and large, the imaging system has high cognitive ability and can estimate the number of such objects O or the ratio (density) of the objects O in the image IM. 1 can be provided.

すなわち、撮像システムであって、カメラと、情報処理装置とを備え、これらがネットワークを介して互いに通信可能に構成され、前記カメラは、複数の対象物を含む画像データを撮像可能に構成され、前記情報処理装置は、前記情報処理装置であり、これに具備される受付部が、前記カメラによって撮像された前記画像データを受付可能に構成されるものが提供される。 That is, it is an imaging system, which includes a camera and an information processing device, which are configured to be able to communicate with each other via a network, and the camera is configured to be capable of capturing image data including a plurality of objects. The information processing device is the information processing device, and a reception unit provided therein is provided so as to be capable of receiving the image data captured by the camera.

本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although various embodiments according to the present invention have been described, they are presented as examples and are not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.

1 :撮像システム
2 :カメラ
3 :情報処理装置
30 :通信バス
31 :通信部
32 :記憶部
33 :制御部
331 :セル分割部
332 :セル群抽出部
333 :推定部
34 :表示部
35 :入力部
C :セル
C0 :所望セル
C1 :周囲セル
C2 :周囲セル
C3 :周囲セル
C4 :周囲セル
C5 :周囲セル
C6 :周囲セル
C7 :周囲セル
C8 :周囲セル
CG :セル群
IM :画像
N :ネットワーク
O :対象物
1: Imaging system 2: Camera 3: Information processing device 30: Communication bus 31: Communication unit 32: Storage unit 33: Control unit 331: Cell division unit 332: Cell group extraction unit 333: Estimating unit 34: Display unit 35: Input Part C: Cell C0: Desired cell C1: Surrounding cell C2: Surrounding cell C3: Surrounding cell C4: Surrounding cell C5: Surrounding cell C6: Surrounding cell C7: Surrounding cell C8: Surrounding cell CG: Cell group IM: Image N: Network O: Object

Claims (7)

情報処理装置であって、受付部と、セル分割部と、セル群抽出部と、推定部とを備え、
前記受付部は、複数の対象物を含む画像データを受付可能に構成され、
前記セル分割部は、前記画像データを複数のセルに分割可能に構成され、
前記セル群抽出部は、当該複数のセルから所望セルと周囲セルとを含むセル群を抽出可能に構成され、ここで、前記所望セルは前記複数のセルのうちの1つで、前記周囲セルは前記所望セルの周囲に位置するセルで、
前記推定部は、前記セル群に含まれる各セルを機械学習アーキテクチャに入力することで、前記画像データに含まれる対象物の数又は密度を推定可能に構成され、
ここで、前記機械学習アーキテクチャは、前記セル群に含まれる各セルに対して同一の重み付け行列を畳み込むCNN層と、当該CNN層から出力された複数の特徴中間値を順次系列的に処理可能なLSTM層とを含むもの。
It is an information processing device and includes a reception unit, a cell division unit, a cell group extraction unit, and an estimation unit.
The reception unit is configured to be able to receive image data including a plurality of objects.
The cell division unit is configured so that the image data can be divided into a plurality of cells.
The cell group extraction unit is configured to be able to extract a cell group including a desired cell and a surrounding cell from the plurality of cells, wherein the desired cell is one of the plurality of cells and is the peripheral cell. Is a cell located around the desired cell,
The estimation unit is configured to be able to estimate the number or density of objects included in the image data by inputting each cell included in the cell group into the machine learning architecture.
Here, the machine learning architecture can sequentially process a CNN layer that convolves the same weighting matrix for each cell included in the cell group, and a plurality of feature intermediate values output from the CNN layer. Those including the LSTM layer.
請求項1に記載の情報処理装置において、
前記CNN層が畳み込み層と、プーリング層と、結合層とを有するもの。
In the information processing apparatus according to claim 1,
The CNN layer has a convolutional layer, a pooling layer, and a binding layer.
請求項1又は請求項2に記載の情報処理装置において、
前記セル群が1つの前記所望セルと8つの前記周囲セルとの計9つのセルからなるもの。
In the information processing apparatus according to claim 1 or 2.
The cell group consists of a total of nine cells, one desired cell and eight surrounding cells.
請求項1〜請求項3の何れか1つに情報処理装置において、
前記対象物がヒトであるもの。
The information processing apparatus according to any one of claims 1 to 3.
The object is a human.
請求項1〜請求項4の何れか1つに記載の情報処理装置において、
前記LSTM層のうち系列順に最後のLSTM層が、前記所望セルにおける前記対象物の数又は密度を出力するもの。
In the information processing apparatus according to any one of claims 1 to 4.
The last LSTM layer in the series order of the LSTM layers outputs the number or density of the objects in the desired cell.
プログラムであって、
コンピュータを請求項1〜請求項5の何れか1つに記載の情報処理装置として機能させるもの。
It ’s a program
A device that causes a computer to function as an information processing device according to any one of claims 1 to 5.
撮像システムであって、カメラと、情報処理装置とを備え、これらがネットワークを介して互いに通信可能に構成され、
前記カメラは、複数の対象物を含む画像データを撮像可能に構成され、
前記情報処理装置は、
請求項1〜請求項5の何れか1つに記載の情報処理装置であり、
これに具備される受付部が、前記カメラによって撮像された前記画像データを受付可能に構成されるもの。
It is an imaging system, which includes a camera and an information processing device, and is configured so that they can communicate with each other via a network.
The camera is configured to be capable of capturing image data including a plurality of objects.
The information processing device
The information processing device according to any one of claims 1 to 5.
The reception unit provided therein is configured to be able to receive the image data captured by the camera.
JP2019143340A 2019-08-02 2019-08-02 Information processing device, program, and imaging system Active JP7280142B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019143340A JP7280142B2 (en) 2019-08-02 2019-08-02 Information processing device, program, and imaging system
JP2023078274A JP2023103355A (en) 2019-08-02 2023-05-11 Information processing device, program, and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019143340A JP7280142B2 (en) 2019-08-02 2019-08-02 Information processing device, program, and imaging system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023078274A Division JP2023103355A (en) 2019-08-02 2023-05-11 Information processing device, program, and imaging system

Publications (2)

Publication Number Publication Date
JP2021026465A true JP2021026465A (en) 2021-02-22
JP7280142B2 JP7280142B2 (en) 2023-05-23

Family

ID=74663904

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019143340A Active JP7280142B2 (en) 2019-08-02 2019-08-02 Information processing device, program, and imaging system
JP2023078274A Pending JP2023103355A (en) 2019-08-02 2023-05-11 Information processing device, program, and imaging system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023078274A Pending JP2023103355A (en) 2019-08-02 2023-05-11 Information processing device, program, and imaging system

Country Status (1)

Country Link
JP (2) JP7280142B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180619A (en) * 2017-04-04 2018-11-15 キヤノン株式会社 Information processing device, information processing and program
JP2018195001A (en) * 2017-05-16 2018-12-06 株式会社パスコ Linear graphic extraction device, linear graphic extraction program, and neural network learning method
JP2019092972A (en) * 2017-11-27 2019-06-20 ホーチキ株式会社 Water discharge-type fire extinguishing equipment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180619A (en) * 2017-04-04 2018-11-15 キヤノン株式会社 Information processing device, information processing and program
JP2018195001A (en) * 2017-05-16 2018-12-06 株式会社パスコ Linear graphic extraction device, linear graphic extraction program, and neural network learning method
JP2019092972A (en) * 2017-11-27 2019-06-20 ホーチキ株式会社 Water discharge-type fire extinguishing equipment

Also Published As

Publication number Publication date
JP2023103355A (en) 2023-07-26
JP7280142B2 (en) 2023-05-23

Similar Documents

Publication Publication Date Title
CN110136056B (en) Method and device for reconstructing super-resolution image
US9769382B2 (en) Method for enhancing noise characteristics of image and electronic device thereof
JP6868119B2 (en) Holographic anti-counterfeit code inspection method and equipment
US9996768B2 (en) Neural network patch aggregation and statistics
TW202139183A (en) Method of detecting object based on artificial intelligence, device, equipment and computer-readable storage medium
US10089332B2 (en) Method and electronic device for classifying contents
CN107392189B (en) Method and device for determining driving behavior of unmanned vehicle
US10019788B1 (en) Machine-learning measurements of quantitative feature attributes
US20160117287A1 (en) Method and Apparatus for Rendering Websites on Physical Devices
CN109345553B (en) Palm and key point detection method and device thereof, and terminal equipment
CN105453132B (en) The information processing equipment and image processing method of real-time image processing
US10803571B2 (en) Data-analysis pipeline with visual performance feedback
US20150110386A1 (en) Tree-based Linear Regression for Denoising
US20200257902A1 (en) Extraction of spatial-temporal feature representation
CN110738235A (en) Pulmonary tuberculosis determination method, pulmonary tuberculosis determination device, computer device, and storage medium
CN108875931A (en) Neural metwork training and image processing method, device, system
CN111274999A (en) Data processing method, image processing method, device and electronic equipment
CN111192678A (en) Pathological microscopic image diagnosis and model training method, device, equipment and medium
Venkatesvara Rao et al. Real-time video object detection and classification using hybrid texture feature extraction
CN110809800B (en) Prediction device, prediction method, prediction program, learning model input data generation device, and learning model input data generation program
US9298312B2 (en) Automated perceptual quality assessment of touchscreen devices
CN112910890A (en) Anonymous network flow fingerprint identification method and device based on time convolution network
JP2021026465A (en) Information processing device, program and imaging system
CN116797973A (en) Data mining method and system applied to sanitation intelligent management platform
CN112509052B (en) Method, device, computer equipment and storage medium for detecting macula fovea

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150