JP2018066712A - Measuring device - Google Patents

Measuring device Download PDF

Info

Publication number
JP2018066712A
JP2018066712A JP2016207260A JP2016207260A JP2018066712A JP 2018066712 A JP2018066712 A JP 2018066712A JP 2016207260 A JP2016207260 A JP 2016207260A JP 2016207260 A JP2016207260 A JP 2016207260A JP 2018066712 A JP2018066712 A JP 2018066712A
Authority
JP
Japan
Prior art keywords
unit
image
region
partial region
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016207260A
Other languages
Japanese (ja)
Other versions
JP6869002B2 (en
JP2018066712A5 (en
Inventor
拓嗣 川中子
Takuji Kawanakako
拓嗣 川中子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016207260A priority Critical patent/JP6869002B2/en
Priority to EP17195391.2A priority patent/EP3312591B1/en
Priority to US15/785,753 priority patent/US10634611B2/en
Publication of JP2018066712A publication Critical patent/JP2018066712A/en
Publication of JP2018066712A5 publication Critical patent/JP2018066712A5/ja
Application granted granted Critical
Publication of JP6869002B2 publication Critical patent/JP6869002B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • G01N21/474Details of optical heads therefor, e.g. using optical fibres
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • G01N21/57Measuring gloss

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a measuring device advantageous in terms of operability.SOLUTION: A measuring device including a casing with an opening formed thereon for measuring a reflection characteristic of a face via the opening includes: an imaging unit provided within the casing for taking an image of the face via the opening; a detection unit for detecting reflection light from the face at part of a region photographed with the imaging unit; a processing unit for obtaining the reflection characteristic of the face at the part on the basis of detection by the detection unit; and a display unit for displaying an image of the region obtained by the imaging unit. The image of the region which is displayed by the display unit includes information indicating the part of the region.SELECTED DRAWING: Figure 1

Description

本発明は、面の反射特性を計測する計測装置に関する。   The present invention relates to a measuring device that measures reflection characteristics of a surface.

印刷面や塗装面、製品外面などの面の評価には、JISやISOで規定される色や光沢、拡散、曇りなどの反射特性が指標として用いられる。このような反射特性の計測のために、被計測面に光を照射する光源と、当該被計測面で反射された光を検出するセンサとを有する計測装置が知られている(特許文献1参照)。   For evaluation of surfaces such as a printed surface, a painted surface, and a product outer surface, reflection characteristics such as color, gloss, diffusion, and cloudiness defined by JIS and ISO are used as indices. In order to measure such reflection characteristics, a measuring apparatus is known that includes a light source that irradiates light to a surface to be measured and a sensor that detects light reflected by the surface to be measured (see Patent Document 1). ).

特開2006−30203号公報JP 2006-30203 A

上述のような反射特性の計測装置は、筐体によって外光を遮断した状態で計測を行うのが好ましい。しかし、計測装置は、そのような状態では、反射特性を計測する領域を視認することができないため、反射特性を計測すべき対象領域と計測装置との間の相対的な位置決めが困難である等、操作性の点で不利であった。   The above-described reflection characteristic measuring apparatus preferably performs measurement in a state where external light is blocked by the housing. However, since the measuring device cannot visually recognize the region where the reflection characteristic is measured in such a state, it is difficult to relatively position the target region where the reflection property is to be measured and the measuring device. It was disadvantageous in terms of operability.

本発明は、操作性の点で有利な計測装置を提供することを例示的目的とする。   An object of the present invention is to provide a measuring device that is advantageous in terms of operability.

上記目的を達成するために、本発明の一側面としての計測装置は、開口部が形成された筐体を有し、前記開口部を介して面の反射特性を計測する計測装置であって、前記筐体内に設けられ、前記開口部を介して前記面を撮像する撮像部と、前記撮像部により撮像される領域のうち一部における前記面からの反射光を検出する検出部と、前記検出部による検出に基づいて前記一部における前記面の反射特性を得る処理部と、前記撮像部により得られた前記領域の画像を表示する表示部と、を含み、前記表示部により表示される前記領域の画像は、前記領域における前記一部を示す情報を含むことを特徴とする。   In order to achieve the above object, a measuring apparatus according to one aspect of the present invention includes a housing in which an opening is formed, and is a measuring apparatus that measures reflection characteristics of a surface through the opening. An imaging unit that is provided in the housing and captures the surface through the opening, a detection unit that detects reflected light from the surface in a part of an area captured by the imaging unit, and the detection A processing unit that obtains reflection characteristics of the surface in the part based on detection by the unit, and a display unit that displays an image of the region obtained by the imaging unit, and is displayed by the display unit The image of the region includes information indicating the part of the region.

本発明の更なる目的又はその他の側面は、以下、添付図面を参照して説明される好ましい実施形態によって明らかにされるであろう。   Further objects and other aspects of the present invention will become apparent from the preferred embodiments described below with reference to the accompanying drawings.

本発明によれば、例えば、操作性の点で有利な計測装置を提供することができる。   According to the present invention, for example, a measuring device that is advantageous in terms of operability can be provided.

計測装置の外観図である。It is an external view of a measuring device. 計測装置の内部構成をY方向から見た図である。It is the figure which looked at the internal structure of the measuring device from the Y direction. 計測装置の内部構成をX方向から見た図である。It is the figure which looked at the internal structure of the measuring device from the X direction. 第2部分領域の画像を示す図である。It is a figure which shows the image of a 2nd partial area | region. 被計測面の反射特性を計測する方法を示すフローチャートである。It is a flowchart which shows the method of measuring the reflective characteristic of a to-be-measured surface. 第2部分領域の画像を示す図である。It is a figure which shows the image of a 2nd partial area | region. 第2部分領域の画像を示す図である。It is a figure which shows the image of a 2nd partial area | region. 第2部分領域の画像を示す図である。It is a figure which shows the image of a 2nd partial area | region.

以下、添付図面を参照して、本発明の好適な実施の形態について説明する。なお、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the accompanying drawings. In addition, in each figure, the same reference number is attached | subjected about the same member thru | or element, and the overlapping description is abbreviate | omitted.

<第1実施形態>
本発明に係る本実施形態の計測装置10について、図1〜図3を参照しながら説明する。図1は、本実施形態の計測装置10の外観図であり、図2は、計測装置10の内部構成をY方向から見た図であり、図3は、計測装置10の内部構成をX方向から見た図である。計測装置10は、例えば、筐体11、検出部12、撮像部13、表示部14、操作部15(入力部)および制御部16を含み、筐体11により外光を遮断した状態で筐体11の開口部17を介して被計測面20の反射特性を計測する。ここで、反射特性は、鏡面光沢度、ヘイズ、DOI(Distinctness of Image)および写像性のうち少なくとも1つを含みうる。また、制御部16は、例えばCPUやメモリ(記憶部)などを有するMCU(Micro Controller Unit)を含み、計測装置10の各部を制御する。ここで、本実施形態の計測装置10では、制御部16が、検出部12での検出結果に基づいて被計測面20(第1部分領域21)の反射特性を求める処理部としての機能を有するが、それに限られず、当該処理部が制御部16とは別に設けられてもよい。また、制御部16は、MCUの代わりに(もしくはMCUに加えて)、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)などを含んでもよい。
<First Embodiment>
A measuring apparatus 10 according to this embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an external view of a measuring device 10 according to the present embodiment, FIG. 2 is a view of the internal configuration of the measuring device 10 viewed from the Y direction, and FIG. 3 illustrates the internal configuration of the measuring device 10 in the X direction. It is the figure seen from. The measurement apparatus 10 includes, for example, a housing 11, a detection unit 12, an imaging unit 13, a display unit 14, an operation unit 15 (input unit), and a control unit 16. The reflection characteristics of the measurement target surface 20 are measured through the 11 openings 17. Here, the reflection characteristic may include at least one of specular gloss, haze, DOI (Distinctness of Image), and image clarity. The control unit 16 includes, for example, an MCU (Micro Controller Unit) having a CPU, a memory (storage unit), and the like, and controls each unit of the measurement apparatus 10. Here, in the measurement apparatus 10 of the present embodiment, the control unit 16 has a function as a processing unit that obtains the reflection characteristics of the measurement target surface 20 (first partial region 21) based on the detection result of the detection unit 12. However, the present invention is not limited to this, and the processing unit may be provided separately from the control unit 16. The control unit 16 may include a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or the like instead of the MCU (or in addition to the MCU).

筐体11は、例えば、開口部17が形成された第1面11aと、第1面11aの反対側の第2面11bと、側面11cとを有し、第1面11aが被計測面側になるように(第1面11aが被計測面に対向するように)被計測面上に載置される。筐体内には、検出部12、撮像部13および制御部16が設けられ、筐体11の第2面11bには、表示部14(ディスプレイ14a)および操作部15(ボタン群)が設けられる。表示部14と操作部15とは、筐体上(第2面11b)において互いに隣接して設けられていることが操作性の点で好ましい。また、筐体11の側面11cには、ユーザの指を引っ掛けて握り易くするための凹部11d(把持部)が形成されている。ここで、凹部11d(把持部)および操作部15は、ユーザが筐体11の側面11c(凹部11d)を把持しながら操作部15(ボタン群)を操作することができるように筐体11に設けられる(配置される)とよい。このように配置された凹部11dおよび操作部15は、筐体上において互いに隣接して設けられていると言える。   The housing 11 has, for example, a first surface 11a in which an opening 17 is formed, a second surface 11b opposite to the first surface 11a, and a side surface 11c, and the first surface 11a is on the measured surface side. So that the first surface 11a faces the surface to be measured. In the housing, a detection unit 12, an imaging unit 13, and a control unit 16 are provided. On the second surface 11b of the housing 11, a display unit 14 (display 14a) and an operation unit 15 (button group) are provided. It is preferable in terms of operability that the display unit 14 and the operation unit 15 are provided adjacent to each other on the housing (second surface 11b). Further, the side surface 11c of the housing 11 is formed with a concave portion 11d (gripping portion) for easily catching and gripping a user's finger. Here, the concave portion 11d (gripping portion) and the operating portion 15 are provided on the casing 11 so that the user can operate the operating portion 15 (button group) while gripping the side surface 11c (concave portion 11d) of the casing 11. It is good to be provided (arranged). It can be said that the concave portion 11d and the operation portion 15 arranged in this manner are provided adjacent to each other on the housing.

検出部12は、筐体11の開口部17が位置する被計測面20の領域のうち第1部分領域21(後述する撮像部13により撮像される被計測面20の領域の一部)に光を照射して、第1部分領域21で反射された光を検出する。検出部12は、例えば、第1部分領域21に光を照射する照射部と、第1部分領域21で反射された光を受光する受光部とを含みうる。照射部は、光源12aとレンズ12bとを含み、第1部分領域21に光を照射する。光源12aは、光源制御回路12cに接続されており、制御部16から光源制御回路12cに送られてきた信号に応じて発光強度が調整される。そして、光源12aから射出された光は、レンズ12bにより平行光に(コリメート)されて第1部分領域21に入射する。また、受光部は、センサ12dとレンズ12eとを含み、第1部分領域21で反射された光を受光する(検出する)。センサ12dは、例えば、CCDやCMOSなどで構成された光電変換素子が2次元的に配列されたエリアセンサを含み、第1部分領域21で反射されてレンズ12eにより集光された光を受光して、第1部分領域21からの反射光の強度分布を検出する。これにより、制御部16(処理部)は、センサ12dから出力された反射光の強度分布データ(検出部12での検出結果)に基づいて、第1部分領域21の反射特性を求めることができる。   The detection unit 12 emits light to the first partial region 21 (part of the region of the measured surface 20 imaged by the imaging unit 13 described later) in the region of the measured surface 20 where the opening 17 of the housing 11 is located. , And the light reflected by the first partial region 21 is detected. The detection unit 12 may include, for example, an irradiation unit that irradiates light to the first partial region 21 and a light receiving unit that receives light reflected by the first partial region 21. The irradiation unit includes a light source 12a and a lens 12b, and irradiates the first partial region 21 with light. The light source 12a is connected to the light source control circuit 12c, and the light emission intensity is adjusted according to a signal sent from the control unit 16 to the light source control circuit 12c. The light emitted from the light source 12 a is collimated by the lens 12 b (collimated) and enters the first partial region 21. The light receiving unit includes a sensor 12d and a lens 12e, and receives (detects) light reflected by the first partial region 21. The sensor 12d includes, for example, an area sensor in which photoelectric conversion elements composed of a CCD, a CMOS, or the like are two-dimensionally arranged, and receives light reflected by the first partial region 21 and collected by the lens 12e. Thus, the intensity distribution of the reflected light from the first partial region 21 is detected. Thereby, the control part 16 (processing part) can obtain | require the reflection characteristic of the 1st partial area 21 based on the intensity distribution data (detection result in the detection part 12) of the reflected light output from the sensor 12d. .

制御部16(処理部)により求められた第1部分領域21の反射特性を示す値(規格値)は、表示部14によって表示される。表示部14は、例えば、筐体11の第2面11bに設けられたLCDなどのディスプレイ14aを含み、第1部分領域21の反射特性を示す値を当該ディスプレイ14aに表示する。これにより、ユーザは、第1部分領域21の反射特性を視認することができる。また、計測装置10の動作条件などの各種設定は、ユーザが操作部15を操作することによって行われる。操作部15は、筐体11の第2面11bに設けられた複数のボタンを含む。例えば、制御部16は、ユーザによって操作部15の複数のボタンのうちボタン15aが押されたことで生成される信号(操作部15により入力された信号)を検知することにより、被計測面20の反射特性の計測を開始する。本実施形態の操作部15は、複数のボタンを有するが、それに限られず、例えば、表示部14のディスプレイ14aをタッチパネル式とし、当該ディスプレイ14aを操作部15として用いてもよい。   A value (standard value) indicating the reflection characteristic of the first partial region 21 obtained by the control unit 16 (processing unit) is displayed by the display unit 14. The display unit 14 includes, for example, a display 14a such as an LCD provided on the second surface 11b of the housing 11, and displays a value indicating the reflection characteristic of the first partial region 21 on the display 14a. Thereby, the user can visually recognize the reflection characteristics of the first partial region 21. Various settings such as operation conditions of the measuring apparatus 10 are performed by the user operating the operation unit 15. The operation unit 15 includes a plurality of buttons provided on the second surface 11 b of the housing 11. For example, the control unit 16 detects a signal (a signal input by the operation unit 15) generated when the user presses the button 15 a among the plurality of buttons of the operation unit 15, thereby measuring the measurement target surface 20. The measurement of the reflection characteristics of is started. The operation unit 15 of the present embodiment has a plurality of buttons, but is not limited thereto. For example, the display 14a of the display unit 14 may be a touch panel type, and the display 14a may be used as the operation unit 15.

ここで、被計測面20の反射特性を計測する際に被計測面20に入射させる光の入射角θ(被計測面20で反射される光の反射角θ’)は、JISやISOなどに従って、反射特性の規格ごとに規定される。例えば、反射特性として鏡面光沢度を計測する場合では、入射角θ(反射角θ’)は、20度、45度、60度、75度および85度のいずれかに規定される。また、反射特性としてヘイズを計測する場合では、入射角θ(反射角θ’)は、20度および30度のいずれかに規定される。反射特性として写像性を計測する場合では、入射角θ(反射角θ’)は、45度および60度のいずれかに規定される。反射特性としてDOIを計測する場合では、入射角θ(反射角θ’)は、20度および30度のいずれかに規定される。   Here, the incident angle θ of light incident on the measurement target surface 20 when measuring the reflection characteristics of the measurement target surface 20 (the reflection angle θ ′ of light reflected on the measurement target surface 20) is in accordance with JIS, ISO, or the like. Stipulated for each reflection characteristic standard. For example, when the specular gloss is measured as the reflection characteristic, the incident angle θ (reflection angle θ ′) is defined as any one of 20 degrees, 45 degrees, 60 degrees, 75 degrees, and 85 degrees. In the case where haze is measured as the reflection characteristic, the incident angle θ (reflection angle θ ′) is defined as either 20 degrees or 30 degrees. In the case of measuring the image clarity as the reflection characteristic, the incident angle θ (reflection angle θ ′) is defined as either 45 degrees or 60 degrees. In the case where DOI is measured as the reflection characteristic, the incident angle θ (reflection angle θ ′) is defined as either 20 degrees or 30 degrees.

本実施形態の計測装置10(図2に示す例)では、1つの検出部12が設けられており、1種類の入射角θ(反射角θ’)において被計測面20の反射特性を計測している。しかしながら、前述のように入射角θ(反射角θ’)は反射特性の規格ごとに規定される。そのため、複数種類の入射角θ(反射角θ’)で被計測面20の反射特性を計測することができるように、入射角θ(反射角θ’)が互いに異なる複数の検出部12を計測装置10に設けてもよい。例えば、入射角θ(反射角θ’)が20度となる検出部12と、入射角θ(反射角θ’)が60度となる検出部12とを計測装置10に設けると、鏡面光沢度、ヘイズ、写像性およびDOIの全てを計測することが可能となる。また、複数の検出部12を設けることに限られず、1つの検出部12における入射角θ(反射角θ’)を変更することができるように当該検出部12を駆動する駆動部を計測装置10に設けてもよい。   In the measurement apparatus 10 (example shown in FIG. 2) of the present embodiment, one detection unit 12 is provided, and the reflection characteristics of the measurement target surface 20 are measured at one type of incident angle θ (reflection angle θ ′). ing. However, as described above, the incident angle θ (reflection angle θ ′) is defined for each reflection characteristic standard. Therefore, a plurality of detection units 12 having different incident angles θ (reflection angles θ ′) are measured so that the reflection characteristics of the measurement target surface 20 can be measured at a plurality of types of incident angles θ (reflection angles θ ′). You may provide in the apparatus 10. FIG. For example, when the detection unit 12 having an incident angle θ (reflection angle θ ′) of 20 degrees and the detection unit 12 having an incident angle θ (reflection angle θ ′) of 60 degrees are provided in the measuring apparatus 10, the specular glossiness is increased. , Haze, image clarity, and DOI can all be measured. Moreover, it is not restricted to providing the some detection part 12, The measurement part 10 has the drive part which drives the said detection part 12 so that incident angle (theta) (reflection angle (theta) ') in one detection part 12 can be changed. May be provided.

このように、反射特性の計測は、筐体11によって外光を遮断した状態で行われるため、反射特性を計測している計測領域(検出部12により反射光を検出する第1部分領域21)を視認することができない。したがって、従来の計測装置では、反射特性を計測すべき対象領域に計測領域が配置されるように計測装置を正確に位置決めすること(対象領域と計測装置との相対的な位置決め)が困難であった。そこで、本実施形態の計測装置10は、筐体11の開口部17を介して被計測面20を撮像する撮像部13を有する。具体的には、撮像部13は、筐体11の開口部17が位置する被計測面20の領域のうち第1部分領域21を含む第2部分領域22を撮像する。そして、撮像部13により得られた第2部分領域22の画像を表示部14(ディスプレイ14a)に表示する。また、表示部14に表示される第2部分領域22の画像は、第2部分領域22における第1部分領域21(の位置)を示す情報を有する。これにより、ユーザは、計測領域だけでなく、その周辺も表示部14で視認することができるため、対象領域に計測領域が配置されるように計測装置10を容易に且つ正確に位置決めすることができる。ここで、第2部分領域22は、第1部分領域21を含み且つ第1部分領域21より大きい(面積が大きい)領域であり、開口部17より小さくてもよいし、開口部17と同じ大きさであってもよい。また、以下では、第2部分領域22における第1部分領域21の位置を示す情報を「第1部分領域21の位置情報」と称する。   As described above, the measurement of the reflection characteristics is performed in a state in which the external light is blocked by the casing 11, and thus the measurement area in which the reflection characteristics are measured (first partial area 21 in which the detection unit 12 detects the reflected light) Cannot be seen. Therefore, it is difficult for the conventional measurement device to accurately position the measurement device (relative positioning of the target region and the measurement device) so that the measurement region is arranged in the target region where the reflection characteristics are to be measured. It was. Therefore, the measurement apparatus 10 according to the present embodiment includes the imaging unit 13 that images the measurement target surface 20 through the opening 17 of the housing 11. Specifically, the imaging unit 13 images the second partial region 22 including the first partial region 21 in the region of the measurement target surface 20 where the opening 17 of the housing 11 is located. Then, the image of the second partial region 22 obtained by the imaging unit 13 is displayed on the display unit 14 (display 14a). In addition, the image of the second partial region 22 displayed on the display unit 14 includes information indicating the first partial region 21 (position) in the second partial region 22. Thereby, since the user can visually recognize not only the measurement area but also the periphery thereof on the display unit 14, the measurement apparatus 10 can be easily and accurately positioned so that the measurement area is arranged in the target area. it can. Here, the second partial region 22 includes the first partial region 21 and is larger than the first partial region 21 (large in area), and may be smaller than the opening 17 or the same size as the opening 17. It may be. Hereinafter, information indicating the position of the first partial region 21 in the second partial region 22 is referred to as “position information of the first partial region 21”.

以下に、本実施形態の撮像部13の構成、および本実施形態の計測装置10を用いて被計測面20の反射特性を計測する方法について説明する。
まず、撮像部13の構成について説明する。撮像部13は、図3に示すように、例えば、第2部分領域22に光を照射する光源13aと、光が照射された第2部分領域22を撮像するカメラ13bとを有する。本実施形態では、第2部分領域22に斜めから光を照射し、第2部分領域22を斜めから撮像するように光源13aおよびカメラ13bが配置されている。具体的には、光源13aからの光の主光線を第2部分領域22に入射させる角度(照明角α)が60度となるように光源13aが配置され、第2部分領域22を撮像する角度(撮像角β)が45度となるようにカメラ13bが配置される。つまり、照明角αより撮像角βの方が小さくなるように光源13aおよびカメラ13bが配置される。照明角αおよび撮像角βは任意に設定することができるが、このような光源13aおよびカメラ13bの配置は筐体内の空間が狭いときに有利である。筐体内の空間が広く、筐体11と干渉しないのであれば、第2部分領域22に上方から光を照射し、第2部分領域22を上方から撮像するように光源13aおよびカメラ13bを配置することもできる。
Below, the structure of the imaging part 13 of this embodiment and the method of measuring the reflective characteristic of the to-be-measured surface 20 using the measuring apparatus 10 of this embodiment are demonstrated.
First, the configuration of the imaging unit 13 will be described. As illustrated in FIG. 3, the imaging unit 13 includes, for example, a light source 13 a that irradiates light to the second partial region 22 and a camera 13 b that images the second partial region 22 irradiated with light. In the present embodiment, the light source 13a and the camera 13b are arranged so that the second partial region 22 is irradiated with light obliquely and the second partial region 22 is imaged obliquely. Specifically, the angle at which the light source 13a is arranged so that the angle (illumination angle α) at which the principal ray of the light from the light source 13a enters the second partial region 22 is 60 degrees, and the second partial region 22 is imaged. The camera 13b is arranged so that (imaging angle β) is 45 degrees. That is, the light source 13a and the camera 13b are arranged so that the imaging angle β is smaller than the illumination angle α. Although the illumination angle α and the imaging angle β can be set arbitrarily, such an arrangement of the light source 13a and the camera 13b is advantageous when the space in the housing is narrow. If the space in the housing is wide and does not interfere with the housing 11, the light source 13a and the camera 13b are arranged so that the second partial region 22 is irradiated with light from above and the second partial region 22 is imaged from above. You can also.

光源13aは、第2部分領域22に光を照射する(第2部分領域22を照明する)。光源13aは、光源制御回路13cに接続されており、制御部16から光源制御回路13cに送られてきた信号に応じて発光強度が調整されうる。光源13aとしては、カメラ13bの画角、および開口部17に対するカメラ13bの配置に応じて決定される第2部分領域22の全体に光が照射されるように、角度γ以上の指向特性を有する光源(例えばLEDなど)が用いられることが好ましい。本実施形態の光源13aは、検出部12が第1部分領域21に光を照射する方向(方位)に対して垂直な方向から第2部分領域22に光を照射するように構成されているが、第2部分領域22に光を照射する方向は任意に設定することができる。   The light source 13a irradiates the second partial region 22 with light (illuminates the second partial region 22). The light source 13a is connected to the light source control circuit 13c, and the light emission intensity can be adjusted according to a signal sent from the control unit 16 to the light source control circuit 13c. The light source 13a has a directivity characteristic of an angle γ or more so that light is emitted to the entire second partial region 22 determined according to the angle of view of the camera 13b and the arrangement of the camera 13b with respect to the opening 17. A light source (such as an LED) is preferably used. The light source 13a of the present embodiment is configured to irradiate the second partial region 22 with light from a direction perpendicular to the direction (azimuth) in which the detection unit 12 irradiates the first partial region 21 with light. The direction in which the second partial region 22 is irradiated with light can be arbitrarily set.

また、カメラ13bは、例えばCCDカメラやCMOSカメラなどによって構成され、光源13aによって照明された第2部分領域22を撮像し、それにより得られた第2部分領域22の画像データ(映像データ)を出力する。そして、撮像部13で得られた画像(映像)は、表示部14(ディスプレイ14a)に表示される。   Further, the camera 13b is constituted by, for example, a CCD camera or a CMOS camera, images the second partial area 22 illuminated by the light source 13a, and obtains image data (video data) of the second partial area 22 obtained thereby. Output. Then, the image (video) obtained by the imaging unit 13 is displayed on the display unit 14 (display 14a).

表示部14に表示される第2部分領域22の画像は、前述のように、第1部分領域21の位置情報を有する。第1部分領域21の位置情報を有する第2部分領域22の画像を生成する1つの方法としては、例えば、検出部12により第1部分領域21に光を照射しながら、撮像部13により第2部分領域22に光を照射して当該第2部分領域22を撮像する方法がある。この方法では、第2部分領域22における第1部分領域21以外の領域に撮像部13からの光のみが照射され、第1部分領域21に撮像部13からの光と検出部12からの光との双方が照射される。そのため、撮像部13で得られて表示部14に表示される第2部分領域22の画像では、図4に示すように、第1部分領域21に対応する部分31の明度が、それ以外(周辺)の部分32の明度より大きくなる。つまり、第1部分領域21に対応する部分31とそれ以外の部分32との明度の差を、第1部分領域21の位置情報として生成することができる。   The image of the second partial region 22 displayed on the display unit 14 includes the position information of the first partial region 21 as described above. As one method for generating an image of the second partial region 22 having the position information of the first partial region 21, for example, while the light is applied to the first partial region 21 by the detection unit 12, There is a method of imaging the second partial region 22 by irradiating the partial region 22 with light. In this method, only the light from the imaging unit 13 is irradiated on the second partial region 22 other than the first partial region 21, and the first partial region 21 is irradiated with the light from the imaging unit 13 and the light from the detection unit 12. Both are irradiated. Therefore, in the image of the second partial region 22 obtained by the imaging unit 13 and displayed on the display unit 14, as shown in FIG. 4, the brightness of the portion 31 corresponding to the first partial region 21 is other than that (peripheral ) Is greater than the brightness of the portion 32. That is, the brightness difference between the portion 31 corresponding to the first partial region 21 and the other portion 32 can be generated as position information of the first partial region 21.

図4は、表示部14に表示された第2部分領域22の画像を示す図である。本実施形態では、撮像部13によって第2部分領域22を斜めから撮像しているため、表示部14に表示される第2部分領域22の画像が台形形状となる。また、図4に示す第2部分領域22の画像では、第1部分領域21に対応する部分31の明度が部分31の周辺の部分32より大きいため、当該画像における第1部分領域(計測領域)の位置を視認することができる。ここで、撮像部13により第2部分領域22に照射される光の強度は、検出部12により第1部分領域21に照射される光の強度より小さくするとよい。これにより、表示部14で表示される第2部分領域22の画像において部分31と部分32との明度の差を大きくし、当該画像における第1部分領域21の位置を更に視認しやすくすることができる。   FIG. 4 is a diagram illustrating an image of the second partial region 22 displayed on the display unit 14. In the present embodiment, since the second partial region 22 is imaged from the oblique direction by the imaging unit 13, the image of the second partial region 22 displayed on the display unit 14 has a trapezoidal shape. Further, in the image of the second partial region 22 shown in FIG. 4, the brightness of the portion 31 corresponding to the first partial region 21 is larger than the peripheral portion 32 of the portion 31, and therefore the first partial region (measurement region) in the image. Can be visually recognized. Here, the intensity of the light applied to the second partial region 22 by the imaging unit 13 may be smaller than the intensity of the light applied to the first partial region 21 by the detection unit 12. This increases the brightness difference between the portion 31 and the portion 32 in the image of the second partial region 22 displayed on the display unit 14, and makes it easier to visually recognize the position of the first partial region 21 in the image. it can.

次に、計測装置10を用いて被計測面20の反射特性を計測する方法について、図5を参照しながら説明する。図5は、被計測面20の反射特性を計測する方法を示すフローチャートである。図5に示すフローチャートの各工程は、制御部16によって制御されうる。   Next, a method for measuring the reflection characteristic of the measurement target surface 20 using the measurement apparatus 10 will be described with reference to FIG. FIG. 5 is a flowchart showing a method for measuring the reflection characteristic of the measurement target surface 20. Each step of the flowchart shown in FIG. 5 can be controlled by the control unit 16.

S11では、制御部16は、検出部12からの光を第1部分領域21に照射し、且つ撮像部からの光を第2部分領域22に照射している状態で、第2部分領域22を撮像部13に撮像させる。そして、撮像部13により得られた第2部分領域22の画像(映像)を表示部14に表示する。S12では、制御部16は、ユーザからの信号を検知したか否かを判断する。制御部16がユーザからの信号を検知していない場合にはS11に戻り、ユーザからの信号を検知した場合にはS13に進む。   In S11, the control unit 16 irradiates the first partial region 21 with the light from the detection unit 12 and irradiates the second partial region 22 with the light from the imaging unit. The imaging unit 13 is caused to capture an image. Then, the image (video) of the second partial region 22 obtained by the imaging unit 13 is displayed on the display unit 14. In S12, the control unit 16 determines whether or not a signal from the user has been detected. If the control unit 16 has not detected a signal from the user, the process returns to S11, and if a signal from the user has been detected, the process proceeds to S13.

S11およびS12の工程では、ユーザが、表示部14に表示された画像に基づいて、反射特性を計測すべき被計測面20の対象領域に計測装置10の計測領域(第1部分領域21)が配置されるように計測装置10の位置決めを行っている状態である。ユーザは、例えば、計測装置10の位置決めを終了すると、反射特性の計測を計測装置10に開始させるために操作部15のセンサを操作する(本実施形態ではボタン15aを押す)。このとき、計測装置10では、センサ(ボタン15a)からの出力が制御部16に送信され、制御部16は、当該出力をユーザからの信号(操作部15により入力された信号)として検知することができる。本実施形態では、センサとしてボタン15aを用いたが、それに限られず、ユーザの手(指)の接触を感知するための温度センサや光センサなどが用いられてもよい。また、本実施形態では、ユーザがセンサに触れたとき(ユーザがボタン15aを押したとき)のセンサの出力をユーザからの信号として用いた。しかしながら、それに限られず、例えば、ユーザがセンサから手を離したとき(押していたボタン15aを離したとき)のセンサの出力をユーザからの信号として用いてもよい。   In the processes of S11 and S12, the measurement area (first partial area 21) of the measurement apparatus 10 is located in the target area of the measurement target surface 20 where the user should measure the reflection characteristics based on the image displayed on the display unit 14. In this state, the measuring device 10 is positioned so as to be arranged. For example, when the positioning of the measuring device 10 is completed, the user operates the sensor of the operation unit 15 in order to cause the measuring device 10 to start measuring the reflection characteristics (in this embodiment, press the button 15a). At this time, in the measurement apparatus 10, an output from the sensor (button 15a) is transmitted to the control unit 16, and the control unit 16 detects the output as a signal from the user (a signal input by the operation unit 15). Can do. In the present embodiment, the button 15a is used as the sensor, but the present invention is not limited to this, and a temperature sensor, an optical sensor, or the like for detecting the contact of the user's hand (finger) may be used. In this embodiment, the output of the sensor when the user touches the sensor (when the user presses the button 15a) is used as a signal from the user. However, the present invention is not limited to this, and for example, the output of the sensor when the user releases the sensor (when the user presses the button 15a) may be used as a signal from the user.

S13では、制御部16は、ユーザによってセンサ(ボタン15a)が操作されたとき(ユーザからの信号を検知したとき)に撮像部13で撮像されて表示部14に表示された第2部分領域22の画像をメモリ(記憶部)に記憶する。S14では、制御部16は、検出部12からの光以外の光が検出部12のセンサに入射することを防ぐため、撮像部13による第2部分領域22への光の照射を終了(中断)し、検出部12からの光のみを第1部分領域21に照射する。そして、制御部16は、第1部分領域21で反射された光を検出部12(センサ12d)に検出させる。図6は、検出部12からの光のみを第1部分領域21に照射している状態において撮像部13により得られた第2部分領域22の画像を示す図である。このように得られた第2部分領域22の画像は、表示部14に表示させてもよいし、表示させなくてもよい。ここで、計測装置10に複数の検出部12が設けられている場合には、制御部16は、第1部分領域21に光を照射して第1部分領域21で反射した光を検出する工程を、各検出部12に順番に行わせる。   In S <b> 13, the control unit 16 captures the second partial area 22 captured by the imaging unit 13 and displayed on the display unit 14 when the sensor (button 15 a) is operated by the user (when a signal from the user is detected). Are stored in a memory (storage unit). In S <b> 14, the control unit 16 ends (interrupts) the light irradiation to the second partial region 22 by the imaging unit 13 in order to prevent light other than the light from the detection unit 12 from entering the sensor of the detection unit 12. Then, only the light from the detection unit 12 is irradiated to the first partial region 21. And the control part 16 makes the detection part 12 (sensor 12d) detect the light reflected in the 1st partial area | region 21. FIG. FIG. 6 is a diagram illustrating an image of the second partial region 22 obtained by the imaging unit 13 in a state where only the light from the detection unit 12 is applied to the first partial region 21. The image of the second partial region 22 obtained in this way may be displayed on the display unit 14 or may not be displayed. Here, when the measuring device 10 includes a plurality of detection units 12, the control unit 16 irradiates light to the first partial region 21 and detects light reflected by the first partial region 21. Are sequentially performed by each detection unit 12.

S15では、制御部16は、検出部12での検出結果(センサ12dから出力された反射光の強度分布データ)に基づいて第1部分領域21の反射特性を求める。このとき、制御部16は、求めた反射特性を、S13においてメモリに記憶された第2部分領域22の画像と対応付けてメモリに記憶する。これにより、ユーザは、メモリに記憶された反射特性が被計測面上のどこの領域の反射特性なのかを容易に把握することができる。S16では、制御部16は、S15で求めた反射特性を示す値を表示部14に表示する。このとき、制御部16は、S13においてメモリに記憶された第2部分領域22の画像と反射特性を示す値とを重ねて表示部14に表示してもよいし、反射特性を示す値のみを表示部14に表示してもよい。後者の場合、制御部16は、ユーザからの信号を検知する前には、第2部分領域22の画像を表示部14に表示させ、ユーザからの信号を検知した後では、反射特性を示す値を表示部14に表示させる。つまり、制御部16は、ユーザからの信号に応じて、第2部分領域22の画像と反射特性を示す値とを切り替えて(即ち、選択的に)表示部14に表示させる。   In S15, the control unit 16 obtains the reflection characteristics of the first partial region 21 based on the detection result of the detection unit 12 (intensity distribution data of the reflected light output from the sensor 12d). At this time, the control unit 16 stores the obtained reflection characteristic in the memory in association with the image of the second partial region 22 stored in the memory in S13. As a result, the user can easily grasp which region on the surface to be measured is the reflection property stored in the memory. In S16, the control unit 16 displays a value indicating the reflection characteristic obtained in S15 on the display unit. At this time, the control unit 16 may superimpose the image of the second partial region 22 stored in the memory in S13 and the value indicating the reflection characteristic on the display unit 14 or display only the value indicating the reflection characteristic. You may display on the display part 14. FIG. In the latter case, the control unit 16 displays an image of the second partial region 22 on the display unit 14 before detecting a signal from the user, and after detecting the signal from the user, the value indicating the reflection characteristic. Is displayed on the display unit 14. That is, the control unit 16 switches (i.e., selectively) the image of the second partial region 22 and the value indicating the reflection characteristic on the display unit 14 according to a signal from the user.

このような工程により1回の反射特性の計測が終了するが、制御部16は、所定の時間(例えば3秒間など)が経過した後、S11に戻り、撮像部13によって得られた第2部分領域22の画像(映像)を表示部14に表示させる。これにより、ユーザは、被計測面20の反射特性の計測を引き続き行うことができる。   Although the measurement of one reflection characteristic is completed by such a process, the control unit 16 returns to S11 after a predetermined time (for example, 3 seconds), and the second part obtained by the imaging unit 13 is obtained. The image (video) in the region 22 is displayed on the display unit 14. Thereby, the user can continue to measure the reflection characteristics of the measurement target surface 20.

上述したように、本実施形態の計測装置10は、開口部17が位置する被計測面20の領域のうち、反射特性の計測が行われる第1部分領域21を含む第2部分領域22を撮像し、それにより得られた第2部分領域22の画像を表示部14に表示する。また、表示部14に表示される第2部分領域22の画像は、第1部分領域21の位置情報を有する。これにより、ユーザは、表示部14によって計測領域を容易に視認することができるため、反射特性を計測すべき被計測面20の対象領域に第1部分領域21(計測領域)が配置されるように計測装置10を容易に位置決めすることができる。   As described above, the measurement apparatus 10 of the present embodiment images the second partial region 22 including the first partial region 21 where the reflection characteristic is measured, in the region of the measurement target surface 20 where the opening 17 is located. Then, the image of the second partial region 22 obtained thereby is displayed on the display unit 14. In addition, the image of the second partial area 22 displayed on the display unit 14 has position information of the first partial area 21. Thereby, since the user can easily visually recognize the measurement area by the display unit 14, the first partial area 21 (measurement area) is arranged in the target area of the measurement target surface 20 where the reflection characteristics are to be measured. In addition, the measuring device 10 can be easily positioned.

ここで、本実施形態の計測装置10は、操作部15のボタン15aからの出力をユーザからの信号として検知したことに応じて、反射特性の計測を開始したが、それに限られるものではない。例えば、筐体11の外部に配置された装置(例えば情報処理装置)からケーブルや無線などを介して送られてきた(受信した)ユーザからの信号を検知したことに応じて、反射特性の計測を開始してもよい。この場合、制御部16は、当該装置の入力部(キーボードやマウスなど)により入力された信号を、ユーザからの信号として検知する。また、本実施形態の計測装置10は、第2部分領域22の画像と反射特性を示す値とを対応付けて制御部16(メモリ)に記憶したが、それに限られるものではない。例えば、筐体11の外部に配置された装置に、ケーブルや無線を介して、第2部分領域の画像と反射特性の値とを対応付けて送信し、当該装置に記憶してもよい。このように筐体11の外部に配置された装置は、計測装置10における構成要素の1つとしてもよい。   Here, the measurement apparatus 10 of the present embodiment starts measuring the reflection characteristics in response to detecting the output from the button 15a of the operation unit 15 as a signal from the user, but is not limited thereto. For example, reflection characteristics are measured in response to detection of a signal from a user sent (received) from a device (for example, an information processing device) arranged outside the housing 11 via a cable or wireless. May start. In this case, the control unit 16 detects a signal input from an input unit (such as a keyboard or a mouse) of the device as a signal from the user. Moreover, although the measuring apparatus 10 of this embodiment matched and memorize | stored the image of the 2nd partial area | region 22, and the value which shows reflection characteristics in the control part 16 (memory), it is not restricted to it. For example, the image of the second partial region and the value of the reflection characteristic may be transmitted in association with each other via a cable or wirelessly to a device arranged outside the housing 11 and stored in the device. Thus, the device arranged outside the housing 11 may be one of the components in the measuring device 10.

さらに、本実施形態では、撮像部13で得られた第2部分領域22の画像を表示する表示部14として、筐体11に設けられたディスプレイ14aを用いたが、それに限られず、例えば筐体11の外部に設けられた外部ディスプレイを表示部として用いてもよい。この場合には、制御部16は、撮像部13で得られた第2部分領域22の画像データを、ケーブルや無線を介して外部ディスプレイに送信し、当該外部ディスプレイに表示する。このように筐体11の外部に設けられた外部ディスプレイは、計測装置10における構成要素の1つとしてもよい。   Furthermore, in this embodiment, the display 14a provided in the housing 11 is used as the display unit 14 that displays the image of the second partial region 22 obtained by the imaging unit 13. 11 may be used as a display unit. In this case, the control unit 16 transmits the image data of the second partial region 22 obtained by the imaging unit 13 to the external display via a cable or wirelessly and displays the image data on the external display. Thus, the external display provided outside the housing 11 may be one of the components in the measuring device 10.

<第2実施形態>
本発明に係る第2実施形態の計測装置について説明する。第1実施形態の計測装置10では、撮像部13によって第2部分領域22を斜めから撮像し、それによって得られた画像をそのまま表示部14に表示しているため、図4に示すように、表示部14に表示される第2部分領域22の画像が台形形状となる。本実施形態では、撮像部13によって第2部分領域22を斜めから撮像することで得られた台形形状の画像に対して幾何学的な画像変換を行い、画像変換が行われた画像を表示部14に表示する例について説明する。それ以外の構成は第1実施形態と同様であるため、ここでは説明を省略する。
Second Embodiment
A measuring device according to a second embodiment of the present invention will be described. In the measurement apparatus 10 of the first embodiment, the second partial region 22 is imaged from the oblique direction by the imaging unit 13 and the image obtained thereby is displayed on the display unit 14 as it is, so as shown in FIG. The image of the second partial area 22 displayed on the display unit 14 has a trapezoidal shape. In the present embodiment, geometric image conversion is performed on a trapezoidal image obtained by imaging the second partial region 22 from an oblique direction by the imaging unit 13, and the image subjected to the image conversion is displayed on the display unit. An example displayed in FIG. Since the other configuration is the same as that of the first embodiment, the description is omitted here.

以下に、撮像部13により45度の撮像角βで第2部分領域22を撮像することで得られた画像を、あたかも0度の撮像角βで第2部分領域22を撮像したような画像(例えば矩形形状の画像)に変換する画像変換方法について説明する。画像変換は、制御部16(処理部)によって行われうる。   In the following, an image obtained by imaging the second partial region 22 at an imaging angle β of 45 degrees by the imaging unit 13 is obtained as if the second partial region 22 was captured at an imaging angle β of 0 degree ( For example, an image conversion method for converting into a rectangular image) will be described. The image conversion can be performed by the control unit 16 (processing unit).

制御部16は、撮像部13で得られた画像データに射影変換を適用して座標変換を行う。射影変換とは、歪んだ四角形の画像を矩形形状(正方形または長方形)の画像に補正する際に適用される座標変換のうちの1つである。画像データにおいて、変換前の座標を(x,y)とし、変換後の座標を(x’,y’)とすると、変換後の座標を式(1)によって求めることができる。ここで、h11〜h33は、変換前の4点の座標と変換後の4点の座標から求められる変換係数である。 The control unit 16 performs coordinate transformation by applying projective transformation to the image data obtained by the imaging unit 13. The projective transformation is one of coordinate transformations applied when correcting a distorted quadrilateral image into a rectangular (square or rectangular) image. In the image data, assuming that the coordinates before conversion are (x, y) and the coordinates after conversion are (x ′, y ′), the coordinates after conversion can be obtained by Expression (1). Here, h 11 to h 33 are conversion coefficients obtained from the coordinates of the four points before conversion and the coordinates of the four points after conversion.

次に、制御部16は、射影変換によって座標変換が行われた画像の画素補間を行う。画像を幾何学的に変換する場合、画素と画素との間の輝度値を参照する画像フィルタ処理を行って隙間に相当する画素のデータを補う、いわゆる画素補間を行う必要がある。ここでは、制御部16において射影変換が行われた画像データに対し、さらに双一次補間を適用して画素補間を行う。双一次補間は、補うべき画素の座標(x’,y’)の周辺の2×2画素(4画素)を用いて直線的に補間し、輝度値を求める線形補間のうちの1つである。   Next, the control unit 16 performs pixel interpolation of the image that has undergone coordinate transformation by projective transformation. When an image is converted geometrically, it is necessary to perform so-called pixel interpolation that performs image filter processing that refers to luminance values between pixels to compensate for pixel data corresponding to a gap. Here, pixel interpolation is performed by further applying bilinear interpolation to the image data subjected to the projective transformation in the control unit 16. Bilinear interpolation is one of linear interpolations for linearly interpolating using 2 × 2 pixels (4 pixels) around the coordinates (x ′, y ′) of the pixel to be supplemented to obtain a luminance value. .

このように、撮像部13で得られた第2部分領域22の画像に対して幾何学的な画像変換(射影変換を用いた座標変換、および双一次補間を用いた画素補間)を行う。これにより、図4に示すような台形形状の画像を、図7に示すような矩形形状の画像に変換して表示部14に表示することができる。図7は、撮像部13で得られた第2部分領域22の画像に対して幾何学的な画像変換を行った後に、表示部14に表示された第2部分領域22の画像を示す図である。   In this manner, geometric image conversion (coordinate conversion using projective conversion and pixel interpolation using bilinear interpolation) is performed on the image of the second partial region 22 obtained by the imaging unit 13. Thereby, the trapezoidal image as shown in FIG. 4 can be converted into a rectangular image as shown in FIG. 7 and displayed on the display unit 14. FIG. 7 is a diagram illustrating an image of the second partial region 22 displayed on the display unit 14 after performing geometric image conversion on the image of the second partial region 22 obtained by the imaging unit 13. is there.

ここで、本実施形態では、幾何学的な画像変換における座標変換として射影変換を用いたが、それに限られるものではない。例えば、平行移動と線形変換とにより座標変換を行う場合には、アフィン変換などを用いることができる。また、本実施形態では画素補間として双一次補間を用いたが、最近傍補間などを用いることもできる。最近傍補間は、補間する画素の位置に最も近い位置にある画素の輝度値を参照する方法であり、補間される画素のデータは双一次補間とは異なる輝度値になるものの、双一次補間と同様に画素補間を行うことができる。さらに、本実施形態では、撮像部13により45度の撮像角βで第2部分領域22を撮像することで得られた画像に対して幾何学的な画像変換を行う例について説明した。しかしながら、それに限られず、45度以外の撮像角βでの撮像により得られた画像についても、前述した幾何学的な画像変換を行うことで、図7に示す画像と同様の画像を得ることができる。   Here, in the present embodiment, projective transformation is used as coordinate transformation in geometric image transformation, but the present invention is not limited to this. For example, when coordinate transformation is performed by parallel movement and linear transformation, affine transformation or the like can be used. In this embodiment, bilinear interpolation is used as pixel interpolation, but nearest neighbor interpolation or the like can also be used. Nearest-neighbor interpolation is a method of referring to the luminance value of the pixel closest to the position of the pixel to be interpolated. Although the pixel data to be interpolated has a luminance value different from that of bilinear interpolation, bilinear interpolation and Similarly, pixel interpolation can be performed. Furthermore, in this embodiment, the example which performs geometric image conversion with respect to the image obtained by imaging the 2nd partial area | region 22 with the imaging angle 13 of 45 degree | times by the imaging part 13 was demonstrated. However, the present invention is not limited thereto, and an image similar to the image shown in FIG. 7 can be obtained by performing the above-described geometric image conversion on an image obtained by imaging at an imaging angle β other than 45 degrees. it can.

上述したように、本実施形態では、撮像部13で得られた第2部分領域22の画像に対して幾何学的な画像変換を行い、それにより得られた画像を表示部14に表示する。これにより、ユーザによる計測領域(第1部分領域21)の視認性をさらに向上させることができる。   As described above, in the present embodiment, geometric image conversion is performed on the image of the second partial region 22 obtained by the imaging unit 13, and the image obtained thereby is displayed on the display unit 14. Thereby, the visibility of the measurement area | region (1st partial area | region 21) by a user can further be improved.

<第3実施形態>
本発明に係る第3実施形態の計測装置について説明する。第1実施形態では、第1部分領域21の位置情報を有する第2部分領域22の画像を生成する1つの方法として、検出部12により第1部分領域21に光を照射しながら第2部分領域22を撮像する方法を説明した。本実施形態では、図8に示すように、第1部分領域21の位置を示すマーク33を、撮像部13で得られた第2部分領域22の画像に重ねて表示することにより、第1部分領域21の位置情報を有する第2部分領域22の画像を生成する方法を説明する。それ以外の構成は第1実施形態と同様であるため、ここでは説明を省略する。
<Third Embodiment>
A measurement apparatus according to a third embodiment of the present invention will be described. In the first embodiment, as one method for generating an image of the second partial region 22 having the position information of the first partial region 21, the second partial region is irradiated while irradiating the first partial region 21 with light by the detection unit 12. A method for imaging 22 has been described. In the present embodiment, as shown in FIG. 8, the mark 33 indicating the position of the first partial region 21 is displayed so as to overlap the image of the second partial region 22 obtained by the imaging unit 13. A method for generating an image of the second partial area 22 having the position information of the area 21 will be described. Since the other configuration is the same as that of the first embodiment, the description is omitted here.

まず、第1部分領域21の位置を示すマーク33を表示する方法の1つの例について説明する。第2部分領域22における第1部分領域21の位置は、反射特性を計測すべき対象領域を変更したとしても通常変わらない。そのため、第1部分領域21が表示されるべき表示部14上の位置を事前に求めておき、撮像部13で得られた第2部分領域22の画像を表示部14に表示するとともに、事前に求めた表示部14上の位置にマーク33を重ねて表示してもよい。この場合、撮像部13は、検出部12により第1部分領域21に光を照射しながら第2部分領域22を撮像しなくてもよい。即ち、撮像部13は、検出部12による第1部分領域21への光の照射を行わずに、撮像部13による第2部分領域22への光の照射のみを行って第2部分領域22を撮像してもよい。   First, one example of a method for displaying the mark 33 indicating the position of the first partial region 21 will be described. The position of the first partial region 21 in the second partial region 22 does not normally change even if the target region whose reflection characteristics are to be measured is changed. Therefore, the position on the display unit 14 where the first partial region 21 is to be displayed is obtained in advance, and the image of the second partial region 22 obtained by the imaging unit 13 is displayed on the display unit 14. The mark 33 may be superimposed and displayed at the obtained position on the display unit 14. In this case, the imaging unit 13 may not image the second partial region 22 while irradiating the first partial region 21 with the detection unit 12. That is, the imaging unit 13 does not irradiate the first partial region 21 with the light by the detection unit 12, but only irradiates the second partial region 22 with the imaging unit 13, and sets the second partial region 22. You may image.

ここで、第1部分領域21の位置を示すマーク33は、例えば、第1部分領域21の外形(輪郭)を示すマークを含むが、例えば、第1部分領域21の四隅を示すマークなど他のマークを含んでもよい。また、第1部分領域21の位置を示すマークを用いずに、例えば、第1部分領域21の輝度値を周辺より大きくしたり、小さくしたりするなど、第1部分領域21の位置を強調した手法を用いてもよい。以下の例についても同様である。   Here, the mark 33 indicating the position of the first partial region 21 includes, for example, a mark indicating the outer shape (contour) of the first partial region 21, but other marks such as marks indicating the four corners of the first partial region 21, for example. Marks may be included. Further, without using the mark indicating the position of the first partial region 21, the position of the first partial region 21 is emphasized, for example, by increasing or decreasing the luminance value of the first partial region 21 from the surroundings. A technique may be used. The same applies to the following examples.

次に、第1部分領域21の位置を示すマーク33を表示する方法の他の例について説明する。ここでは、検出部12により第1部分領域21に光を照射しながら第2部分領域22を撮像することにより得られた画像から、第2部分領域22における第1部分領域21の位置を求め、当該位置を示すマーク33を表示部14に表示する例を説明する。以下では、第1部分領域21の位置として、第1部分領域21の外形(輪郭)を制御部16によって求める方法を説明する。   Next, another example of a method for displaying the mark 33 indicating the position of the first partial region 21 will be described. Here, the position of the first partial region 21 in the second partial region 22 is obtained from an image obtained by imaging the second partial region 22 while irradiating the first partial region 21 with light by the detection unit 12. An example in which the mark 33 indicating the position is displayed on the display unit 14 will be described. Below, the method of calculating | requiring the external shape (contour) of the 1st partial area 21 by the control part 16 as a position of the 1st partial area 21 is demonstrated.

制御部16は、撮像部13で得られた画像データに輪郭抽出を適用して第1部分領域21の抽出を行う。輪郭抽出とは、画像データにおける画素の輝度勾配を算出した結果に基づいて、画素の輝度が不連続に変化している箇所を抽出する際に適用される画像処理のうちの1つである。ここでは、画像データにおける画素のX方向とY方向の隣接画素同士の差分をとることにより1次微分を行って輪郭を抽出する方法について述べるが、輪郭抽出には様々な方法がある。例えば、輪郭抽出の対象画素に対して上下左右の4方向に2次微分を行うことにより、方向性に依存しない輪郭抽出を行うこともできる。   The control unit 16 extracts the first partial region 21 by applying contour extraction to the image data obtained by the imaging unit 13. Contour extraction is one of the image processes applied when extracting the location where the brightness | luminance of a pixel changes discontinuously based on the result of having calculated the brightness | luminance gradient of the pixel in image data. Here, a method for extracting a contour by performing a first-order differentiation by taking a difference between adjacent pixels in the X direction and the Y direction of pixels in image data will be described, but there are various methods for contour extraction. For example, it is possible to perform contour extraction that does not depend on directionality by performing quadratic differentiation in four directions of up, down, left, and right with respect to the target pixel of contour extraction.

画像データにおいて、座標(x,y)の画素を輪郭抽出の対象画素とし、その画素の輝度値がf(x,y)で得られるとすると、X方向の微分値fxとY方向の微分値fyを式(2)によって求めることができる。また、式(2)によって得られた微分値fx、fyから、式(3)を用いて座標(x,y)における輪郭の強さIを算出することができる。これにより、制御部16は、式(3)によって算出された輪郭の強さIを用いて第1部分領域21を抽出することができ、抽出した第1部分領域21の位置を示すマーク33を表示部14に表示させることができる。   In image data, assuming that a pixel at coordinates (x, y) is a target pixel for contour extraction and the luminance value of the pixel is obtained by f (x, y), a differential value fx in the X direction and a differential value in the Y direction. fy can be obtained by equation (2). Further, from the differential values fx and fy obtained by the equation (2), the contour strength I at the coordinates (x, y) can be calculated using the equation (3). Accordingly, the control unit 16 can extract the first partial region 21 using the contour strength I calculated by the expression (3), and the mark 33 indicating the position of the extracted first partial region 21 is displayed. It can be displayed on the display unit 14.

上述したように、本実施形態では、第2部分領域22における第1部分領域21の位置を示すマーク33を、撮像部13で得られた第2部分領域22の画像に重ねて表示部14に表示する。これにより、ユーザによる計測領域(第1部分領域21)の視認性をさらに向上させることができる。   As described above, in the present embodiment, the mark 33 indicating the position of the first partial region 21 in the second partial region 22 is superimposed on the image of the second partial region 22 obtained by the imaging unit 13 on the display unit 14. indicate. Thereby, the visibility of the measurement area | region (1st partial area | region 21) by a user can further be improved.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形および変更が可能である。   As mentioned above, although preferred embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

10:計測装置、11:筐体、12:検出部、13:撮像部、14:表示部、15:操作部、16:制御部(処理部)、20:被計測面、21:第1部分領域、22:第2部分領域 10: measuring device, 11: housing, 12: detection unit, 13: imaging unit, 14: display unit, 15: operation unit, 16: control unit (processing unit), 20: surface to be measured, 21: first part Region 22: second partial region

Claims (13)

開口部が形成された筐体を有し、前記開口部を介して面の反射特性を計測する計測装置であって、
前記筐体内に設けられ、前記開口部を介して前記面を撮像する撮像部と、
前記撮像部により撮像される領域のうち一部における前記面からの反射光を検出する検出部と、
前記検出部による検出に基づいて前記一部における前記面の反射特性を得る処理部と、
前記撮像部により得られた前記領域の画像を表示する表示部と、
を含み、
前記表示部により表示される前記領域の画像は、前記領域における前記一部を示す情報を含むことを特徴とする計測装置。
A measuring device that has a housing in which an opening is formed and measures reflection characteristics of a surface through the opening,
An imaging unit provided in the housing and imaging the surface through the opening;
A detection unit for detecting reflected light from the surface in a part of a region imaged by the imaging unit;
A processing unit for obtaining reflection characteristics of the surface in the part based on detection by the detection unit;
A display unit for displaying an image of the region obtained by the imaging unit;
Including
The image of the area displayed by the display unit includes information indicating the part of the area.
前記表示部は、前記処理部で得られた前記反射特性を表示することを特徴とする請求項1に記載の計測装置。   The measurement apparatus according to claim 1, wherein the display unit displays the reflection characteristic obtained by the processing unit. ユーザにより操作される入力部を含み、
前記処理部は、前記入力部により入力された信号に基づいて、前記反射特性を得ることを特徴とする請求項1又は2に記載の計測装置。
Including an input unit operated by the user,
The measurement apparatus according to claim 1, wherein the processing unit obtains the reflection characteristic based on a signal input from the input unit.
ユーザにより操作される入力部を含み、
前記処理部は、前記入力部により入力された信号に基づいて、前記反射特性と、前記撮像部により得られた前記領域の画像とを選択的に前記表示部に表示させることを特徴とする請求項1乃至3のうちいずれか1項に記載の計測装置。
Including an input unit operated by the user,
The processing unit selectively displays the reflection characteristic and an image of the region obtained by the imaging unit on the display unit based on a signal input by the input unit. Item 4. The measuring device according to any one of Items 1 to 3.
前記処理部は、前記表示部により表示された前記領域の画像と、前記反射特性とを対応付けて記憶することを特徴とする請求項1乃至4のうちいずれか1項に記載の計測装置。   5. The measurement apparatus according to claim 1, wherein the processing unit stores the image of the region displayed by the display unit and the reflection characteristic in association with each other. 前記検出部は、前記一部における前記面に光を照射して前記面からの反射光を検出し、
前記撮像部は、前記検出部により前記一部における前記面に光が照射されている状態で、前記領域に光を照射して前記領域を撮像することにより、前記情報を含む前記領域の画像を得ることを特徴とする請求項1乃至5のうちいずれか1項に記載の計測装置。
The detector detects light reflected from the surface by irradiating the surface of the part with light.
The imaging unit captures an image of the region including the information by irradiating the region with light in a state where light is applied to the surface of the part by the detection unit. The measuring device according to claim 1, wherein the measuring device is obtained.
前記撮像部は、前記一部における前記面に前記検出部により照射される光の強度より小さい強度の光を前記領域に照射して前記領域を撮像することを特徴とする請求項6に記載の計測装置。   The said imaging part irradiates the said area | region with the light of the intensity | strength smaller than the intensity | strength of the light irradiated by the said detection part on the said surface in the said part, The said area | region is imaged. Measuring device. 前記表示部により表示される前記領域の画像は、前記一部を示すマークを前記情報として含むことを特徴とする請求項1乃至7のうちいずれか1項に記載の計測装置。   The measurement apparatus according to claim 1, wherein an image of the region displayed by the display unit includes a mark indicating the part as the information. 前記マークは、前記一部の外形を示すマークを含むことを特徴とする請求項8に記載の計測装置。   The measuring device according to claim 8, wherein the mark includes a mark indicating the partial outer shape. 前記表示部は、前記筐体に設けられたディスプレイを含むことを特徴とする請求項1乃至9のうちいずれか1項に記載の計測装置。   The measurement apparatus according to claim 1, wherein the display unit includes a display provided in the housing. ユーザにより操作される入力部を含み、
前記表示部と前記入力部とは、前記筐体上において互いに隣接して設けられていることを特徴とする請求項1に記載の計測装置。
Including an input unit operated by the user,
The measurement apparatus according to claim 1, wherein the display unit and the input unit are provided adjacent to each other on the housing.
ユーザにより操作される入力部と、
ユーザにより把持される把持部と、を含み、
前記入力部と前記把持部とは、前記筐体上において互いに隣接して設けられていることを特徴とする請求項1に記載の計測装置。
An input unit operated by a user;
A gripping part gripped by a user,
The measurement apparatus according to claim 1, wherein the input unit and the grip unit are provided adjacent to each other on the housing.
前記反射特性は、鏡面光沢度、ヘイズ、DOIおよび写像性のうち少なくとも1つを含むことを特徴とする請求項1乃至10のうちいずれか1項に記載の計測装置。   The measuring apparatus according to claim 1, wherein the reflection characteristic includes at least one of specular gloss, haze, DOI, and image clarity.
JP2016207260A 2016-10-21 2016-10-21 Measuring device Active JP6869002B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016207260A JP6869002B2 (en) 2016-10-21 2016-10-21 Measuring device
EP17195391.2A EP3312591B1 (en) 2016-10-21 2017-10-09 Measuring apparatus
US15/785,753 US10634611B2 (en) 2016-10-21 2017-10-17 Measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016207260A JP6869002B2 (en) 2016-10-21 2016-10-21 Measuring device

Publications (3)

Publication Number Publication Date
JP2018066712A true JP2018066712A (en) 2018-04-26
JP2018066712A5 JP2018066712A5 (en) 2019-11-28
JP6869002B2 JP6869002B2 (en) 2021-05-12

Family

ID=60051400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016207260A Active JP6869002B2 (en) 2016-10-21 2016-10-21 Measuring device

Country Status (3)

Country Link
US (1) US10634611B2 (en)
EP (1) EP3312591B1 (en)
JP (1) JP6869002B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6481188B1 (en) * 2018-06-20 2019-03-13 スガ試験機株式会社 Image clarity measuring instrument
US11034357B2 (en) 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction
US11195030B2 (en) 2018-09-14 2021-12-07 Honda Motor Co., Ltd. Scene classification
US11892416B2 (en) 2021-06-08 2024-02-06 Fujifilm Business Innovation Corp. Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD978685S1 (en) * 2020-02-14 2023-02-21 Proceq Ag Housing for glossmeter
USD962803S1 (en) * 2020-03-13 2022-09-06 Purdue Research Foundation Food allergen detector
JP2023045476A (en) * 2021-09-22 2023-04-03 富士フイルムビジネスイノベーション株式会社 Surface inspection device and program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155558A (en) * 1990-09-19 1992-10-13 E. I. Du Pont De Nemours And Company Method and apparatus for analyzing the appearance features of a surface
JPH0771945A (en) * 1992-08-07 1995-03-17 Kao Corp Method and device for measuring surface shape
JPH09178564A (en) * 1995-12-21 1997-07-11 Shimadzu Corp Spectrometric system
JPH10104159A (en) * 1996-07-16 1998-04-24 Perkin Elmer Ltd Device for obtaining infrared microscope data
JP2001341288A (en) * 2000-05-30 2001-12-11 Dainippon Printing Co Ltd Method and equipment for colorimetry of printed matter
JP2003028959A (en) * 2001-07-17 2003-01-29 Kawasaki Heavy Ind Ltd Target extraction method
JP2004520105A (en) * 2000-12-19 2004-07-08 ハイシャン ゼン、 Method and apparatus for fluorescence and reflectance imaging and spectroscopy and method and apparatus for simultaneous measurement of electromagnetic radiation by multiple measuring devices
JP2006030203A (en) * 2004-07-15 2006-02-02 Byk Gardner Gmbh Inspection device of optical surface characteristics and inspection method using it
JP2008151781A (en) * 2007-12-03 2008-07-03 Olympus Corp Device and method for image display
JP2011130806A (en) * 2009-12-22 2011-07-07 Moritex Corp Transparency measuring device and transparency measuring method
JP2012181113A (en) * 2011-03-01 2012-09-20 Topcon Corp Light wave distance measuring instrument
JP2015161634A (en) * 2014-02-28 2015-09-07 キヤノン株式会社 Optical system and glossmeter

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797593B2 (en) * 2005-03-10 2011-10-19 富士ゼロックス株式会社 Gloss measuring apparatus and program
JP5989443B2 (en) * 2012-07-31 2016-09-07 公立大学法人公立はこだて未来大学 Semiconductor integrated circuit and object distance measuring device
JP6049215B2 (en) * 2014-01-16 2016-12-21 富士フイルム株式会社 Photoacoustic measurement apparatus, signal processing apparatus and signal processing method used therefor
JP6099023B2 (en) * 2014-05-29 2017-03-22 パナソニックIpマネジメント株式会社 Projector system
US10798373B2 (en) * 2016-07-22 2020-10-06 Sharp Kabushiki Kaisha Display correction apparatus, program, and display correction system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155558A (en) * 1990-09-19 1992-10-13 E. I. Du Pont De Nemours And Company Method and apparatus for analyzing the appearance features of a surface
JPH0771945A (en) * 1992-08-07 1995-03-17 Kao Corp Method and device for measuring surface shape
JPH09178564A (en) * 1995-12-21 1997-07-11 Shimadzu Corp Spectrometric system
JPH10104159A (en) * 1996-07-16 1998-04-24 Perkin Elmer Ltd Device for obtaining infrared microscope data
JP2001341288A (en) * 2000-05-30 2001-12-11 Dainippon Printing Co Ltd Method and equipment for colorimetry of printed matter
JP2004520105A (en) * 2000-12-19 2004-07-08 ハイシャン ゼン、 Method and apparatus for fluorescence and reflectance imaging and spectroscopy and method and apparatus for simultaneous measurement of electromagnetic radiation by multiple measuring devices
JP2003028959A (en) * 2001-07-17 2003-01-29 Kawasaki Heavy Ind Ltd Target extraction method
JP2006030203A (en) * 2004-07-15 2006-02-02 Byk Gardner Gmbh Inspection device of optical surface characteristics and inspection method using it
JP2008151781A (en) * 2007-12-03 2008-07-03 Olympus Corp Device and method for image display
JP2011130806A (en) * 2009-12-22 2011-07-07 Moritex Corp Transparency measuring device and transparency measuring method
JP2012181113A (en) * 2011-03-01 2012-09-20 Topcon Corp Light wave distance measuring instrument
JP2015161634A (en) * 2014-02-28 2015-09-07 キヤノン株式会社 Optical system and glossmeter

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6481188B1 (en) * 2018-06-20 2019-03-13 スガ試験機株式会社 Image clarity measuring instrument
JP2019219510A (en) * 2018-06-20 2019-12-26 スガ試験機株式会社 Device for measuring image clarity
US11034357B2 (en) 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction
US11195030B2 (en) 2018-09-14 2021-12-07 Honda Motor Co., Ltd. Scene classification
US11892416B2 (en) 2021-06-08 2024-02-06 Fujifilm Business Innovation Corp. Surface inspection apparatus, non-transitory computer readable medium storing program, and surface inspection method

Also Published As

Publication number Publication date
US20180113073A1 (en) 2018-04-26
US10634611B2 (en) 2020-04-28
EP3312591B1 (en) 2020-12-16
JP6869002B2 (en) 2021-05-12
EP3312591A1 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
JP6869002B2 (en) Measuring device
US10129490B2 (en) Systems and approaches for thermal image corrections
JP3951984B2 (en) Image projection method and image projection apparatus
US7924312B2 (en) Infrared and visible-light image registration
US11068700B2 (en) Polarization imaging for facial recognition enhancement system and method
JP4927021B2 (en) Cursor control device and control method for image display device, and image system
KR20070013512A (en) Image processing device and method
JP2007129709A (en) Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system
TWI354220B (en) Positioning apparatus and related method of orient
JP5681555B2 (en) Glossy appearance inspection device, program
JP7143925B2 (en) Information processing device, display position adjustment method, and program
KR100968205B1 (en) Apparatus and Method for Space Touch Sensing and Screen Apparatus sensing Infrared Camera
US20200394404A1 (en) Image recognition processing system using an object image data, image recognition processing method using an object image data, and image recognition process program using an object image data
JP2021124330A (en) Method and device for detecting liquid surface
JP5445064B2 (en) Image processing apparatus and image processing program
TW201234235A (en) Method and system for calculating calibration information for an optical touch apparatus
US10116809B2 (en) Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data
JP6827818B2 (en) Measuring equipment, information processing equipment, information processing methods, and programs
JP6851337B2 (en) Imaging device, control method and control program
JP2007322704A (en) Image display system and its control method
JP2020129187A (en) Contour recognition device, contour recognition system and contour recognition method
JP2018097563A (en) Image processing apparatus
JP3915753B2 (en) Image detection device
JPWO2017013873A1 (en) Dimension measuring device, dimension measuring system, and dimension measuring method
JP2010019567A (en) Angle calculation method and angle calculation system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201120

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210413

R151 Written notification of patent or utility model registration

Ref document number: 6869002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151