WO2018186255A1 - 情報処理装置、情報処理方法、プログラム、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、プログラム、及び、記録媒体 Download PDF

Info

Publication number
WO2018186255A1
WO2018186255A1 PCT/JP2018/012727 JP2018012727W WO2018186255A1 WO 2018186255 A1 WO2018186255 A1 WO 2018186255A1 JP 2018012727 W JP2018012727 W JP 2018012727W WO 2018186255 A1 WO2018186255 A1 WO 2018186255A1
Authority
WO
WIPO (PCT)
Prior art keywords
iso sensitivity
default
value
shutter speed
image
Prior art date
Application number
PCT/JP2018/012727
Other languages
English (en)
French (fr)
Inventor
龍馬 藤ノ井
Original Assignee
新日鉄住金ソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 新日鉄住金ソリューションズ株式会社 filed Critical 新日鉄住金ソリューションズ株式会社
Priority to US16/330,718 priority Critical patent/US10922545B2/en
Priority to JP2019511182A priority patent/JPWO2018186255A1/ja
Priority to CN201880003631.5A priority patent/CN109715528B/zh
Publication of WO2018186255A1 publication Critical patent/WO2018186255A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • G03B7/093Digital circuits for control of exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • G06K7/10752Exposure time control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10881Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices constructional details of hand-held scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, a program, and a recording medium.
  • augmented reality a technique called augmented reality has been proposed in which an object is recognized from a captured image and a virtual image corresponding to the object is displayed superimposed on the captured image.
  • the object display device of Patent Document 1 that can be said to be an example of the technology related to augmented reality is determined to satisfy the control condition and the control condition determination unit that determines whether the control condition defined for each object is satisfied.
  • a display control unit that performs display control so that the object is displayed in a second display mode different from the first display mode that is a normal display mode when displaying the object.
  • the target object may not be temporarily recognized from the shot image, and the virtual image corresponding to the target object may not be temporarily displayed.
  • the target object cannot be recognized from the captured image, it is possible to continue the process of displaying the virtual image superimposed on the captured image based on the progress of the process of displaying the virtual image superimposed on the captured image. In this case, however, the processing based on the photographed image is necessary, and the load on the CPU becomes excessive. Responses of other processes may be delayed. When the response is delayed, there arises a problem that the virtual image is not displayed properly.
  • An object of the present invention is to prevent a response delay and to stably display a virtual image.
  • the information processing apparatus provides the shutter speed and the ISO sensitivity that satisfy a condition that the exposure value corresponding to the default F value, the luminance of the subject, the shutter speed, and the ISO sensitivity is a predetermined exposure value.
  • response delay can be prevented and a virtual image can be displayed stably.
  • FIG. 1 is a diagram illustrating an example of a usage environment.
  • FIG. 2 is a diagram illustrating an example of the configuration of the information processing system.
  • FIG. 3 is a diagram illustrating an example of a hardware configuration of the smart glass.
  • FIG. 4 is a diagram illustrating an example of the superimposed screen.
  • FIG. 5 is a diagram showing a recognition processing time graph.
  • FIG. 6 is a flowchart of the superimposed screen display process in the first mode.
  • FIG. 1 is a diagram illustrating an example of a usage environment of the information processing system 100.
  • the information processing system 100 is used in a warehouse such as a physical distribution center.
  • a plurality of articles 200 are stored in the warehouse.
  • Each article 200 is provided with a marker 210.
  • the marker 210 is an optically readable code, on which predetermined information is recorded.
  • a color bit registered trademark
  • a QR code registered trademark
  • a one-dimensional code such as a barcode
  • an identification ID of the article 200 which is information that can identify the article 200 with the marker 210, is recorded.
  • the worker 10 picks up the article 200 while wearing a smart glass 110 constituting the information processing system 100 while referring to a superimposed screen 150 described later.
  • FIG. 2 is a diagram illustrating an example of the configuration of the information processing system 100.
  • the information processing system 100 is a system that displays a superimposed screen 150 and includes a smart glass 110 and a server 130.
  • the smart glass 110 and the server 130 can communicate with each other.
  • the smart glass 110 can be worn by the operator 10.
  • FIG. 3 is a diagram illustrating an example of a hardware configuration of the smart glass 110.
  • the smart glass 110 is an example of an information processing device and a computer, and connects the CPU 111, the camera 112, the display 113, the exposure meter 114, the storage device 115, the microphone 116, and the communication interface 117. And a bus 118.
  • the CPU 111 controls the entire smart glass 110.
  • the processing shown in FIG. 6 and the like is realized by the CPU 111 executing processing based on a program stored in the storage device 115 or the like.
  • the camera 112 is a photographing device that photographs a subject and generates a photographed image.
  • the camera 112 captures an image with the F value, ISO brightness, and shutter speed set by the control of the CPU 111.
  • the camera 112 includes a lens and an image sensor.
  • the image sensor converts incident light from the lens into an electrical signal.
  • a CCD image sensor or a CMOS image sensor is used as the image sensor.
  • the display 113 is a display device for realizing augmented reality (AR).
  • the display 113 superimposes and displays the AR image 152 corresponding to the marker 210 on the real space image including the marker 210 based on the control of the CPU 111.
  • the display 113 of this embodiment is a video see-through type.
  • the image of the real space is a captured image 151 captured by the camera 112, and the display 113 adds an AR image 152 (described later) to the captured image 151 captured by the camera 112 based on the control of the CPU 111.
  • the superimposed image 150 is displayed.
  • the display 113 may be an optical see-through type.
  • the image in the real space is an image displayed by an optical system such as a prism or a half mirror. In this case, the display 113 transmits and displays an image of the real space.
  • the display 113 displays a superimposed screen 150 in which an AR image 152 (described later) is superimposed on an image of the real space that is transmitted and displayed by the optical system based on the control of the CPU 111.
  • the exposure meter 114 measures the luminance of the subject.
  • the exposure meter 114 may be a TTL (Through the Lens) method, or another method.
  • the storage device 115 is a storage device such as a RAM, a ROM, and an HDD, and stores a program, and stores data used when the CPU 111 executes processing based on the program.
  • the storage device 115 may include a recording medium in which a program is stored. At this time, the processing shown in FIG. 6 and the like are realized by the CPU 111 executing the processing based on the program stored in the recording medium.
  • the microphone 116 accepts the voice of the worker 10 as voice data or outputs the voice.
  • the communication interface 117 controls communication between the smart glass 110 and an external device such as the server 130.
  • the server 130 is an example of an information processing device and a computer, and includes a CPU, a storage device, a communication I / F, and a bus connecting them.
  • the CPU of the server 130 controls the entire server 130.
  • the storage device of the server 130 is a storage device such as a RAM, a ROM, or an HDD, and stores a program, or stores data used when the CPU of the server 130 executes processing based on the program.
  • the storage device of the server 130 stores a picking list described later.
  • the communication interface of the server 130 controls communication between the server 130 and an external device such as the smart glass 110.
  • the picking list is stored in the storage device of the server 130.
  • the server 130 transmits a picking list to the smart glass 110 in response to a request from the smart glass 110.
  • the picking list is a list of identification IDs of the articles 200 to be picked by the worker 10 in the warehouse.
  • the identification ID of the article 200 is recorded on the marker 210 attached to the article 200 and can be said to be information representing the marker 210.
  • FIG. 4 is a diagram illustrating an example of the superimposed screen 150.
  • the display is performed based on the control of the CPU 111.
  • 113 is a screen displayed.
  • the camera 112 of the smart glass 110 is also directed toward the article 200, and the article 200 can be photographed.
  • the superimposition screen 150 is a screen that displays the AR image 152 corresponding to the marker 210 superimposed on the image of the real space including the marker 210.
  • the display 113 of this embodiment is a video see-through type. For this reason, a captured image 151 captured by the camera 112 is displayed as an image of the real space.
  • the photographed image 151 shown in FIG. 4 displays the article 200 with the marker 210 attached. Then, the AR image 152 corresponding to the marker 210 is displayed so as to be superimposed on the corresponding marker 210.
  • the AR image 152 is an example of a virtual image, and the AR image 152 includes a first AR image 152a and a second AR image 152b.
  • the first AR image 152a represents that the article 200 with the marker 210 corresponding to the first AR image 152a is a picking target.
  • the second AR image 152b represents that the article 200 with the marker 210 corresponding to the second AR image 152b is not a picking target.
  • the first AR image 152a and the second AR image 152b are different images.
  • the first AR image 152a is a rectangular image painted with translucent green
  • the second AR image 152b is a rectangular image painted with translucent red.
  • the operation mode provided in the smart glass 110 includes a first mode, a second mode, and a third mode.
  • the first mode is an operation mode in which the photographed image 151 displayed on the superimposed screen 150 is photographed so that the image can be easily recognized by the user such as the worker 10 and the marker 210 can be recognized by the CPU 111. is there.
  • the first mode is used, for example, when the operator 10 performs picking.
  • the default F value is a predetermined F value such as a predetermined F value defined by an OS or application provided in the smart glass 110.
  • a predetermined F value such as a predetermined F value defined by an OS or application provided in the smart glass 110.
  • the default F value may be stored in the storage device 115, or may be acquired by the smart glass 110 from the server 130 or the like.
  • the default ISO sensitivity is a predetermined ISO sensitivity that can capture a captured image 151 that can be viewed by a human and that can capture a captured image 151 that can be recognized by the CPU 111.
  • ISO sensitivity Exposure time
  • AR images can be displayed stably when the shutter speed is set short. This is considered to be because the subject (for example, the marker 210 to be superimposed on the AR image) can be stopped without hanging in each frame constituting the captured moving image.
  • the shutter speed is too short, a sufficient exposure amount cannot be obtained, and it may be difficult for the CPU 111 to recognize the marker 210 in the captured image 151.
  • the shutter speed is set to be higher (that is, the exposure time is shorter).
  • the ISO sensitivity included in an appropriate range is used as the default ISO sensitivity.
  • the default ISO sensitivity may be stored in the storage device 115, and the smart glass 110 may be acquired from the server 130 or the like. In the present embodiment, the default ISO sensitivity is set to 400 or more and 3200 or less. The reason for this will be described later.
  • the brightness of the subject is measured by the exposure meter 114.
  • the exposure meter 114 is not limited to dedicated hardware.
  • the CPU 111 may analyze the image captured by the camera 112 and calculate the luminance of the subject. That is, it goes without saying that the image sensor constituting the camera 112 and the CPU 111 may function as the exposure meter 114 by a program for measuring luminance stored in the storage device 115.
  • the constant K is a calibration constant of the exposure meter 114 so that the subject is generally finished to a medium density (gray having a reflectance of about 18%) with respect to the sensitivity of the image sensor (CCD image sensor, etc.). This is a value to be set, and a value of about 10.6 to 13.4 is set for each manufacturer of the imaging device.
  • Expression (1) can be transformed into the following expression (2).
  • N ⁇ 2 / t L ⁇ S / K (2)
  • the right side of Expression (2) can be expressed as the following Expression (3) using the conversion coefficient A.
  • N ⁇ 2 / t L ⁇ S ⁇ A / (K ⁇ A) (3)
  • AV log 2 (N ⁇ 2)
  • TV log 2 (1 / t)
  • BV log 2 (L / (K ⁇ A))
  • SV log 2 (SA) (8)
  • the EV value which is the exposure value, is defined as follows according to equations (4) to (8).
  • the EV value can be expressed as in the following equations (10) and (11).
  • EV AV + TV (10)
  • EV BV + SV (11)
  • FIG. 5 is a diagram showing a recognition processing time graph.
  • the recognition processing time graph is a graph that summarizes the results of measurement for determining the default ISO sensitivity.
  • the horizontal axis of the recognition processing time graph is the ISO sensitivity.
  • the vertical axis of the recognition processing time graph is the average recognition processing time.
  • the average recognition processing time is the ISO sensitivity indicated on the horizontal axis of the recognition processing time graph, and the CPU 111 of the smart glass 110 recognizes the nine markers 210 from a photographed image obtained by photographing a sheet with nine markers 210 attached. It is the average processing time per time when processing is performed 100 times.
  • Equation (1) is an ISO sensitivity of any one of 400, 800, 1600, 3200, and 6400.
  • the average recognition processing time is increased by about 1.3 times compared to other cases. Further, it was confirmed that when the ISO sensitivity is 6400, the noise of the photographed image is larger than in other cases. It is considered that the average recognition processing time has increased due to such an increase in noise. Further, when the ISO sensitivity that increases the average recognition processing time is set as the default ISO sensitivity, the load on the CPU 111 increases, and the display of the superimposed screen 150 is not smoothly performed, and the display of the superimposed screen 150 may be stuttered. is there. For this reason, it is desirable that the ISO sensitivity be 3200 or less in order to suppress noise in the captured image and suppress an increase in the load on the CPU 111 to prevent the display of the superimposed screen 150 from becoming messy.
  • QR code readability can be measured by applying a QR code affixed to the wall under normal illumination at a distance of about 1 m from the wall at a speed of 2.5 km / h from the smart glass 110 to the wall. Was carried out while being translated in the horizontal direction. This is almost the same situation as when a QR code attached to a product or the like is read with a smart glass 110 or the like carried by an operator in warehouse work.
  • the QR code is an example of the marker 210.
  • the QR code could not be read when the combination of ISO sensitivity and shutter speed was (200, 1/100 ms) and (100, 1/50 ms). This is because when the worker wearing the smart glass 110 works in the warehouse, the QR code attached to the product cannot be read if the shutter speed of the smart glass 110, that is, the exposure time is 1/100 (ms) or more. Means that. Therefore, in such a case, it is desirable to set a shutter speed (that is, a short exposure time) faster than 1/200 (ms). Then, it is desirable that the lower limit value is 400, which is the minimum ISO sensitivity that can be allowed at this shutter speed under general warehouse illumination. From the above, in this embodiment, the default ISO sensitivity is set to 400 or more and 3200 or less.
  • FIG. 6 is a flowchart of the superimposed screen display process in the first mode.
  • the superimposed screen display process is a process in which the smart glass 110 displays the superimposed screen 150. It is assumed that the CPU 111 acquires the picking list from the server 130 in advance by controlling the communication interface 117.
  • the CPU 111 calculates an exposure value corresponding to the current setting of the camera 112.
  • the F value of the camera 112 is the default F value
  • the ISO sensitivity of the camera 112 is the default ISO sensitivity.
  • the CPU 111 calculates the exposure value based on the luminance of the subject acquired from the exposure meter 114, the default ISO sensitivity, and the equation (11).
  • the CPU 111 determines the provisional appropriate exposure value as the calculated exposure value.
  • the appropriate exposure value is an appropriate exposure value determined according to the usage environment of the smart glass 110.
  • the CPU 111 performs exposure correction by the processes from S102 to S106, and determines an appropriate exposure value.
  • the camera 112 performs shooting and generates a trial shot image.
  • the CPU 111 acquires a trial shot image.
  • a trial shot image means that, for example, when taking a still image or a moving image by using the camera function of a digital camera or a smart device, the CCD image sensor or the like is set when the camera function is turned on and the camera is held over the subject.
  • An image of a subject captured via the digital camera is displayed on a display of a digital camera or a smart device, which is an example of a trial shot image.
  • the CPU 111 determines an index value indicating the visual characteristic of the most recently acquired trial shot image.
  • the CPU 111 uses, as an index value, a value obtained by integrating the luminance signal level and averaging the luminance level for the test shot image.
  • the CPU 111 may use a value obtained by integrating the luminance signal level after weighting the central portion of the screen for the trial image.
  • the CPU 111 may use, as an index value, a value determined by dividing the screen into a plurality of areas and integrating the luminance signal level for each area for the trial shot image.
  • the CPU 111 may use, as an index value, a value determined on the basis of a histogram of luminance signal levels for the trial shot image.
  • a configuration in which exposure correction is performed based on a histogram of luminance signals is disclosed in, for example, Japanese Patent Laid-Open No. 2-250472.
  • the CPU 111 determines whether or not the index value determined in the latest S103 is included in an appropriate predetermined range set in advance.
  • the CPU 111 advances the process to S106 when the index value determined in the latest S103 is included in the predetermined range, and advances the process to S105 when not included.
  • the predetermined range used in S104 may be based on, for example, an index value determined from a sample image captured in advance by the camera 112 in an appropriate exposure state.
  • the sample image and the test shot image are preferably images of the same or similar subject.
  • An example of the subject is a board with a QR code attached to a cardboard. This board is an example of a subject, and does not necessarily include a QR code, and can be arbitrarily determined according to the characteristics of the subject at each work place.
  • the predetermined range used in S104 is a range having a predetermined size centered on the index value determined from the sample image.
  • the CPU 111 changes the exposure value of the camera 112 by increasing or decreasing the exposure value of the camera 112 by one step. For example, the CPU 111 changes the exposure value of the camera 112 by changing the shutter speed of the camera 112. At this time, the CPU 111 uses the shutter speed (t) calculated from the equations (5), (6), and (10) with the F value (N) as the default F value and the changed exposure value as the EV value. Then, the camera 112 is set so as to take a trial shot image. The CPU 111 determines the temporary appropriate exposure value as the changed exposure value. Thereafter, the CPU 111 returns the process to S102. In S ⁇ b> 106, the CPU 111 determines the formal appropriate exposure value as the provisional appropriate exposure value determined most recently.
  • the CPU 111 stores an optimum index value (optimum index value) based on the sample image in the storage device 115 in advance, and an index value calculated from a test photographed image obtained by changing the exposure value stepwise. Of these, the exposure value when the test image closest to the optimum index value is taken may be determined as the appropriate exposure value.
  • the CPU 111 determines that the shutter speed and ISO sensitivity satisfy the conditions that the exposure value corresponding to the default F value, subject brightness, shutter speed, and ISO sensitivity is the appropriate exposure value determined in S106. To decide. Next, a method for determining the shutter speed and ISO sensitivity will be described. First, the first determination method will be described. The CPU 111 determines the ISO sensitivity as the default ISO sensitivity. Further, the CPU 111 determines the shutter speed based on the default F value and the appropriate exposure value. More specifically, the CPU 111 calculates the AV value from the default F value (N) and the equation (5). Next, the CPU 111 calculates the TV value from the EV value substituted with the appropriate exposure value, the calculated AV value, and the equation (10), and determines the shutter speed (t) from the equation (6).
  • the CPU 111 determines the ISO sensitivity as the default ISO sensitivity. Further, the CPU 111 determines the luminance of the subject based on the default ISO sensitivity and the appropriate exposure value, and determines the shutter speed based on the determined luminance of the subject, the default ISO sensitivity, and the default F value. More specifically, the CPU 111 calculates the SV value from the default ISO sensitivity (S) and the formula (8). Next, the CPU 111 calculates the EV value substituted with the appropriate exposure value, the calculated SV value, and the BV value from the equation (11), and calculates the luminance (L) of the subject from the equation (7). The luminance (L) of the subject calculated here is the luminance of the subject when the trial image is taken.
  • the CPU 111 determines the shutter speed (t) from the calculated subject brightness (L), default ISO sensitivity (S), default F value (N), and equation (1). Note that in S102 of FIG. 6, shooting is performed with a default F value, a default ISO sensitivity, and a shutter speed that satisfies Equation (1). Therefore, when the process proceeds to S107, the CPU 111 may determine the shutter speed used in the latest shooting in S102 as the shutter speed used in the subsequent shooting.
  • the ISO sensitivity is set as the default ISO sensitivity.
  • the ISO sensitivity can be set to a value other than the default ISO sensitivity.
  • the CPU 111 determines the luminance of the subject based on the appropriate exposure value and the default ISO sensitivity. More specifically, the CPU 111 calculates the SV value from the default ISO sensitivity and formula (8).
  • the CPU 111 calculates the EV value substituted with the appropriate exposure value, the calculated SV value, and the BV value from the equation (11), and calculates the luminance (L) of the subject from the equation (7).
  • the luminance (L) of the subject calculated here is the luminance of the subject when the trial image is taken.
  • the CPU 111 calculates C from the calculated luminance (L) of the subject, default F value (N), and the following equation (12).
  • the CPU 111 determines the shutter speed (t) and the ISO sensitivity (S) so as to satisfy Expression (13).
  • C (K ⁇ N ⁇ 2) / L (12)
  • t C / S (13)
  • Equation (1) can be modified as follows.
  • t (1 / S) ⁇ (K ⁇ N ⁇ 2) / L (14)
  • N included in C is the default F value
  • L is the luminance determined with respect to the appropriate exposure value
  • the ISO sensitivity value is preferably 400 or more and 3200 or less (referred to as an appropriate ISO range).
  • settable ISO sensitivity values are prepared stepwise within the appropriate ISO range (for example, ISO sensitivity is 400, 800, 1600, 3200), and image quality is given priority as much as possible.
  • Image quality priority mode for selecting a low ISO sensitivity, reading mode for selecting as high an ISO sensitivity as possible by giving priority to a high shutter speed setting, and a balance mode for selecting a value close to the middle among prepared ISO sensitivities
  • the user selects a setting mode, and the CPU 111 stores information on the selected setting mode in the storage device 115. Then, the CPU 111 determines the shutter speed (t) from the ISO sensitivity (S) corresponding to the setting mode, the calculated constant C, and the equation (12).
  • the CPU 111 determines the ISO sensitivity (S) as the minimum value among the settable ISO sensitivities, and the shutter speed (t) corresponds to the selected ISO sensitivity.
  • the value “C / S” is determined.
  • the configuration in which the settable ISO sensitivity values are prepared stepwise has been described as an example. However, a configuration in which an arbitrary value can be set within the appropriate ISO range may be used, and there is no particular limitation.
  • Program control of a general auto exposure function automatically determines a combination of an aperture and a shutter speed by a program according to a shooting scene.
  • a stable AR image is used. Can be displayed in a superimposed manner (that is, the QR code can be read stably), and the balance of the image quality presented to the operator via a smart glass or the like is important.
  • the worker no matter how stable the image can be read, the worker must work while looking at the image through the smart glass, and it is not painful to continue working while viewing the poor image quality for a long time. .
  • the image quality is the same depends on the subjectivity of each worker, so it is preferable that the combination of ISO sensitivity and shutter speed can be set flexibly and easily.
  • the captured image 151 capable of recognizing the marker 210 is captured.
  • the CPU 111 sets shooting conditions for the first mode. More specifically, the CPU 111 sets the camera 112 so that the camera 112 captures images using the default F value, the shutter speed determined in S108, and the ISO sensitivity.
  • the camera 112 performs shooting and generates a shot image 151.
  • the CPU 111 recognizes the marker 210 from the captured image 151 generated in S109.
  • the CPU 111 performs display control for displaying the superimposed screen 150 described with reference to FIG. 4 on the display 113.
  • the CPU 111 changes the AR image 152 corresponding to the marker 210 based on whether or not the identification ID of the marker 210 recognized in S110 is included in the picking list. More specifically, when the identification ID of the marker 210 recognized in S110 is included in the picking list, the CPU 111 sets the AR image 152 corresponding to the marker 210 as the first AR image 152a.
  • the CPU 111 sets the AR image 152 corresponding to the marker 210 as the second AR image 152b. Thereafter, the CPU 111 returns the process to S109. Note that the CPU 111 may return the process to S101. Further, the CPU 111 may return the process to S101 every predetermined time or when a predetermined condition is satisfied such as when the amount of light in the warehouse changes. The above is the superimposed screen display process in the first mode.
  • the second mode is an operation mode suitable for recognizing the marker 210 that is a color code when a color code (color change identifier) that stores information according to the color arrangement is used as the marker 210.
  • the color bit is an example of a color code.
  • the second mode is used, for example, when the smart glass 110 guides the worker 10 to a place where the article 200 to be picked is stored.
  • the smart glass 110 guides the worker 10
  • the camera 112 captures the shelf in which the picking target article 200 is stored
  • the smart glass 110 is displayed on the superimposed screen 150 on the shelf in which the picking target article 200 is stored.
  • An AR image indicating that it is present is superimposed on the captured image 151 and displayed.
  • the shelf is assumed to have a color code on the side of the passage.
  • the default shutter speed is used as the shutter speed in the second mode.
  • the default shutter speed is a predetermined shutter speed suitable for photographing a color code.
  • a smart shutter speed This is the shutter speed obtained by the AE (auto exposure) function of the glass 110.
  • the default F value and the default ISO sensitivity are also set to values suitable for the second mode according to the default shutter speed.
  • the default shutter speed, the default F value, and the default ISO sensitivity in the second mode are stored in the storage device 115, for example.
  • the CPU 111 performs a process of setting shooting conditions for the second mode. More specifically, the CPU 111 performs the following processing. First, the CPU 111 acquires the default F value, the default ISO sensitivity, and the default shutter speed in the second mode from the storage device 115 or the server 130 or the like. Next, the CPU 111 sets the camera 112 so that the camera 112 captures images using the default F value, the default ISO sensitivity, and the default shutter speed.
  • the CPU 111 performs control to display the superimposed screen 150 described with reference to FIG. 4 on the display 113. At this time, when the shelf in which the picking target article 200 is stored in the captured image 151, the CPU 111 copies the AR image indicating that the picking target article 200 is stored in the captured image 151. The image is displayed superimposed on the shelf.
  • the third mode is an operation mode used when a large number of markers 210 are recognized at a time.
  • the third mode for example, when a large number of markers 210 are attached to one article 200, or when a large number of articles 200 with the markers 210 are received, a large number of markers are registered. Used to scan 210.
  • the shutter speed in the third mode As the shutter speed in the third mode, a shutter speed faster than the shutter speed determined by the CPU 111 in the first mode is used.
  • the shutter speed in the third mode is desirably the fastest shutter speed under the condition that the CPU 111 can recognize the marker 210 from the captured image 151.
  • the default F value and default ISO sensitivity are also set to values suitable for the third mode according to the default shutter speed.
  • the shutter speed, the default F value, and the default ISO sensitivity in the third mode may be stored in the storage device 115, or may be acquired by the smart glass 110 from the server 130 or the like.
  • the shutter speed in the third mode is faster than the shutter speed determined by the CPU 111 in the first mode.
  • the CPU 111 can recognize the markers 210 from the captured image 151 captured by the camera 112.
  • the CPU 111 does not need to determine the color and can recognize the marker 210 based on the shade of the color. Therefore, even if the shutter speed is high, the CPU 111 can recognize the marker 210 with high accuracy. Also, since the shutter speed is high, the captured image 151 is not necessarily suitable for human visual recognition. Therefore, in the third mode of the present embodiment, the superimposed screen 150 using the captured image 151 is not displayed.
  • marker recognition processing in the third mode control for displaying the superimposed screen 150 on the display 113 is not performed, and the CPU 111 performs processing for recognizing the marker 210 from the captured image captured by the camera 112.
  • the CPU 111 sets shooting conditions for the third mode. More specifically, the CPU 111 performs the following processing. First, the CPU 111 acquires the default F value, the default ISO sensitivity, and the shutter speed in the third mode from the storage device 115 or the server 130 or the like. Next, the CPU 111 sets the camera 112 so that the camera 112 captures images with the default F value, the default ISO sensitivity, and the shutter speed in the third mode.
  • the camera 112 performs shooting and generates a shot image 151.
  • the CPU 111 recognizes the marker 210 from the captured image 151 and displays the recognition result on the display 113 or sends it to the server 130.
  • the above is the marker recognition process in the third mode.
  • the CPU 111 repeats the third mode marker recognition process.
  • the CPU 111 may change the operation mode based on an operation received by an input device that receives input from a user such as the worker 10.
  • the input device is an example of accepting means.
  • the CPU 111 may change to the second mode when the recognition of the marker 210 from the captured image 151 fails in the first mode. That is, the CPU 111 switches to the second mode, which is a shutter speed setting suitable for color code reading, based on an error code or the like that is output when the color code reading process by the application program is not recognized. It may be changed.
  • the processing of the smart glass 110 includes a first phase for guiding the worker 10 to the shelf to be worked and a second phase for checking the picking work by the worker 10.
  • the smart glass 110 is attached to the shelf.
  • the second phase it is necessary to read a QR code affixed to a product or the like.
  • the CPU 111 can determine whether the phase is the first phase or the second phase, for example, by voice input to the microphone 116 by the worker 10. More specifically, if the worker 10 performs a voice input such as “I will go!” Based on a predetermined voice input item in the information processing system 100, the CPU 111 needs to guide to the work place. If it is determined that the current phase is the first phase, and the worker 10 arrives on the shelf and performs voice input such as “work place arrival!”, The CPU 111 completes the first phase and is in the second phase. Can be determined.
  • the CPU 111 may change to the first mode when determining the first phase, and change to the second mode when determining the second phase. Further, when the CPU 111 recognizes a predetermined number or more of the black and white markers 210, the CPU 111 may change to the third mode.
  • the CPU 111 performs a shutter speed that satisfies the condition that the default F value, the brightness of the subject, the shutter speed, and the exposure value corresponding to the ISO sensitivity become a predetermined exposure value. And ISO sensitivity is determined. Then, the CPU 111 recognizes the object from the default F value, the shutter speed determined by the CPU 111, and the captured image captured using the ISO sensitivity. Therefore, the CPU 111 can recognize the marker 210 from the captured image 151 without performing special processing on the captured image 151. Therefore, the processing load on the CPU 111 does not become excessive. For this reason, delay of response can be prevented and the AR image 152 can be displayed stably.
  • the CPU 111 determines the shutter speed and the ISO sensitivity by any one of the first to third determination methods. Therefore, the captured image 151 is suitable for human visual recognition, and at the same time, suitable for recognition of the marker 210 by the CPU 111. Therefore, the smart glass 110 can display the superimposed screen 150 including the captured image 151 suitable for human visual recognition, and can suppress the display omission of the AR image 152. Even if the display 113 is an optical see-through type, the display image AR can be prevented from being leaked.
  • the default ISO sensitivity is 400 or more and 3200 or less. Therefore, as described with reference to FIG. 5, it is possible to suppress an increase in the load on the CPU 111 and to further suppress noise from occurring in the captured image 151. Further, as described with reference to Table 1, the CPU 111 can recognize the marker 210 stably.
  • the smart glass 110 has a plurality of operation modes including the first mode. Therefore, the CPU 111 can appropriately recognize the marker 210 from the captured image 151 according to the use environment, the purpose of use, and the like.
  • the operation mode includes the second mode. Therefore, by setting the second mode, the CPU 111 can appropriately recognize the marker 210 from the captured image 151 even if the marker 210 is a color code.
  • the operation mode includes a third mode. Therefore, by setting the third mode, the CPU 111 can scan a large number of markers 210 even when there are many black and white markers 210 in particular.
  • the operation mode only needs to be the first mode, and the second mode and the third mode may be omitted.
  • the operation mode may include modes other than the second mode and the third mode.
  • the user of the smart glass 110 such as the operator 10 may be able to set the default F value, the default ISO sensitivity, and the shutter speed in the second mode and the third mode in each operation mode.
  • the process shown in FIG. 6 is not limited to the configuration in which the smart glass 110 is executed alone, and may be executed in a distributed manner by a plurality of information processing apparatuses.
  • the smart glass 110 may only capture the captured image 151 and display the superimposed screen 150, and other processing may be executed by another information processing apparatus such as the server 130.
  • the smart glass 110, the server 130, and the like perform data transmission / reception via the communication interface 117, thereby realizing the processing illustrated in FIG.
  • other information processing apparatuses such as smartphones and tablet terminals may be used.
  • the default ISO sensitivity may be an ISO sensitivity that allows the CPU 111 to recognize the marker 210 from the captured image 151 that is captured with the shutter speed of the camera 112 being the fastest.
  • the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • ASIC application specific integrated circuit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

本発明の情報処理装置は、デフォルトF値、被写体の輝度、シャッター速度、及び、ISO感度に対応する露出値が所定の露出値になる、という条件を満たすシャッター速度、及び、ISO感度を決定する第1決定手段と、前記デフォルトF値、並びに、前記第1決定手段によって決定されたシャッター速度、及び、ISO感度を用いて撮影された撮影画像から、対象物を認識する認識手段と、を有する。

Description

情報処理装置、情報処理方法、プログラム、及び、記録媒体
 本発明は、情報処理装置、情報処理方法、プログラム、及び、記録媒体に関する。
 従来から、撮影画像から対象物を認識し、対象物に対応する仮想画像を撮影画像に重畳して表示する拡張現実と呼ばれる技術が提案されている。拡張現実に関する技術の例といえる特許文献1のオブジェクト表示装置は、オブジェクトごとに規定された制御条件が満たされているか否かを判断する制御条件判断部と、制御条件が満たされると判断された場合にオブジェクトを表示する際の通常の表示態様である第1の表示態様とは異なる第2の表示態様にてオブジェクトが表示されるように表示制御を実施する表示制御部とを備える。
特開2011-233005号公報
 しかしながら、撮影時のカメラの状態や被写体の状態等によっては、一時的に撮影画像から対象物を認識できなくなり、対象物に対応する仮想画像の表示が一時的に行われなくなることがある。
 また、撮影画像から対象物を認識できなくなったときに、仮想画像を撮影画像に重畳して表示する処理の進行状況に基づいて仮想画像を撮影画像に重畳して表示する処理を継続することが考えらえるが、この場合、撮影画像に基づく処理等が必要になってCPUの負荷が過大になり、仮想画像を視野の変化に応じて追従させる制御等の同一の装置において同時並行して行われる他の処理のレスポンスが遅延することがある。レスポンスが遅延すると、仮想画像が適切に表示されなくなるという問題が発生する。
 本発明は、レスポンスの遅延を防止して、安定して仮想画像を表示できるようにすることを目的とする。
 本発明の情報処理装置は、デフォルトF値、被写体の輝度、シャッター速度、及び、ISO感度に対応する露出値が所定の露出値になる、という条件を満たす前記シャッター速度、及び、前記ISO感度を決定する第1決定手段と、前記デフォルトF値、並びに、前記第1決定手段によって決定された前記シャッター速度、及び、前記ISO感度を用いて撮影された撮影画像から、対象物を認識する認識手段と、を有する。
 本発明によれば、レスポンスの遅延を防止して、安定して仮想画像を表示できる。
図1は、使用環境の一例を示す図である。 図2は、情報処理システムの構成の一例を示す図である。 図3は、スマートグラスのハードウェア構成の一例を示す図である。 図4は、重畳画面の一例を示す図である。 図5は、認識処理時間グラフを示す図である。 図6は、第1モードでの重畳画面表示処理のフローチャートである。
[使用環境]
 まず、図1を参照して、情報処理システム100の使用環境の一例について説明する。図1は、情報処理システム100の使用環境の一例を示す図である。
 本実施形態において、情報処理システム100は、物流配送センター等の倉庫で使われる。倉庫には、複数の物品200が保管されている。それぞれの物品200にはマーカ210が付されている。マーカ210は、光学読取式のコードであり、所定の情報が記録されている。マーカ210として、例えば、カラービット(登録商標)やQRコード(登録商標)や、バーコード等の一次元コードが使われるが、その他のコードであってもよい。マーカ210には、マーカ210が付された物品200を特定可能な情報である物品200の識別ID等が記録されている。
 作業者10は、情報処理システム100を構成するスマートグラス110をかけて、後述の重畳画面150を参照しながら、物品200のピッキング等を行う。
[情報処理システム]
 次に、図2を参照して、情報処理システム100の構成の一例について説明する。図2は、情報処理システム100の構成の一例を示す図である。情報処理システム100は、重畳画面150を表示するシステムであり、スマートグラス110とサーバ130とを有する。スマートグラス110とサーバ130とは、互いに通信可能である。スマートグラス110は、作業者10が身に着けることができる。
 次に、図1、図3を参照して、スマートグラス110のハードウェア構成の一例について説明する。図3は、スマートグラス110のハードウェア構成の一例を示す図である。
 スマートグラス110は、情報処理装置、及び、コンピュータの一例であり、CPU111と、カメラ112と、ディスプレイ113と、露出計114と、記憶装置115と、マイク116と、通信インタフェース117と、これらを接続するバス118とを有する。
 CPU111は、スマートグラス110の全体を制御する。CPU111が記憶装置115等に記憶されているプログラムに基づき処理を実行することによって図6に示す処理等が実現される。
 カメラ112は、被写体を撮影して、撮影画像を生成する撮影装置である。カメラ112は、CPU111の制御によって設定されたF値、ISO輝度、及び、シャッター速度で撮影する。カメラ112は、レンズと、撮像素子とを備える。撮像素子は、レンズからの入射光を電気信号に変換する。撮像素子として、CCD撮像素子、又は、CMOS撮像素子等が使われる。
 ディスプレイ113は、拡張現実(AR、Augmented Reality)を実現するための表示装置である。ディスプレイ113は、CPU111の制御に基づいて、マーカ210を含む現実空間の像に、マーカ210に対応するAR画像152を重畳して表示する。
 本実施形態のディスプレイ113は、ビデオシースルー型である。このため、上記の現実空間の像は、カメラ112によって撮影された撮影画像151であり、ディスプレイ113は、CPU111の制御に基づいて、カメラ112が撮影した撮影画像151に、後述のAR画像152を重畳した重畳画面150を表示する。
 ただし、ディスプレイ113は、光学シースルー型であってもよい。ディスプレイ113が光学シースルー型のとき、上記の現実空間の像は、プリズムやハーフミラー等の光学系によって表示される像である。この場合、ディスプレイ113は、現実空間の像を透過して表示する。そして、ディスプレイ113は、CPU111の制御に基づいて、光学系によって透過して表示される現実空間の像に、後述のAR画像152を重畳した重畳画面150を表示する。
 露出計114は、被写体の輝度を計測する。露出計114は、TTL(Through the Lens)方式のものでもよく、その他の方式のものでもよい。
 記憶装置115は、RAM、ROM、HDD等の記憶装置であって、プログラムを記憶したり、CPU111がプログラムに基づき処理を実行する際に利用するデータ等を記憶したりする。記憶装置115には、プログラムが記憶された記録媒体が含まれていてもよい。このとき、CPU111が記録媒体に記憶されているプログラムに基づき処理を実行することによって図6に示す処理等が実現される。
 マイク116は、作業者10の音声を音声データとして受け付けたり、音声を出力したりする。
 通信インタフェース117は、スマートグラス110と、サーバ130等の外部装置との通信の制御を司る。
 次に、サーバ130のハードウェア構成の一例について説明する。サーバ130は、情報処理装置、及び、コンピュータの一例であり、CPUと、記憶装置と、通信I/Fと、これらを接続するバスとを有する。
 サーバ130のCPUは、サーバ130の全体を制御する。
 サーバ130の記憶装置は、RAM、ROM、HDD等の記憶装置であって、プログラムを記憶したり、サーバ130のCPUがプログラムに基づき処理を実行する際に利用するデータ等を記憶したりする。サーバ130の記憶装置は、後述のピッキングリストを記憶する。
 サーバ130の通信インタフェースは、サーバ130と、スマートグラス110等の外部装置との通信の制御を司る。
 次に、ピッキングリストについて説明する。ピッキングリストは、サーバ130の記憶装置に記憶されている。サーバ130は、スマートグラス110から要求に応じて、ピッキングリストをスマートグラス110に送信する。
 ピッキングリストは、倉庫において作業者10がピッキングする対象となる物品200の識別IDの一覧である。物品200の識別IDは、物品200に付されたマーカ210に記録されており、マーカ210を表す情報といえる。
[重畳画面]
 次に、図4を参照して、重畳画面150について説明する。図4は、重畳画面150の一例を示す図であり、図1に示す環境において、スマートグラス110をかけた作業者10が物品200の方を向いたときに、CPU111の制御に基づいて、ディスプレイ113が表示する画面である。作業者10が物品200の方を向くことで、スマートグラス110のカメラ112も物品200の方に向けられて物品200を撮影できる。
 重畳画面150は、マーカ210を含む現実空間の像に、マーカ210に対応するAR画像152を重畳して表示する画面である。本実施形態のディスプレイ113は、ビデオシースルー型である。このため、現実空間の像として、カメラ112によって撮影された撮影画像151が表示される。
 図4に示す撮影画像151には、マーカ210が付された物品200が表示されている。そして、マーカ210に対応するAR画像152が、対応するマーカ210に重畳するように表示される。
 AR画像152は、仮想画像の例であり、AR画像152には、第1AR画像152aと第2AR画像152bとがある。第1AR画像152aは、第1AR画像152aに対応するマーカ210が付された物品200がピッキング対象であることを表す。第2AR画像152bは、第2AR画像152bに対応するマーカ210が付された物品200がピッキング対象ではないことを表す。
 第1AR画像152aと第2AR画像152bとは異なる画像である。例えば、第1AR画像152aは、半透明の緑色で塗りつぶされた矩形の画像であり、第2AR画像152bは、半透明の赤色で塗りつぶされた矩形の画像である。
[動作モード:第1モード]
 次に、スマートグラス110が備える動作モードについて説明する。スマートグラス110が備える動作モードには、第1モードと第2モードと第3モードとがある。
 まず、第1モードについて説明する。第1モードは、作業者10等のユーザに見やすく、かつ、CPU111によって行われるマーカ210の認識が可能な画像になるように、重畳画面150に表示される撮影画像151が撮影される動作モードである。第1モードは、例えば、作業者10がピッキングを行うときに使われる。
 次に、第1モーでの撮影に使われるデフォルトF値、デフォルトISO感度、及び、被写体の輝度について説明する。
 デフォルトF値は、スマートグラス110が備えるOSやアプリケーションで定義されている予め定められたF値等の所定のF値である。その他のデフォルトF値の例として、スマートグラス110をつけた作業者10から物品200に付されたマーカ210までの平均的な距離のバラツキが、被写界深度に収まるようなF値が挙げられる。デフォルトF値は、記憶装置115に記憶されていてもよく、スマートグラス110がサーバ130等から取得してもよい。
 デフォルトISO感度は、人間が視認できる撮影画像151を撮影可能であり、かつ、CPU111によって行われるマーカ210の認識が可能な撮影画像151を撮影可能な所定のISO感度である。
 ここで、ISO感度とシャッター速度(露光時間)との関係について説明する。シャッター速度を短く設定した場合、安定的にAR画像を表示できることが今回新たに発見された。これは、撮像動画を構成する各コマにおいて被写体(例えばAR画像の重畳対象たるマーカ210)をぶらすことなく写し止めることができるためであると考えられる。しかし、シャッター速度が短すぎると十分な露光量が得られずにCPU111による撮影画像151中のマーカ210の認識が困難になる場合がある。この場合でも、撮像素子のISO感度を高く設定することで、少量の露光量であっても被写体を認識可能に撮影することができるようになる。したがって、AR画像を安定的に表示する観点からは、シャッター速度はより高速に(すなわち露光時間は短く)設定する。
 一方で、CPU111により撮影画像151におけるマーカ210の認識が可能な場合であっても、ISO感度が高すぎると撮影画像151にノイズが発生し、スマートグラス110を装着して作業を行う人間による視認が困難になるため、適切な範囲に含まれるISO感度がデフォルトISO感度として使われる。デフォルトISO感度は、記憶装置115に記憶されていてもよく、スマートグラス110がサーバ130等から取得してもよい。本実施形態において、デフォルトISO感度は400以上3200以下とする。この理由は後述する。
 被写体の輝度は、露出計114によって計測される。なお、露出計114は専用のハードウェアに限定されず、例えば、カメラ112が撮影した画像をCPU111が解析して被写体の輝度を算出してもよい。すなわち、記憶装置115に格納された輝度計測のためのプログラムにより、カメラ112を構成する撮像素子とCPU111とを露出計114として機能させてもよいことは言うまでもない。
 次に、F値、被写体の輝度、シャッター速度、ISO感度、及び、露出値の関係について説明する。
 本実施形態では、F値、被写体の輝度、シャッター速度、及び、ISO感度は、次の式(1)を満たすという条件が成立するものとする。
 K=L・t・S/N^2 ・・・ (1)
  K:定数
  L[cd/m^2]:被写体の輝度
  t[sec]:シャッター速度
  S[-]:ISO感度
  N[-]:F値
 ここで、定数Kは、露出計114の校正定数であり、一般的に撮像素子(CCD撮像素子等)の感度に対して被写体が中庸な濃度(反射率18%程度のグレー)に仕上がるように設定される値であり、概ね10.6~13.4程度の値が撮像機器のメーカーごとに設定されている。
 式(1)は、次の式(2)のように変形できる。
 N^2/t=L・S/K ・・・ (2)
 式(2)の右辺は換算係数Aを用いて次の式(3)のように表わることができる。
 N^2/t=L・S・A/(K・A) ・・・ (3)
 式(3)の両辺に対して2を底とする対数をとると、次の式(4)が得られる。
 log(N^2)+log(1/t)=log(L/(K・A))+log(S・A) ・・・ (4)
 ここで、AV値、TV値、BV値、SV値を次の式(5)から式(8)までで定義する。式(5)から式(8)までは、一般にAPEX関係式と呼ばれる。
 AV=log(N^2) ・・・ (5)
 TV=log(1/t) ・・・ (6)
 BV=log(L/(K・A)) ・・・ (7)
 SV=log(S・A) ・・・ (8)
 式(4)から式(8)までによって、露出値であるEV値を次のように定義する。
 AV+TV=BV+SV=EV ・・・ (9)
 式(9)から、EV値は次の式(10)、式(11)ように表すことができる。
 EV=AV+TV ・・・ (10)
 EV=BV+SV ・・・ (11)
 なお、換算係数Aは、ISO感度SをSV値に変換するにあたり、2を底とする対数に変換したときに整数値となるようにISO感度に応じて設定される定数である。例えば、ISO感度S=100がSV=5となるように設定される場合には、A=0.32となる。
 次に、図5を参照して、本実施形態においてデフォルトISO感度を3200以下とする理由を説明する。図5は、認識処理時間グラフを示す図である。認識処理時間グラフは、デフォルトISO感度を決定するための測定の結果をまとめたグラフである。認識処理時間グラフの横軸は、ISO感度である。認識処理時間グラフの縦軸は、平均認識処理時間である。
 平均認識処理時間は、認識処理時間グラフの横軸に示すISO感度で、マーカ210が9個付された用紙を撮影した撮影画像から、スマートグラス110のCPU111が、9個のマーカ210を認識する処理を100回行った時の1回あたりの平均処理時間である。
 デフォルトISO感度を決定するために、400、800、1600、3200、6400のそれぞれのISO感度について、各3回、平均認識処理時間を計測した。
 シャッター速度には、式(1)を満たすように決定されたt[sec]が使われた。なお、図5の測定では、式(1)のSは、400、800、1600、3200、6400のいずれかのISO感度である。
 図5から分かるように、ISO感度が6400の場合には、他の場合と比べて、約1.3倍程度、平均認識処理時間が増加する。また、ISO感度が6400の場合には、他の場合と比べて、撮影画像のノイズが多くなっていることが確認された。このようなノイズの増加によって、平均認識処理時間が増加したものと考えられる。また、平均認識処理時間が増加するようなISO感度をデフォルトISO感度とすると、CPU111の負荷が増大して、重畳画面150の表示がスムーズに行われずに、重畳画面150の表示がカクカクすることがある。
 このため、撮影画像のノイズの抑制し、CPU111の負荷の増大を抑制して重畳画面150の表示がカクカクすることを防止するために、ISO感度は3200以下にすることが望ましい。
 次に、表1を参照して、本実施形態においてデフォルトISO感度を400以上とする理由を説明する。
Figure JPOXMLDOC01-appb-T000001
 表1は、ISO感度とシャッター速度との組み合わせ(3200,1/1600ms)、(1600,1/800ms)、(800,1/400ms)、(400,1/200ms)、(200,1/100ms)、(100,1/50ms)ごとにスマートグラス110によるQRコードの読み取り可否を測定した結果を示している。
 QRコードの読み取り可否の測定は、一般的な倉庫における照度の下、壁に貼りつけたQRコードを、壁から垂直方向に約1m離れた距離からスマートグラス110を時速2.5kmで壁に対して水平方向に平行移動させながら行った。これは、倉庫作業において作業者が携行するスマートグラス110等で商品等に付されたQRコードを読み取る際とほぼ同様の状況である。なお、QRコードは、マーカ210の例である。
 表1に示すとおり、ISO感度とシャッター速度との組み合わせが(200,1/100ms)と(100,1/50ms)の組み合わせではQRコードを読み取ることができなかった。これは、スマートグラス110を装着した作業者が倉庫内で作業を行う場合、スマートグラス110のシャッター速度すなわち露光時間が1/100(ms)以上では、商品等に付されたQRコードを読み取れないことを意味する。したがって、このような場合においては、1/200(ms)よりも高速なシャッター速度(すなわち短い露光時間)に設定するのが望ましい。そして、一般的な倉庫の照度の下でこのシャッター速度において許容され得る最小のISO感度である400をその下限値とすることが望ましい。
 以上から、本実施形態においてデフォルトISO感度を400以上3200以下とする。
 次に、図6を参照して、第1モードでの重畳画面表示処理について説明する。図6は、第1モードでの重畳画面表示処理のフローチャートである。重畳画面表示処理は、スマートグラス110が重畳画面150を表示する処理である。CPU111は、通信インタフェース117を制御して、予め、サーバ130からピッキングリストを取得しているものとする。
 S101において、CPU111は、現在のカメラ112の設定に対応する露出値を算出する。第1モードのとき、カメラ112のF値はデフォルトF値であり、カメラ112のISO感度はデフォルトISO感度であるとする。また、S101において、カメラ112のシャッター速度は、所定のシャッター速度に設定されているものとする。このとき、CPU111は、露出計114から取得する被写体の輝度と、デフォルトISO感度と、式(11)とに基づいて、露出値を算出する。CPU111は、仮の適正露出値を、算出した露出値と決定する。
 適正露出値とは、スマートグラス110の使用環境に応じて定まる適正な露出値である。CPU111は、S102からS106までの処理によって露出補正を行い、適正露出値を決定する。
 S102において、CPU111の撮影制御に基づいて、カメラ112は、撮影を行って試し撮り画像を生成する。CPU111は、試し撮り画像を取得する。なお、試し撮り画像とは、例えばデジタルカメラやスマートデバイスのカメラ機能を利用して静止画像や動画像を撮影しようとした場合、カメラ機能をオンにして被写体にカメラをかざすとCCD撮像素子等を介して捉えられた被写体の画像がデジタルカメラやスマートデバイスのディスプレイに表示されるが、これは試し撮り画像の一例である。
 S103において、CPU111は、直近に取得した試し撮り画像の視覚的特性を示す指標値を決定する。
 CPU111は、試し撮り画像について、輝度信号レベルを積分して輝度レベルを平均化した値を指標値とする。また、CPU111は、試し撮り画像について、画面の中央部に重み付けしたうえで輝度信号レベルを積分した値を指標値としてもよい。また、CPU111は、試し撮り画像について、画面を複数のエリアに分割してエリアごとに輝度信号レベルを積分して決定される値を指標値としてもよい。また、CPU111は、試し撮り画像について、輝度信号レベルのヒストグラムに基づいて決定される値を指標値としてもよい。なお、輝度信号のヒストグラムに基づいて露出補正が行われる構成としては、例えば特開平2-250472に開示されている。
 S104において、CPU111は、直近のS103で決定された指標値が予め設定された適正な所定の範囲に含まれるか否かを判定する。CPU111は、直近のS103で決定された指標値が所定の範囲に含まれるとき処理をS106に進め、含まれないとき処理をS105に進める。
 S104で使われる所定の範囲は、例えば、カメラ112が、事前に適正な露出状態で撮影されたサンプル画像から決定される指標値に基づくものでもよい。サンプル画像、及び、試し撮り画像は、同一または類似の被写体を写したものであることが好ましい。被写体の例として、段ボールにQRコードが貼り付けられたボード等が挙げられる。なお、このボードは被写体の一例であり、必ずしもQRコードが含まれている必要があるわけではなく、各作業場所における被写体の特性に応じて任意に決めることができる。S104で使われる所定の範囲は、サンプル画像から決定される指標値を中心とした所定の大きさの範囲とする。
 S105において、CPU111は、カメラ112の露出値を1段上げたり1段下げたりして、カメラ112の露出値を変更する。CPU111は、例えば、カメラ112のシャッター速度を変更することで、カメラ112の露出値を変更する。このとき、CPU111は、F値(N)をデフォルトF値とし、変更後の露出値をEV値として、式(5)、(6)、(10)から算出されるシャッター速度(t)を用いて試し撮り画像を撮影するように、カメラ112を設定する。CPU111は、仮の適正露出値を、変更後の露出値と決定する。その後、CPU111は、処理をS102に戻す。
 S106において、CPU111は、正式な適正露出値を、直近に決定した仮の適正露出値に決定する。
 なお、CPU111は、サンプル画像に基づく最適な指標値(最適指標値)を予め記憶装置115に記憶しておき、段階的に露出値を変更して撮影された試し撮り画像から算出される指標値の中で最も最適指標値に近い試し撮り画像が撮影されたときの露出値を適正露出値と決定してもよい。
 S107において、CPU111は、デフォルトF値、被写体の輝度、シャッター速度、及び、ISO感度に対応する露出値が、S106で決定された適正露出値になる、という条件を満たすシャッター速度、及び、ISO感度を決定する。次に、シャッター速度、及び、ISO感度の決定方法について説明する。
 まず、第1の決定方法について説明する。CPU111は、ISO感度をデフォルトISO感度と決定する。また、CPU111は、デフォルトF値、及び、適正露出値に基づいて、シャッター速度を決定する。より具体的には、CPU111は、デフォルトF値(N)、及び、式(5)からAV値を算出する。次に、CPU111は、適正露出値を代入したEV値、算出したAV値、及び、式(10)からTV値を算出し、式(6)からシャッター速度(t)を決定する。
 次に、第2の決定方法について説明する。CPU111は、ISO感度をデフォルトISO感度と決定する。また、CPU111は、デフォルトISO感度、及び、適正露出値に基づいて被写体の輝度を決定し、決定された被写体の輝度、デフォルトISO感度、及び、デフォルトF値に基づいてシャッター速度を決定する。より具体的には、CPU111は、デフォルトISO感度(S)、及び、式(8)からSV値を算出する。次に、CPU111は、適正露出値を代入したEV値、算出したSV値、及び、式(11)からBV値を算出し、式(7)から被写体の輝度(L)を算出する。ここで算出される被写体の輝度(L)は、試し撮り画像を撮影したときの被写体の輝度である。次に、CPU111は、算出した被写体の輝度(L)、デフォルトISO感度(S)、デフォルトF値(N)、及び、式(1)からシャッター速度(t)を決定する。
 なお、図6のS102では、デフォルトF値、デフォルトISO感度、及び、式(1)を満たすシャッター速度で撮影が行われる。したがって、処理がS107に進んだとき、CPU111は、直近のS102の撮影で使われたシャッター速度を以降の撮影で使うシャッター速度と決定してもよい。
 次に、第3の決定方法について説明する。第1の決定方法、及び、第2の決定方法では、ISO感度をデフォルトISO感度とするものであるが、第3の方法ではISO感度をデフォルトISO感度以外の値にできる。
 まず、CPU111は、適正露出値、及び、デフォルトISO感度に基づいて被写体の輝度を決定する。より具体的には、CPU111は、デフォルトISO感度、及び、式(8)からSV値を算出する。次に、CPU111は、適正露出値を代入したEV値、算出したSV値、及び、式(11)からBV値を算出し、式(7)から被写体の輝度(L)を算出する。ここで算出される被写体の輝度(L)は、試し撮り画像を撮影したときの被写体の輝度である。次に、CPU111は、算出した被写体の輝度(L)、デフォルトF値(N)、及び、次の式(12)から、Cを算出する。次に、CPU111は、式(13)を満たすように、シャッター速度(t)、及び、ISO感度(S)を決定する。
 C=(K・N^2)/L ・・・ (12)
 t=C/S ・・・ (13)
 ここで、式(12)、式(13)について説明する。式(1)は、次のように変形できる。
 t=(1/S)×(K・N^2)/L ・・・ (14)
 ここで、Cを式(12)で定義すると、式(14)から式(13)が得られる。Cに含まれるNはデフォルトF値、Lは適正露出値に対して定まる輝度であり、第3の決定方法で決定される被写体の輝度Lである。したがって、Cは定数となる。
 このように、Cは定数であるから、式(13)においてISO感度(S)とシャッター速度(t)のいずれか一方の値が定まれば、他方の値が定まる。また、ISO感度の値としては、上述のとおり、400以上3200以下(適正ISO範囲と呼ぶ)であることが好ましい。
 第3の決定方法を使う際、設定可能なISO感度の値を適正ISO範囲内で段階的(例えば、ISO感度を400、800、1600、3200)に用意しておき、画質を優先してできるだけ低いISO感度を選択する画質優先モード、シャッター速度の高速な設定を優先してできるだけ高いISO感度を選択する読み取りモード、及び、用意されているISO感度のうち中間に近い値を選択するバランスモード等、複数の設定モードを用意しておく。また、ユーザは設定モードを選択し、CPU111は、選択された設定モードの情報は記憶装置115に記憶する。
 そして、CPU111は、設定モードに対応するISO感度(S)と、算出した定数Cと、式(12)とから、シャッター速度(t)を決定する。例えば、画質優先モードが選択されている場合、CPU111は、ISO感度(S)を、設定可能なISO感度のうち最小値と決定し、シャッター速度(t)を、選択されたISO感度に対応する値「C/S」と決定する。
 なお、ここでは設定可能なISO感度の値を段階的に用意しておく構成を例に説明したが、適正ISO範囲内で任意の値を設定できる構成であってもよく、特に限定はされない。
 一般的なオートエクスポージャー機能のプログラム制御は、撮影シーンに応じ、絞りとシャッター速度の組み合わせについてプログラムにより自動で決定するものであるが、AR画像を利用した倉庫作業支援においては、安定的にAR画像を重畳表示させる(すなわち、安定的にQRコードを読み取る)ことができると共に、スマートグラス等を介して作業者に提示される画質のバランスが重要となる。すなわち、いくら安定的に画像を読み取れたとしても、作業者はスマートグラスを介した画像を見ながら作業を行う必要があり、劣悪な画質を長時間目にしながら作業を続けることは苦痛に耐えない。また、同じ画質であっても苦痛に感じるか否かは個々の作業者の主観にもよるため、ISO感度とシャッター速度の組み合わせを柔軟かつ容易に設定できることが好ましい。
 第1から第3までの決定方法で決定されたシャッター速度、及び、ISO感度で撮影することで、光量が異なる環境であっても、人間がストレスを感じることなく視認でき、かつ、CPU111によって行われるマーカ210の認識が可能な撮影画像151が撮影できるようになる。
 S108において、CPU111は、第1モードの撮影条件を設定する。より具体的には、CPU111は、デフォルトF値、並びに、S108で決定されたシャッター速度、及び、ISO感度を用いてカメラ112が撮影するように、カメラ112を設定する。
 S109において、CPU111の撮影制御に基づいて、カメラ112は、撮影を行って撮影画像151を生成する。
 S110において、CPU111は、S109で生成された撮影画像151からマーカ210を認識する。
 S111において、CPU111は、図4を参照して説明した重畳画面150をディスプレイ113に表示させる表示制御を行う。このとき、CPU111は、S110で認識されたマーカ210の識別IDが、ピッキングリストに含まれるか否かに基づいて、このマーカ210に対応するAR画像152を変更する。より具体的には、CPU111は、S110で認識されたマーカ210の識別IDが、ピッキングリストに含まれるとき、このマーカ210に対応するAR画像152を第1AR画像152aとする。また、CPU111は、S110で認識されたマーカ210の識別IDが、ピッキングリストに含まれないとき、このマーカ210に対応するAR画像152を第2AR画像152bとする。
 その後、CPU111は、処理をS109に戻す。なお、CPU111は、処理をS101に戻してもよい。また、CPU111は、所定時間ごと、又は、倉庫の光量が変化したとき等の所定の条件を満たすときに、処理をS101に戻してもよい。
 以上が、第1モードでの重畳画面表示処理である。
[動作モード:第2モード]
 次に、スマートグラス110が備える動作モードに含まれる第2モードについて説明する。第2モードは、マーカ210として、色の配列により情報を記憶させるカラーコード(色彩変化識別子)が使われる際に、カラーコードであるマーカ210の認識に適した動作モードである。上記のカラービットは、カラーコードの例である。
 第2モードは、例えば、スマートグラス110が、ピッキング対象の物品200が保管された場所に作業者10を案内する際に使われる。スマートグラス110が作業者10を案内する際、スマートグラス110は、ピッキング対象の物品200が保管された棚をカメラ112が撮影すると、重畳画面150に、ピッキング対象の物品200が保管された棚である旨を示すAR画像を撮影画像151に重畳して表示する。
 棚には、通路側にカラーコードが付されているものとする。
 次に、第2モードのシャッター速度について説明する。第2モードのシャッター速度には、第1モードとは異なり、デフォルトシャッター速度が使われる。デフォルトシャッター速度は、カラーコードの撮影に適した所定のシャッター速度であり、例えば、スマートグラス110が備えるOSやアプリケーションで定義されている(あるいはユーザが設定した)予め定められたシャッター速度や、スマートグラス110が備えるAE(オートエクスポージャー)機能で得られるシャッター速度である。デフォルトF値やデフォルトISO感度もデフォルトシャッター速度に応じて第2モードに適した値が設定される。第2モードにおけるデフォルトシャッター速度、デフォルトF値やデフォルトISO感度は、例えば、記憶装置115に記憶されている。
 次に、第2モードでの重畳画面表示処理について説明する。ここでは、図6に示す第1モードでの重畳画面表示処理と異なる点を中心に説明する。
 第2モードでは、図6のS101からS108までの代わりに、CPU111は、第2モードのための撮影条件を設定する処理を行う。より具体的には、CPU111は次の処理を行う。まず、CPU111は、記憶装置115又はサーバ130等から、第2モードにおけるデフォルトF値、デフォルトISO感度、及び、デフォルトシャッター速度を取得する。次に、CPU111は、デフォルトF値、デフォルトISO感度、及び、デフォルトシャッター速度を用いてカメラ112が撮影するように、カメラ112を設定する。
 S111において、CPU111は、図4を参照して説明した重畳画面150をディスプレイ113に表示する制御を行う。このとき、CPU111は、撮影画像151にピッキング対象の物品200が保管された棚が写っているとき、ピッキング対象の物品200が保管された棚である旨を示すAR画像を、撮影画像151に写された棚に重畳して表示する。
[動作モード:第3モード]
 次に、スマートグラス110が備える動作モードに含まれる第3モードについて説明する。第3モードは、一度に多数のマーカ210を認識する際に使われる動作モードである。第3モードは、例えば、一つの物品200に多数のマーカ210が付されているときや、マーカ210が付された物品200が大量に入庫された場合の入庫受入れ登録のときに、多数のマーカ210をスキャンするために使われる。
 次に、第3モードのシャッター速度について説明する。第3モードのシャッター速度には、第1モードでCPU111が決定するシャッター速度より速いシャッター速度が使われる。第3モードのシャッター速度は、CPU111が撮影画像151からマーカ210を認識できる、という条件の下で、最も速いシャッター速度とすることが望ましい。デフォルトF値やデフォルトISO感度もデフォルトシャッター速度に応じて第3モードに適した値が設定される。第3モードのシャッター速度、デフォルトF値やデフォルトISO感度は、記憶装置115に記憶されていてもよく、スマートグラス110がサーバ130等から取得してもよい。
 このように、第3モードのシャッター速度は、第1モードでCPU111が決定するシャッター速度より速い。したがって、多数のマーカ210をスキャンするために、作業者10が素早くカメラ112を動かしても、カメラ112が撮影した撮影画像151からCPU111がマーカ210を認識できる。特にマーカ210が白黒であるとき、CPU111は色を判別する必要がなく色の濃淡からマーカ210を認識できるため、シャッター速度が速くてもCPU111はマーカ210を精度よく認識できる。また、シャッター速度が速いことから、必ずしも人間による視認に適した撮影画像151とならないため、本実施形態の第3モードでは、撮影画像151を用いた重畳画面150の表示は行われない。
 次に、第3モードでのマーカ認識処理について説明する。
 第3モードでのマーカ認識処理では、重畳画面150をディスプレイ113に表示する制御は行われず、CPU111は、カメラ112が撮影した撮影画像からマーカ210を認識する処理を行う。
 まず、CPU111は、第3モードの撮影条件を設定する。より具体的には、CPU111は次の処理を行う。まず、CPU111は、記憶装置115又はサーバ130等から、第3モードのデフォルトF値、デフォルトISO感度、及び、シャッター速度を取得する。次に、CPU111は、第3モードのデフォルトF値、デフォルトISO感度、及び、シャッター速度でカメラ112が撮影するように、カメラ112を設定する。
 次に、CPU111の撮影制御に基づいて、カメラ112は、撮影を行って撮影画像151を生成する。
 次に、CPU111は、撮影画像151からマーカ210を認識し、認識の結果をディスプレイ113に表示させたり、サーバ130に送ったりする。
 以上が、第3モードのマーカ認識処理である。CPU111は、この第3モードのマーカ認識処理を繰り返す。
[動作モードの変更]
 次に、動作モードの変更について説明する。
 CPU111は、作業者10等のユーザによる入力を受け付ける入力装置が受け付けた操作に基づいて、動作モードを変更してもよい。入力装置は受付手段の例である。また、CPU111は、第1モードのときに、撮影画像151からのマーカ210の認識に失敗したときに第2モードに変更してもよい。すなわち、CPU111は、アプリケーションプログラムによるカラーコードの読取処理を実行しようとして認識できなかった場合に出力されるエラーコード等に基づいて、カラーコードの読取に適したシャッター速度の設定である第2モードに変更してもよい。
 また、スマートグラス110の処理に、作業者10を作業対象の棚に案内する第1フェーズと、作業者10によるピッキングの作業をチェックする第2フェーズとがあり、第1フェーズでは棚に貼られたカラーコードを読み取る必要があり、第2フェーズでは商品等に貼られたQRコードを読み取る必要があるとする。このとき、CPU111は、例えば、作業者10によるマイク116に対する音声入力によって第1フェーズか第2フェーズかを判別できる。より具体的には、情報処理システム100において予め定められた音声入力項目に基づいて、作業者10が「行きます!」というような音声入力を行えば、CPU111は作業場所への案内が必要な第1フェーズであると判別し、作業者10が棚に到着した場合に「作業場所到着!」と言うような音声入力を行えば、CPU111は、第1フェーズが終了し、第2フェーズであることが判別できる。そこで、CPU111は、第1フェーズと判別したときは第1モードにして、第2フェーズと判別したときは第2モードに変更してもよい。
 また、CPU111は、所定数以上の白黒のマーカ210を認識したとき、第3モードに変更してもよい。
[効果]
 以上説明したように、第1モードのとき、CPU111は、デフォルトF値、被写体の輝度、シャッター速度、及び、ISO感度に対応する露出値が所定の露出値になる、という条件を満たすシャッター速度、及び、ISO感度を決定する。そして、CPU111は、デフォルトF値、並びに、CPU111によって決定されたシャッター速度、及び、ISO感度を用いて撮影された撮影画像から、対象物を認識する。よって、CPU111は、撮影画像151について特別な処理をすることなく、撮影画像151からマーカ210を認識できる。したがって、CPU111の処理負荷が過大になることがない。このため、レスポンスの遅延を防止して、安定してAR画像152を表示できる。
 また、第1モードのとき、CPU111は、上記の第1から第3までのいずれかの決定方法で、シャッター速度、及び、ISO感度を決定する。よって、撮影画像151は、人間の視認に適しており、同時に、CPU111によるマーカ210の認識に適したものとなる。したがって、スマートグラス110は、人間の視認に適した撮影画像151を含んだ重畳画面150を表示でき、AR画像152の表示漏れを抑制できる。ディスプレイ113は、光学シースルー型であっても、AR画像152の表示漏れを抑制できるという効果を奏する。
 また、デフォルトISO感度は、400以上3200以下である。よって、図5を参照して説明したように、CPU111の負荷の増大を抑制でき、さらに、撮影画像151にノイズが発生することを抑制できる。また、表1を参照して説明したように、CPU111は安定してマーカ210を認識できる。
 また、スマートグラス110は、第1モードを含む複数の動作モードを有する。したがって、CPU111は、使用環境や使用目的等に応じて適切に撮影画像151からマーカ210を認識できる。
 特に動作モードには第2モードが含まれる。したがって、第2モードにすることで、マーカ210がカラーコードであっても、CPU111は、撮影画像151から適切にマーカ210を認識できる。
 さらに、動作モードには第3モードが含まれる。したがって、第3モードにすることで、特に白黒のマーカ210が大量にある場合でも、CPU111は、多数のマーカ210をスキャンできる。
[その他の実施形態]
 動作モードには第1モードがあればよく、第2モードや第3モードは無くてもよい。また、動作モードには、第2モードや第3モード以外のモードが含まれていてもよい。
 また、各動作モードのデフォルトF値、及び、デフォルトISO感度、並びに、第2モードや第3モードのシャッター速度は、作業者10等のスマートグラス110のユーザが設定可能であってもよい。
 また、図6に示す処理は、スマートグラス110が1台で実行する構成に限定されるものではなく、複数の情報処理装置で分散して実行されてもよい。例えば、スマートグラス110は、撮影画像151の撮影、及び、重畳画面150の表示のみを行い、その他の処理は、サーバ130等の他の情報処理装置で実行してもよい。このとき、スマートグラス110とサーバ130等とは、通信インタフェース117を介してデータの送受信を行うことで、図6に示す処理が実現される。
 また、情報処理システム100を構成するスマートグラス110の代わりに、スマートフォンやタブレット端末等の他の情報処理装置を用いてもよい。
 また、デフォルトISO感度は、カメラ112のシャッター速度を最速にして撮影した撮影画像151からCPU111がマーカ210を認識できるようなISO感度であってもよい。
 本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
 なお、上記の実施形態を任意に組み合わせて実施してもよい。

Claims (20)

  1.  デフォルトF値、被写体の輝度、シャッター速度、及び、ISO感度に対応する露出値が所定の露出値になる、という条件を満たす前記シャッター速度、及び、前記ISO感度を決定する第1決定手段と、
     前記デフォルトF値、並びに、前記第1決定手段によって決定された前記シャッター速度、及び、前記ISO感度を用いて撮影された撮影画像から、対象物を認識する認識手段と、
    を有する情報処理装置。
  2.  露出値を変えながら撮影された試し撮り画像を取得する第1取得手段と、
     前記所定の露出値を、視覚的特性を示す指標値が所定の範囲に含まれるという条件を満たす前記試し撮り画像を撮影したときの露出値と決定する第2決定手段と、を更に有する請求項1記載の情報処理装置。
  3.  前記第1決定手段は、
     前記ISO感度をデフォルトISO感度と決定し、
     前記デフォルトF値、及び、前記所定の露出値に基づいて前記シャッター速度を決定する請求項1又は2記載の情報処理装置。
  4.  前記第1決定手段は、
     前記ISO感度をデフォルトISO感度と決定し、
     前記デフォルトISO感度、及び、前記所定の露出値に基づいて被写体の前記輝度を決定し、
     決定された被写体の前記輝度、前記デフォルトISO感度、及び、前記デフォルトF値に基づいて前記シャッター速度を決定する請求項1又は2記載の情報処理装置。
  5.  前記第1決定手段は、
     前記所定の露出値、及び、デフォルトISO感度に基づいて被写体の前記輝度を決定し、
     前記シャッター速度、及び、前記ISO感度を次の式を満たすように決定する請求項1又は2記載の情報処理装置。
     K=L・t・S/N^2
      K:定数
      L[cd/m^2]:前記第1決定手段によって決定される被写体の輝度
      t[sec]:シャッター速度
      S[-]:ISO感度
      N[-]:デフォルトF値
  6.  前記デフォルトISO感度は、400以上3200以下である請求項3乃至5何れか1項記載の情報処理装置。
  7.  前記デフォルトF値、並びに、前記第1決定手段によって決定された前記シャッター速度、及び、前記ISO感度を用いて撮影を行うように撮影装置を制御する撮影制御手段を更に有する請求項1乃至6何れか1項記載の情報処理装置。
  8.  表示装置に対して、前記認識手段によって認識された前記対象物に対応する仮想画像を前記撮影画像に重畳して表示させる制御を行う表示制御手段を更に有する請求項1乃至7何れか1項記載の情報処理装置。
  9.  前記対象物を含む現実空間の像を透過して表示する表示装置に対して、前記認識手段によって認識された前記対象物に対応する仮想画像を前記現実空間の像に重畳して表示させる制御を行う表示制御手段を更に有する請求項1乃至7何れか1項記載の情報処理装置。
  10.  前記対象物を表す情報の一覧を取得する第2取得手段を更に有し、
     前記表示制御手段は、前記認識手段によって認識された前記対象物が、前記一覧に含まれるか否かに基づいて、前記対象物に対応する前記仮想画像を変更する請求項8又は9記載の情報処理装置。
  11.  前記表示制御手段は、前記対象物に対応する前記仮想画像が前記対象物と重畳するように、前記仮想画像を表示する制御を行う請求項8乃至10何れか1項記載の情報処理装置。
  12.  前記対象物は、光学読取式のコードである請求項1乃至11何れか1項記載の情報処理装置。
  13.  第1モードを含む複数の動作モードを有し、
     前記認識手段は、
     前記第1モードのとき、前記第1決定手段によって決定された前記シャッター速度、及び、前記ISO感度を用いて撮影された前記撮影画像から、前記対象物を認識し、
     前記動作モードが前記第1モード以外のとき、前記動作モードに応じたF値、前記ISO感度、及び、前記シャッター速度を用いて撮影された前記撮影画像から、前記対象物を認識する請求項1乃至12何れか1項記載の情報処理装置。
  14.  前記動作モードには第2動作モードが含まれ、
     前記認識手段は、前記第2動作モードのとき、第2デフォルトF値、第2デフォルトISO感度、及び、デフォルトシャッター速度を用いて撮影された前記撮影画像から、前記対象物を認識する請求項13記載の情報処理装置。
  15.  前記動作モードには第3動作モードが含まれ、
     前記認識手段は、前記第3動作モードのとき、第3デフォルトF値、第3デフォルトISO感度、及び、前記第1決定手段によって決定される前記シャッター速度より速い前記シャッター速度を用いて撮影された前記撮影画像から、前記対象物を認識する請求項13又は14記載の情報処理装置。
  16.  前記認識手段による認識の結果に基づいて、前記動作モードを変更する変更手段を更に有する請求項13乃至15何れか1項記載の情報処理装置。
  17.  操作を受け付ける受付手段が受け付けた操作に基づいて、前記動作モードを変更する変更手段を更に有する請求項13乃至15何れか1項記載の情報処理装置。
  18.  デフォルトF値、被写体の輝度、シャッター速度、及び、ISO感度に対応する露出値が所定の露出値になる、という条件を満たす前記シャッター速度、及び、前記ISO感度を決定する第1決定ステップと、
     前記デフォルトF値、並びに、前記第1決定ステップによって決定された前記シャッター速度、及び、前記ISO感度を用いて撮影された撮影画像から、対象物を認識する認識ステップと、
    を有する情報処理方法。
  19.  コンピュータを請求項1乃至17何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。
  20.  コンピュータを、
     デフォルトF値、被写体の輝度、シャッター速度、及び、ISO感度に対応する露出値が所定の露出値になる、という条件を満たす前記シャッター速度、及び、前記ISO感度を決定する第1決定手段、及び
     前記デフォルトF値、並びに、前記第1決定手段によって決定された前記シャッター速度、及び、前記ISO感度を用いて撮影された撮影画像から、対象物を認識する認識手段、
    として機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2018/012727 2017-04-06 2018-03-28 情報処理装置、情報処理方法、プログラム、及び、記録媒体 WO2018186255A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/330,718 US10922545B2 (en) 2017-04-06 2018-03-28 Information processing device, information processing method, and recording medium
JP2019511182A JPWO2018186255A1 (ja) 2017-04-06 2018-03-28 情報処理装置、情報処理方法、プログラム、及び、記録媒体
CN201880003631.5A CN109715528B (zh) 2017-04-06 2018-03-28 信息处理装置、信息处理方法、以及记录介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-075968 2017-04-06
JP2017075968 2017-04-06

Publications (1)

Publication Number Publication Date
WO2018186255A1 true WO2018186255A1 (ja) 2018-10-11

Family

ID=63713020

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012727 WO2018186255A1 (ja) 2017-04-06 2018-03-28 情報処理装置、情報処理方法、プログラム、及び、記録媒体

Country Status (4)

Country Link
US (1) US10922545B2 (ja)
JP (1) JPWO2018186255A1 (ja)
CN (1) CN109715528B (ja)
WO (1) WO2018186255A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112122139B (zh) * 2019-06-25 2023-12-05 北京京东振世信息技术有限公司 头戴式辅助拣货的装置以及拣货方法
US11099402B2 (en) * 2019-10-25 2021-08-24 Microsoft Technology Licensing, Llc Dynamically changing a fiducial marker for IoT device identification
IT202100008363A1 (it) * 2021-04-02 2022-10-02 Maurizio Cucchi Metodo di codificazione delle cassette per istopatologia

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546244A (ja) * 1991-08-20 1993-02-26 Meidensha Corp 無人搬送車の光誘導装置
JPH11331688A (ja) * 1998-05-19 1999-11-30 Minolta Co Ltd デジタルカメラ
JP2004196439A (ja) * 2002-12-16 2004-07-15 Fuji Photo Film Co Ltd 在庫管理システム
JP2012103789A (ja) * 2010-11-08 2012-05-31 Ntt Docomo Inc オブジェクト表示装置及びオブジェクト表示方法
JP2014043353A (ja) * 2013-12-10 2014-03-13 Okura Yusoki Co Ltd ピッキングシステム
JP2014122075A (ja) * 2012-06-29 2014-07-03 Toyo Kanetsu Solutions Kk 物品のピッキング作業の支援システム
JP2014127151A (ja) * 2012-12-27 2014-07-07 Sony Computer Entertainment Inc 情報処理装置、情報処理システム、および情報処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2035304B1 (en) * 2006-06-26 2011-02-23 Novartis AG Method for singulating ophthalmic lenses
CN101563700B (zh) * 2006-12-21 2011-10-12 国际商业机器公司 不可视代码印字辅助系统中的仿真用参数的取得方法及其系统
MY173040A (en) * 2010-03-30 2019-12-20 Ns Solutions Corp Information processing apparatus, system, vacant space guidance method and program
JP5512378B2 (ja) 2010-04-28 2014-06-04 株式会社Nttドコモ オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
JP2014122076A (ja) 2012-12-20 2014-07-03 Mitsubishi Electric Building Techno Service Co Ltd エレベータ
JP6420669B2 (ja) 2015-01-09 2018-11-07 サトーホールディングス株式会社 ピッキング作業支援システム、ピッキング作業支援方法、及びピッキング作業支援プログラム
US20180057262A1 (en) * 2015-03-18 2018-03-01 Nec Corporation Information processing apparatus, ordering support method, and support method
US20170332009A1 (en) * 2016-05-11 2017-11-16 Canon Canada Inc. Devices, systems, and methods for a virtual reality camera simulator
JP7285778B2 (ja) * 2016-12-23 2023-06-02 マジック リープ, インコーポレイテッド コンテンツ捕捉デバイスのための設定を決定するための技法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546244A (ja) * 1991-08-20 1993-02-26 Meidensha Corp 無人搬送車の光誘導装置
JPH11331688A (ja) * 1998-05-19 1999-11-30 Minolta Co Ltd デジタルカメラ
JP2004196439A (ja) * 2002-12-16 2004-07-15 Fuji Photo Film Co Ltd 在庫管理システム
JP2012103789A (ja) * 2010-11-08 2012-05-31 Ntt Docomo Inc オブジェクト表示装置及びオブジェクト表示方法
JP2014122075A (ja) * 2012-06-29 2014-07-03 Toyo Kanetsu Solutions Kk 物品のピッキング作業の支援システム
JP2014127151A (ja) * 2012-12-27 2014-07-07 Sony Computer Entertainment Inc 情報処理装置、情報処理システム、および情報処理方法
JP2014043353A (ja) * 2013-12-10 2014-03-13 Okura Yusoki Co Ltd ピッキングシステム

Also Published As

Publication number Publication date
US10922545B2 (en) 2021-02-16
CN109715528A (zh) 2019-05-03
CN109715528B (zh) 2021-04-09
US20200042791A1 (en) 2020-02-06
JPWO2018186255A1 (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
KR102306304B1 (ko) 듀얼 카메라 기반 이미징 방법과 장치 및 저장 매체
JP6911192B2 (ja) 画像処理方法、装置および機器
JP6946188B2 (ja) 複数技術奥行きマップ取得および融合のための方法および装置
US8786718B2 (en) Image processing apparatus, image capturing apparatus, image processing method and storage medium
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
JP6553624B2 (ja) 計測機器、及びシステム
CN111107276B (zh) 信息处理设备及其控制方法、存储介质以及摄像系统
WO2018186255A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、記録媒体
WO2019105254A1 (zh) 背景虚化处理方法、装置及设备
JP5882789B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN110708463B (zh) 对焦方法、装置、存储介质及电子设备
CN108053438A (zh) 景深获取方法、装置及设备
JP2020187065A (ja) 電子機器及びその制御方法、プログラム
CN106791760B (zh) 用于相机的色温检测、调节白平衡的方法、装置及相机
JP2014011639A (ja) 撮像装置
EP3442218A1 (en) Imaging apparatus and control method for outputting images with different input/output characteristics in different regions and region information, client apparatus and control method for receiving images with different input/output characteristics in different regions and region information and displaying the regions in a distinguishable manner
JP6561479B2 (ja) 色シェーディング補正が可能な撮像装置
CN114697629B (zh) 一种白平衡处理方法、装置、存储介质及终端设备
JP7361546B2 (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
US20230196517A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer readable medium
EP3920526A1 (en) Processing apparatus, image pickup apparatus, and processing method
JP2011147076A (ja) 画像処理装置、撮像装置およびプログラム
JP5604980B2 (ja) 赤目判定装置、および、赤目判定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18781837

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019511182

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18781837

Country of ref document: EP

Kind code of ref document: A1