WO2020095551A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2020095551A1
WO2020095551A1 PCT/JP2019/036948 JP2019036948W WO2020095551A1 WO 2020095551 A1 WO2020095551 A1 WO 2020095551A1 JP 2019036948 W JP2019036948 W JP 2019036948W WO 2020095551 A1 WO2020095551 A1 WO 2020095551A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition
information processing
recognition target
processing apparatus
display
Prior art date
Application number
PCT/JP2019/036948
Other languages
English (en)
French (fr)
Inventor
伊藤 智行
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2020095551A1 publication Critical patent/WO2020095551A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program. More specifically, the present invention relates to a technique for presenting an image to a user to facilitate the user's self-position estimation.
  • Patent Document 1 describes a technique of estimating the user's self-position by extracting feature points of landmarks from an image captured by a camera and performing pattern matching.
  • Patent Document 1 the user has to find a predetermined landmark, and it may be difficult to search for the landmark depending on the current situation of the user. In addition, if the area for recognizing the landmark is large, the processing load may increase.
  • the present technology provides, for example, an information processing device, an information processing method, and a program that can easily estimate the user's self-position with a low load.
  • an information processor concerning one form of this art has a control part.
  • the control unit has a display control unit, a recognition processing unit, and a self-position estimation unit.
  • the display control unit controls the display unit to display a recognition target image including a recognition target and a guide image indicating a recognition region for recognizing the recognition target.
  • the recognition processing unit executes a recognition process of recognizing the recognition target in the recognition area.
  • the self-position estimation unit estimates the self-position of the information processing device based on the result of the recognition process.
  • the recognition processing unit does not recognize the entire display area displayed on the display unit, but the recognition area is limited, so that the processing load can be reduced.
  • the “self position” includes the position of the information processing device (user) and the visual field direction (direction in which the user is facing), and the “self position estimation” is the position of the information processing device (user). And means to estimate both the viewing direction.
  • the self-position estimation unit may construct a map in which the image data of the recognition target recognized by the recognition processing unit and the position information of the recognition target are associated with each other.
  • the self-position estimating unit may delete image data of a part of the plurality of recognition targets when the same recognition target exists in a predetermined area of the map.
  • the recognition processing unit may calculate the feature amount of the recognition target, and may recognize the recognition target when an error between the feature amount and the previously registered feature amount of the recognition target is equal to or less than a predetermined threshold value. ..
  • the recognition processing unit calculates a feature amount of a recognition target as the recognition processing
  • the self-position estimation unit may estimate the self-position of the information processing device when an error between the calculated feature amount and the recognized feature amount of the recognition target is equal to or less than a predetermined threshold. ..
  • the recognition processing unit may calculate a two-dimensional feature amount or a three-dimensional feature amount of a recognition target as the feature amount.
  • the display control unit may determine the recognition target image displayed on the display unit according to the situation of the information processing apparatus.
  • the display control unit may select a plurality of recognition target image candidates displayed on the display unit based on the current position of the information processing device and the map.
  • the display control unit displays, for each of the selected plurality of recognition target images, based on the position information of the recognition target in the map, the image data of the recognition target, and the situation of the information processing device.
  • the priority order may be set.
  • the display control unit may determine the recognition target image displayed on the display unit based on the priority order.
  • the display control unit may control the display position of the guide image displayed on the display unit according to the situation of the information processing device.
  • the display control unit may determine the display position of the guide image displayed on the display unit based on the priority order.
  • the display control unit may correct the deviation between the recognition position of the recognition processing unit with respect to the recognition target and the recognition position of the user with respect to the recognition target.
  • the display control unit may associate the display position of the guide image displayed on the display unit with the recognition area.
  • the display control unit may calculate the recognition area based on the display position of the guide image presented to the user via the display unit, and determine the recognition area from the calculation result.
  • the information processing device A recognition target image including a recognition area and a guide image showing the recognition area for recognizing the recognition target are displayed on the display unit. A recognition process for recognizing the recognition target in the recognition area is executed. The self-position of the information processing device is estimated based on the result of the recognition process.
  • a program causes an information processing device to execute the following steps.
  • the self-position estimation system restores the user's self-position by presenting a characteristic image to the user when the user loses the self-position and having the user search for this image. It is a system to let.
  • AR Augmented Reality
  • FIG. 1 is a block diagram showing a configuration example of a self-position estimation system 100 according to this embodiment.
  • the self-position estimation system 100 includes a sensor unit unit 10, an information processing device 20, and a transmissive display 30.
  • the sensor unit unit 10 includes a camera 11, a GPS (Global Positioning System) 12, and an IMU (inertial measurement unit) 13.
  • GPS Global Positioning System
  • IMU intial measurement unit
  • the camera 11 is a digital camera or a video camera equipped with an image sensor such as a CCD (Charge Couple Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • the camera 11 is configured to be capable of generating an image captured at a predetermined frame rate, for example, and outputs the image data to the information processing device 20 (self-position estimation unit 211 and recognition processing unit 212).
  • the camera 11 may have an optical lens such as a varifocal lens or a zoom lens, and may be configured so that the angle of view can be changed.
  • the self-position estimation system 100 of the present embodiment may be configured to have a sensor such as a laser scanner or a paramount instead of or in addition to the camera 11.
  • the GPS 12 measures the position of the user wearing the eyewear in three dimensions of longitude, latitude and altitude, and acquires position information regarding the current position of the user.
  • the GPS 12 outputs the acquired information about the current position of the user to the information processing device 20 (self-position estimation unit 211).
  • the IMU 13 is an inertial measurement device in which a gyro sensor, an acceleration sensor, a magnetic sensor, a pressure sensor, and the like are combined on multiple axes.
  • the IMU 13 is configured to be able to detect the acceleration and the angular velocity of the eyewear, and outputs these sensor data to the information processing device 20.
  • the information processing device 20 calculates the posture of the eyewear, the moving speed, the moving distance, and the like based on the acquired sensor data (angular velocity and acceleration of the eyewear).
  • the transmissive display 30 is a display configured such that the other side of the display can be seen through while displaying information on the display.
  • the transmissive display 30 is, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, and is controlled by the live view display based on the image data from the camera 11 and the display control unit 213.
  • the recognition target image I and the guide image G are displayed (see FIG. 7).
  • the transmissive display 30 is an example of the "display unit" in the claims.
  • the information processing device 20 executes self-position estimation processing, recognition processing, and display control based on the sensor data acquired from the sensor unit unit 10, and virtually superimposes the user wearing eyewear so as not to feel uncomfortable.
  • the object is displayed on the transmissive display 30.
  • the configuration of the information processing device 20 will be described below.
  • FIG. 2 is a block diagram showing a hardware configuration example of the information processing device 20.
  • the information processing device 20 includes a control unit 21 (CPU (Central Processing Unit)), a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203.
  • the CPU is an example of the "control unit" in the claims.
  • the information processing device 20 includes a host bus 204, a bridge 205, an external bus 206, an I / F unit 207, an input device 208, an output device 209, a storage device 210, a drive 216, a connection port 214, and a communication device 215. May be
  • the information processing device 20 is a processing circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array) instead of or together with the control unit 21 (CPU). May have.
  • DSP Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • the control unit 21 functions as an arithmetic processing unit and a control unit, and in accordance with various programs recorded in the ROM 202, the RAM 203, the storage device 210, or the removable recording medium 40, general operations in the information processing apparatus 20 or one of them. Control the department.
  • the ROM 202 stores programs used by the control unit 21 (CPU), calculation parameters, and the like.
  • the RAM 203 temporarily stores a program used in the execution of the control unit 21 (CPU), a parameter that appropriately changes in the execution, and the like.
  • the control unit 21 (CPU), the ROM 202, and the RAM 203 are connected to each other by a host bus 204 configured by an internal bus such as a CPU bus. Further, the host bus 204 is connected to an external bus 206 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 205.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 208 is a device operated by a user, such as a touch panel, a button, a switch, and a lever.
  • the input device 208 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an externally connected device that corresponds to the operation of the information processing device 20.
  • the input device 208 includes an input control circuit that generates an input signal based on the information input by the user and outputs the input signal to the control unit 21 (CPU). By operating the input device 208, the user inputs various data to the information processing device 20 and gives an instruction for processing operation.
  • the output device 209 is configured by a device capable of notifying the user of the acquired information by using senses such as sight, hearing, and touch.
  • the output device 209 can be, for example, an audio output device such as a speaker or headphones, or a vibrator.
  • the output device 209 may output the result obtained by the processing of the information processing device 20 as a video such as a text or an image, a voice such as voice or sound, or a vibration.
  • the storage device 210 is a device for data storage that is configured as an example of a storage unit of the information processing device 20.
  • the storage device 210 is composed of, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 210 stores, for example, programs executed by the control unit 21 (CPU), various data, and various data acquired from the outside. Further, the storage device 210 may be a cloud storage.
  • the drive 216 is a reader / writer for the removable recording medium 40 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in the information processing device 20 or attached externally.
  • the drive 216 reads the information recorded in the mounted removable recording medium 40 and outputs it to the RAM 203. In addition, the drive 216 writes a record in the mounted removable recording medium 40.
  • the connection port 214 is a port for connecting a device to the information processing device 20.
  • the connection port 214 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 214 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 215 is, for example, a communication interface including a communication device for connecting to the network N.
  • the communication device 215 can be, for example, a LAN (Local Area Network), Bluetooth (registered trademark), Wi-Fi, or WUSB (Wireless USB) communication card.
  • the communication device 215 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various kinds of communication.
  • the communication device 215 transmits / receives signals and the like to / from the Internet and other communication devices using a predetermined protocol such as TCP / IP.
  • the network N connected to the communication device 215 is a network connected by wire or wirelessly, and may include, for example, the Internet, a home LAN, infrared communication, radio wave communication or satellite communication.
  • the information processing device 20 (control unit 21) functionally includes a display control unit 213, a recognition processing unit 212, and a self-position estimation unit 211.
  • the display control unit 213 controls the display of the image displayed on the transmissive display 30 based on the outputs from the self-position estimation unit 211 and the recognition processing unit 212. Specifically, the display control unit 213 displays, on the transmissive display 30, a recognition target image I including a recognition target that is a target of image recognition, and a guide image G indicating a recognition region for image recognition of the recognition target. The image is displayed (see FIG. 7) and the display positions of the recognition target image I and the guide image G are controlled.
  • FIG. 3 is a schematic diagram showing that the recognition processing unit 212 for an arbitrary recognition target and the recognition position of the user are different
  • FIG. 4 is a diagram showing the image of the camera 11 and the display screen presented to the user together. is there.
  • a deviation may occur between the recognition position of the recognition processing unit 212 and the recognition position of the user with respect to the recognition target (Fig. 4). That is, the display position of the guide image G displayed on the transmissive display 30 may deviate from the recognition position (recognition area G1) where the recognition processing unit 212 recognizes the recognition target. If such a shift occurs, for example, an image in which a virtual superimposed object is superimposed at a position other than the position desired by the user may be presented to the user.
  • the display control unit 213 of the present embodiment performs a process of associating the display position of the guide image G displayed on the transmissive display 30 with the recognition area G1. Specifically, based on the display position of the guide image G1 displayed on the transmissive display 30, it is calculated which recognition position the display position corresponds to for the recognition processing unit 212. Then, the display control unit 213 determines the recognition area G1 based on this calculation result. Such calculation is calculated based on, for example, the angle of view of the camera 11, the relative position of the camera 11 to the transmissive display 30, and the relative position of the eye of the user wearing the eyewear to the transmissive display 30.
  • the recognition processing unit 212 executes a recognition process of recognizing a recognition target included in the image captured by the camera 11, and outputs position information of the recognition target to the self-position estimation unit 211. Further, the recognition processing unit 212 outputs information regarding a display position when the virtual superimposed object is displayed on the transmissive display 30, to the display control unit 213.
  • the self-position estimation unit 211 uses SLAM (simultaneous localization and mapping) to build a self-position estimation and environment map of the user wearing eyewear based on various sensor data output from the sensor unit unit 10.
  • SLAM simultaneous localization and mapping
  • the self-position estimation unit 211 acquires rough position information of the user wearing the eyewear based on the output of the GPS 12.
  • the self-position estimation unit 211 constructs an environment map based on the result of the recognition processing by the recognition processing unit 212, and estimates the self-position of the user wearing eyewear by matching the environment map with the observation result by the sensor unit unit 10.
  • the "self position” includes the position and the visual direction of the user (the direction in which the user is facing), and the "self position estimation” means that both the position and the visual direction of the user are estimated. The meaning is the same in the following description.
  • the position of the user corresponds to the position of the information processing device 20.
  • the environment map is an example of the “map” in the claims.
  • FIG. 5 and 6 are flowcharts showing a typical processing flow of the information processing apparatus 20.
  • FIG. 5 is a flowchart showing a process of constructing an environment map
  • FIG. 6 is a flowchart showing a process of estimating the user's own position.
  • the self-position estimation system 100 of the present embodiment stores geometrical shapes and the like in an arbitrary environment as a known model (environment map), and based on the relative relationship between the observation result by the sensor unit 10 and the environment map.
  • the self-position of a user wearing eyewear is estimated based on a so-called model-based approach that analytically estimates the self-position.
  • model-based approach that analytically estimates the self-position.
  • an environment map is created as a preparation before estimating the user's own position (step S101).
  • the format of the environment map may be 2D formation or 3D formation depending on the type of sensor included in the sensor unit unit 10.
  • the image data of the recognition target is recognized. It is output to the processing unit 212.
  • the recognition target is, for example, a guide plate, a sign, a signboard of a restaurant, a landmark, an object installed at a park or a roadside, or a poster installed at a specific place, but at the time of step S103, It is not yet specified what kind of object the recognition target imaged by the camera 11 is.
  • the recognition processing unit 212 calculates a three-dimensional feature amount of an arbitrary recognition target based on the image data output from the camera 11 (step S104).
  • the three-dimensional feature amount is, for example, a SHOT feature amount calculated by SHOT (signature of histograms of orientations).
  • SHOT signature of histograms of orientations.
  • the SHOT feature amount is defined by a normal histogram of a peripheral point group in a divided area around a feature point (for example, edge point) to be recognized existing in an arbitrary environment. For details of the SHOT feature amount, refer to P. See 9.
  • the three-dimensional feature amount is calculated by methods such as PFH (point feature histogram) and CSHOT (color signature of histograms of of orientations) in addition to SHOT.
  • the three-dimensional feature amount is HONV (histogram oriented oriented normal vector), LSP (local surface patches), CCDoN (combination of curvatures and difference ofnormals), NARF (normal aligned aligned radial feature), MHOG (mesh histograms of oriented gradient). ), RoPS (rotational projection statistics) or the like.
  • the three-dimensional feature amount is a PPF (point pair feature), ER (efficient ransac), VC-PPF (visibility context context point feature), MPPF (multimodal point point pair feature), PPF B2BorS2BorL2L (point pair pair feature-boundary-to- It may be calculated by a method such as boundary or surface to boundary or line) or VPM (vector pair matching).
  • a two-dimensional feature amount may be calculated.
  • the two-dimensional feature amount is, for example, a SIFT feature amount calculated by SIFT (scale invariant feature transform).
  • SIFT scale invariant feature transform
  • the SIFT feature amount is a feature amount that does not depend on the scale (size, movement, rotation) of the two-dimensional image, and is 128-dimensional calculated for each of a plurality of feature points detected from the two-dimensional image captured by the camera 11. Is represented by the feature vector of For details of the SIFT feature quantity, refer to the website 2 below. 2: (http://www.vision.cs.chubu.ac.jp/cvtutorial/PDF/02SIFTandMore.pdf)
  • the two-dimensional feature amount is calculated, for example, by analyzing a two-dimensional image captured by the camera 11 by a method such as SIFT, SURF (speed-up robust features), and RIFF (rotation invariant fast features). Alternatively, it may be calculated by a method such as BREIF (binary robust independent dependent features), BRISK (binary robust invariable scalable keypoints), ORB (oriented FAST and rotated BRIEF) or CARD (compact and real-time descriptors).
  • SIFT short-up robust features
  • SURF speed-up robust features
  • RIFF rotation invariant fast features
  • BREIF binary robust independent dependent features
  • BRISK binary robust invariable scalable keypoints
  • ORB oriented FAST and rotated BRIEF
  • CARD compact and real-time descriptors
  • the recognition processing unit 212 compares the feature amount calculated in the previous step S104 with the recognized feature amount of the recognition target already stored in the storage device 210. Specifically, the recognition processing unit 212 calculates the feature amount calculated based on the image data obtained by the camera 11 capturing an arbitrary recognition target, and the feature amount registered (stored) in advance of the recognition target. An error (similarity) between and is calculated, and it is determined whether or not this error is less than or equal to a predetermined threshold value.
  • the recognition processing unit 212 recognizes that the recognition target imaged by the camera 11 in step S103 has already been referred to when the error is calculated. Is determined to be a recognition target of. That is, in step S113, what kind of object the recognition target imaged by the camera 11 is is identified (recognized).
  • the recognition processing unit 212 calculates the position information of the recognition target in which what kind of object is specified, and associates this position information with the image data of the recognition target (step S106).
  • Information in which the position information and the image data are associated with each other is stored in the storage device 210.
  • the position information is, for example, the relative position of the user with respect to the specified recognition target, the coordinate position of the recognition target, or the like.
  • control unit 21 repeatedly executes steps S101 to S106 until the user wearing the eyewear walks all in the desired area, that is, until all the recognition targets in the arbitrary environment are image-recognized.
  • the self-position estimating unit 211 integrates the position information of the recognized recognition target, the image data, and the feature amount obtained in the process of repeating Step S101 to Step S106, and The environment map is constructed continuously with walking. Information on the environment map constructed in this way is stored in the storage device 210.
  • the self-position estimation unit 211 executes post-processing of the environment map (step S107). Specifically, when there are a plurality of the same identified recognition targets in a predetermined area of the environment map (YES in step S108), the self-position estimation unit 211 recognizes some of the plurality of recognition targets. The target image data is deleted (step S109). In this case, typically, only the image data of one recognition target among a plurality of the same recognition targets in the predetermined area is left.
  • the GPS 12 senses the approximate current position of the user wearing the eyewear (step S201).
  • the self-position estimation unit 211 reads out information about the environment map stored in the storage device 210 (step S203), and this information and the GPS 12 are used. It outputs the sensor data acquired from the display control unit 213.
  • the display control unit 213 selects a plurality of recognition target image I candidates to be displayed on the transmissive display 30 based on the position information (current position) of the user and the information about the environment map. Specifically, from among the plurality of recognition targets registered in the environment map, a plurality of recognition targets that the user can visually confirm from the current position of the user are selected. In this case, in consideration of the detection error of the GPS 12 (detection error according to the type of GPS), for example, only the recognition target within a radius of 50 m from the current position of the user is selected.
  • the priority order for displaying on the transmissive display 30 is set. At this time, when the user's surroundings are extremely crowded or there are many obstructions as the user's situation, the priority of the recognition target of 170 cm or more, which is easy for the user to visually confirm, becomes high.
  • the congestion status around the user and the number of shields are determined based on image data generated by the camera 11 capturing an image around the user, for example.
  • the congestion degree of each time zone at the current location of the user may be determined through the network N.
  • FIG. 7 is a diagram showing an example of a display screen of the transmissive display 30 on which the recognition target image I and the guide image G are displayed.
  • the display control unit 213 determines the display positions of the recognition target (recognition target image I) and the guide image G displayed on the transmissive display 30 based on the priority set in advance (step S205).
  • the guide image G is set to the upper portion 30a and the middle portion based on the priority of the recognition target and the surrounding coverage in the regions of the upper portion 30a, the middle portion 30b, and the lower portion 30c in the display area of the transmissive display 30. It is determined in which area of 30b and the lower stage portion 30c to display.
  • a recognition target including a recognition target with the highest priority at intervals of 60 ° around Image I is preferably displayed.
  • the display control unit 213 performs a process of associating the display position of the guide image G displayed on the transmissive display 30 with the recognition area G1. Specifically, based on the display position of the guide image G displayed on the transmissive display 30, it is calculated which recognition position the display position corresponds to for the recognition processing unit 212. Then, the display control unit 212 corrects the recognition position of the recognition processing unit 212 based on this calculation result.
  • the user refers to the recognition target image I displayed on the transmissive display 30 and searches for a recognition target similar to the recognition target included in the image.
  • the user puts this recognition target within the recognition area G1 of the guide image G.
  • the recognition processing unit 212 executes the recognition process of recognizing the recognition target in the recognition area G1 (step S206).
  • the recognition processing unit 212 calculates the feature amount of the recognition target contained in the recognition area G1 and outputs information regarding this feature amount to the self-position estimation unit 211.
  • the self-position estimation unit 211 extracts a feature amount similar to the calculated feature amount from the environment map, and calculates an error (reprojection error) between the extracted feature amount and the feature amount calculated by the recognition processing unit 212. calculate.
  • the self-position estimation unit 211 identifies which recognition target registered in the environment map is the recognition target in the recognition region G1. .. Thereby, the self-position estimation unit 211 estimates the self-position of the user wearing the eyewear based on the position information of the recognition target registered in the environment map (step S208). In this embodiment, the user's self-position thus estimated may be presented to the user via the transmissive display 30.
  • the recognition target serving as an index when estimating the user's own position is searched by the user himself, and the information processing apparatus 20 matches the recognition target found by the user with the recognition target registered in the environment map. Only run. This reduces the processing load in estimating the user's own position.
  • the recognition area G1 is limited rather than recognizing the entire display area displayed on the transmissive display 30, the processing load is further reduced.
  • the self-position estimation system 100 when there are a plurality of the same recognition targets in a predetermined area of the environment map, some of the recognition target image data are deleted from the plurality of recognition targets. This prevents the same recognition target image I from being displayed on the transmissive display 30 in the previous step S205, so that an erroneous selection when the user searches for the recognition target is suppressed.
  • the recognition target image presented to the user is considered in consideration of not only the position information and image data of each of the plurality of recognition targets but also the current situation of the user. I is determined. This makes it easier for the user to search for the recognition target, and improves the ease and convenience in estimating the user's self-position.
  • the environment map is stored, and the model-based approach in which the user's self-position is estimated from the relative relationship between the observation result by the sensor and the environment map is adopted, but the invention is not limited to this.
  • the user's self-position may be estimated by a so-called memory-based approach, in which the observation results of the environment by the sensor are stored at a plurality of positions inside and the actual observation results are collated.
  • the number of recognition target images I presented to the user is three, but the number is not limited to this, and the number of recognition target images I displayed on the transmissive display 30 is not limited to this. May be three or more and may be three or less.
  • the priorities are set in consideration of the degree of congestion around the user and the number of shields, but the priority is not limited to this. For example, an image (user You may give higher priority to the signboards of the shops that you often go to, or the posters of this event if you are participating in any event. Alternatively, the user's schedule may be checked, and if the user intends to participate in some event, the priority of images related to that event may be increased.
  • distortion correction for correcting distortion caused by the surface of the camera 11 being a spherical surface may be executed in steps S103 and S206 (see FIG. 8).
  • the angle of view of the guide image G may be changed according to the user's situation.
  • the recognition accuracy is improved by recognizing the recognition target at an angle at which the feature amount of the recognition target is easily calculated.
  • the recognition accuracy of the camera 11 may be improved by making the image clear by a super-resolution technique, for example.
  • the shape of the guide image G may be changed according to the shape of the recognition target. Further, the color of the guide image G may be changed by fitting the recognition target in the recognition area G1 of the guide image G, and the animation may be displayed on the transmissive display 30.
  • a plurality of recognition target images I to be presented to the user are selected based on the priority order, but the selection is not limited to this.
  • the recognition target image I may be presented to the user in multiple stages, such as presenting only one recognition target image I in the second stage.
  • the self-position of the user may be estimated in multiple stages, such as roughly estimating the recognition target and then estimating the self-position of the user in detail.
  • the information processing device, the system, the information processing method executed by the information processing device or the system as described above, the program for causing the information processing device to function, and the program are recorded. It may include non-transitory tangible media.
  • the self-position estimation system 100 of the present embodiment has been described on the assumption that it is applied to human AR eyewear, but the present invention is not limited to this.
  • the present technology may be applied to a moving body such as a robot other than a human, and the use of the present technology is not particularly limited.
  • the present technology may have the following configurations.
  • An information processing device A recognition target image including a recognition target, and a display control unit that controls the display unit to display a guide image showing a recognition region for recognizing the recognition target, A recognition processing unit that executes a recognition process for recognizing the recognition target in the recognition region,
  • the information processing apparatus comprising: a control section having a self-position estimating section that estimates a self-position of the information processing apparatus based on a result of the recognition processing.
  • the information processing apparatus according to (1) above, The information processing apparatus, wherein the self-position estimation unit constructs a map in which the image data of the recognition target recognized by the recognition processing unit and the position information of the recognition target are associated with each other.
  • the information processing apparatus wherein the self-position estimating unit erases image data of a part of the recognition targets of the plurality of recognition targets when a plurality of the same recognition targets exist in a predetermined area of the map.
  • the recognition processing unit calculates a feature amount of a recognition target, and recognizes the recognition target when an error between the feature amount and the previously registered feature amount of the recognition target is equal to or less than a predetermined threshold value. ..
  • the recognition processing unit calculates a feature amount of a recognition target as the recognition processing
  • the self-position estimating unit estimates the self-position of the information processing device when an error between the calculated feature amount and the recognized feature amount of the recognition target is less than or equal to a predetermined threshold value. .. (6)
  • the information processing apparatus according to (4) or (5) above The information processing apparatus, wherein the recognition processing unit calculates a two-dimensional feature amount or a three-dimensional feature amount of a recognition target as the feature amount.
  • An information processing apparatus, wherein the display control unit determines a recognition target image displayed on the display unit according to a situation of the information processing apparatus.
  • the display control unit is an information processing device that controls a display position of a guide image displayed on the display unit according to a situation of the information processing device.
  • the display control unit is an information processing device that controls a display position of a guide image displayed on the display unit based on the priority order.
  • the display control unit is an information processing device that associates a display position of a guide image displayed on the display unit with the recognition area.
  • the display control unit calculates the recognition area based on a display position of a guide image presented to the user via the display unit, and determines the recognition area from the calculation result.
  • the information processing device A recognition target image including a recognition target and a guide image showing a recognition region for recognizing the recognition target are displayed on the display unit, Perform recognition processing to recognize the recognition target in the recognition area, An information processing method for estimating the self-position of the information processing device based on the result of the recognition process.

Abstract

本技術の情報処理装置は、制御部を有する。上記制御部は、表示制御部と、認識処理部と、自己位置推定部とを有する。上記表示制御部は、認識対象を含む認識対象画像と、上記認識対象を認識する認識領域を示すガイド画像とが表示部に表示されるように制御する。上記認識処理部は、上記認識領域内の上記認識対象を認識する認識処理を実行する。上記自己位置推定部は、上記認識処理の結果に基づいて、上記情報処理装置の自己位置を推定する。

Description

情報処理装置、情報処理方法及びプログラム
 本技術は、情報処理装置、情報処理方法及びプログラムに関する。詳しくは、ユーザに画像を提示してユーザの自己位置推定を容易にする技術に関する。
 アイウェアや携帯端末等のユーザに装着又は携帯される機器においては、例えばユーザが激しく動くことによってセンサの処理可能な許容範囲を超えることにより、ユーザの自己位置がわからなくなってしまう場合がある。そこで、例えば特許文献1では、カメラにより撮像された画像からランドマークの特徴点を抽出し、パターンマッチングを行うことによってユーザの自己位置を推定する技術が記載されている。
特開2007-150681号公報
 しかしながら、特許文献1に記載の技術では、ユーザが予め決められたランドマークを見つけなければならず、ユーザの現在おかれている状況によってはランドマークを探索するのが困難な場合がある。また、ランドマークを認識する領域が大きい場合には、処理負荷が大きくなってしまうおそれがある。
 本技術は以上のような事情に鑑み、例えば、低負荷で容易にユーザの自己位置を推定可能な情報処理装置、情報処理方法及びプログラムを提供する。
 上記課題を解決するため、本技術の一形態に係る情報処理装置は、制御部を有する。
 上記制御部は、表示制御部と、認識処理部と、自己位置推定部とを有する。
 上記表示制御部は、認識対象を含む認識対象画像と、上記認識対象を認識する認識領域を示すガイド画像とが表示部に表示されるように制御する。
 上記認識処理部は、上記認識領域内の上記認識対象を認識する認識処理を実行する。
 上記自己位置推定部は、上記認識処理の結果に基づいて、上記情報処理装置の自己位置を推定する。
 上記構成によれば、認識処理部は、表示部に表示された表示領域全体を認識するものではなく認識領域が限定されているため、処理負荷の低減が図られる。ここで、「自己位置」とは情報処理装置(ユーザ)の位置及び視野方向(ユーザが向いている方向)を含めたものであり、「自己位置推定」とは情報処理装置(ユーザ)の位置と視野方向の両方を推定することを意味する。
 上記自己位置推定部は、上記認識処理部により認識された認識対象の画像データと当該認識対象の位置情報とが対応づけられたマップを構築してもよい。
 上記自己位置推定部は、上記マップの所定の領域内において同一の認識対象が複数存在する場合に、上記複数の認識対象のうち一部の認識対象の画像データを削除してもよい。
 上記認識処理部は、認識対象の特徴量を算出し、上記特徴量と当該認識対象の予め登録された特徴量との誤差が所定の閾値以下である場合に、認識対象を認識してもよい。
 上記認識処理部は、上記認識処理として、認識対象の特徴量を算出し、
 上記自己位置推定部は、当該算出された特徴量と、前記認識された認識対象の特徴量との誤差が所定の閾値以下である場合に、上記情報処理装置の自己位置を推定してもよい。
 上記認識処理部は、上記特徴量として、認識対象の2次元特徴量又は3次元特徴量を算出してもよい。
 上記表示制御部は、上記情報処理装置の状況に応じて、上記表示部に表示される上記認識対象画像を決定してもよい。
 上記表示制御部は、上記情報処理装置の現在位置と上記マップとに基づいて、上記表示部に表示される上記認識対象画像の候補を複数選択してもよい。
 上記表示制御部は、上記マップにおける認識対象の位置情報と、当該認識対象の画像データと、上記情報処理装置の状況とに基づいて、上記選択された複数の認識対象画像各々に対して、表示の優先順位を設定してもよい。
 上記表示制御部は、上記優先順位に基づき、上記表示部に表示される認識対象画像を決定してもよい。
 上記表示制御部は、上記情報処理装置の状況に応じて、上記表示部に表示される上記ガイド画像の表示位置を制御してもよい。
 上記表示制御部は、上記優先順位に基づき、上記表示部に表示される上記ガイド画像の表示位置を決定してもよい。
 上記表示制御部は、認識対象に対する上記認識処理部の認識位置と、当該認識対象に対するユーザの認識位置とのズレを補正してもよい。
 上記表示制御部は、上記表示部に表示されるガイド画像の表示位置と、上記認識領域とを対応づけてもよい。
 上記表示制御部は、上記表示部を介して上記ユーザに提示されるガイド画像の表示位置に基づいて上記認識領域を計算し、上記計算結果から上記認識領域を決定してもよい。
 上記課題を解決するため、本技術の一形態に係る情報処理方法は、
 情報処理装置が、
 認識領域を含む認識対象画像と、上記認識対象を認識する認識領域を示すガイド画像とを表示部に表示する。
 上記認識領域内の上記認識対象を認識する認識処理を実行する。
 上記認識処理の結果に基づいて、上記情報処理装置の自己位置を推定する。
 上記課題を解決するため、本技術の一形態に係るプログラムは、情報処理装置に以下のステップを実行させる。
 認識領域を示す認識対象画像と、上記認識対象を認識する認識領域を示すガイド画像を表示部に表示するステップ。
 上記認識領域内の上記認識対象を認識する認識処理を実行するステップ。
 上記認識処理の結果に基づいて、上記情報処理装置の自己位置を推定するステップ。
本実施形態に係る自己位置推定システムの構成例を示すブロック図である。 情報処理装置のハードウェア構成例を示すブロック図である。 任意の認識対象に対するアイウェアとユーザの認識位置が異なることを示す模式図である。 カメラの画像とユーザに提示された表示画面とを併記して示す図である。 環境マップを構築する過程を示すフローチャートである。 ユーザの自己位置を推定するまでの過程を示すフローチャートである。 認識対象画像およびガイド画像が表示された表示画面の一例を示す図である カメラが歪み補正される前と後の画像を示す図である。
 以下、図面を参照しながら、本技術の実施形態を説明する。説明は、以下の順序で行うものとする。
 1.全体的な構成
  1-1.自己位置推定システムのハードウェア構成
  1-2.情報処理装置の構成
   (1-2-1.情報処理装置のハードウェア構成)
   (1-2-2.情報処理装置の機能構成)
 2.情報処理方法
  2-1.環境マップの構築
  2-2.自己位置推定
 3.作用・効果
 4.変形例
 5.補足
 1.)全体的な構成
 本実施形態に係る自己位置推定システムは、ユーザが自己位置を喪失した場合に、ユーザに対して特徴のある画像を提示し、この画像をユーザに探索してもらうことによってユーザの自己位置を復帰させるシステムである。以下、本技術の自己位置推定システムをAR(Augmented Reality)アイウェアに適用した実施形態について説明する。
 1-1.)自己位置推定システムのハードウェア構成
 図1は本実施形態に係る自己位置推定システム100の構成例を示すブロック図である。自己位置推定システム100は、図1に示すように、センサーユニット部10と、情報処理装置20と、透過型ディスプレイ30とを有する。
 [センサーユニット]
 センサーユニット部10は、図1に示すように、カメラ11と、GPS(Global Positioning System)12と、IMU(inertial measurement unit)13とを有する。
 カメラ11は、例えばCCD(Charge Couple Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを備えたデジタルカメラあるいはビデオカメラである。カメラ11は、例えば、所定のフレームレートで撮像された画像を生成可能に構成され、画像データを情報処理装置20(自己位置推定部211及び認識処理部212)に出力する。
 また、カメラ11は、バリフォーカルレンズやズームレンズ等の光学レンズを有し、画角を変更可能に構成されてもよい。本実施形態の自己位置推定システム100は、カメラ11に代えて、またはこれとともに、レーザースキャナーやLIDER等のセンサを有する構成であってもよい。
 GPS12は、アイウェアを装着したユーザの位置を経度、緯度、高度の3次元により測定し、当該ユーザの現在位置に関する位置情報を取得する。GPS12は、取得したユーザの現在位置に関する情報を情報処理装置20(自己位置推定部211)に出力する。
 IMU13は、ジャイロセンサ、加速度センサ、磁気センサ及び圧力センサ等が複数軸で組み合わされた慣性計測装置である。IMU13は、アイウェアの加速度及び角速度を検出可能に構成され、これらのセンサデータを情報処理装置20に出力する。情報処理装置20は、取得したセンサデータ(アイウェアの角速度及び加速度等)に基づいて、アイウェアの姿勢、移動速度及び移動距離等を算出する。
 [透過型ディスプレイ]
 透過型ディスプレイ30は、ディスプレイ上に情報を表示しつつ、そのディスプレイの向こう側が透けて見えるように構成されたディスプレイである。透過型ディスプレイ30は、例えばLCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置であり、カメラ11からの画像データに基づいたライブビュー表示や、表示制御部213の制御によって認識対象画像Iとガイド画像Gとを表示する(図7参照)。透過型ディスプレイ30は、特許請求の範囲の「表示部」の一例である。
 [情報処理装置]
 情報処理装置20は、センサーユニット部10から取得したセンサデータに基づいて自己位置推定処理、認識処理及び表示制御を実行し、アイウェアを装着したユーザに対して違和感が無いように仮想的な重畳物を透過型ディスプレイ30に表示させる。以下、情報処理装置20の構成について説明する。
 1-2.)情報処理装置の構成
 1-2-1.)情報処理装置のハードウェア構成
 図2は、情報処理装置20のハードウェア構成例を示すブロック図である。情報処理装置20は、制御部21(CPU(Central Processing Unit))、ROM(Read Only Memory)202及びRAM(Random Access Memory)203を有する。CPUは、特許請求の範囲の「制御部」の一例である。
 また、情報処理装置20は、ホストバス204、ブリッジ205、外部バス206、I/F部207、入力装置208、出力装置209、ストレージ装置210、ドライブ216、接続ポート214、通信装置215を有する構成であってもよい。
 さらに、情報処理装置20は、制御部21(CPU)に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
 制御部21(CPU)は、演算処理装置および制御装置として機能し、ROM202、RAM203、ストレージ装置210、またはリムーバブル記録媒体40に記録された各種プログラムに従って、情報処理装置20内の動作全般またはその一部を制御する。
 ROM202は、制御部21(CPU)が使用するプログラムや演算パラメータなどを記憶する。RAM203は、制御部21(CPU)の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。制御部21(CPU)、ROM202、およびRAM203は、CPUバスなどの内部バスにより構成されるホストバス204により相互に接続されている。さらに、ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。
 入力装置208は、例えば、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置208は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置20の操作に対応した外部接続機器であってもよい。入力装置208は、ユーザが入力した情報に基づいて入力信号を生成して制御部21(CPU)に出力する入力制御回路を含む。ユーザは、この入力装置208を操作することによって、情報処理装置20に対して各種のデータを入力したり処理動作を指示したりする。
 出力装置209は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置209は、例えば、スピーカーまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。出力装置209は、情報処理装置20の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力してもよい。
 ストレージ装置210は、情報処理装置20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置210は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置210は、例えば制御部21(CPU)が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。また、ストレージ装置210は、クラウドストレージであってもよい。
 ドライブ216は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体40のためのリーダライタであり、情報処理装置20に内蔵、あるいは外付けされる。ドライブ216は、装着されているリムーバブル記録媒体40に記録されている情報を読み出して、RAM203に出力する。また、ドライブ216は、装着されているリムーバブル記録媒体40に記録を書き込む。
 接続ポート214は、機器を情報処理装置20に接続するためのポートである。接続ポート214は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート214は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート214に外部接続機器50を接続することで、外部接続機器50から情報処理装置20に各種データが出力される。
 通信装置215は、例えば、ネットワークNに接続するための通信デバイスなどで構成された通信インターフェースである。通信装置215は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi-Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。
 また、通信装置215は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置215は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置215に接続されるネットワークNは、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含みうる。
 1-2-2.)情報処理装置の機能構成
 情報処理装置20(制御部21)は、機能的に、表示制御部213と、認識処理部212と、自己位置推定部211とを有する。
 表示制御部213は、自己位置推定部211及び認識処理部212からの出力に基づいて、透過型ディスプレイ30に表示される画像の表示を制御する。具体的には、表示制御部213は、例えば画像認識の対象である認識対象を含む認識対象画像Iと、認識対象を画像認識するための認識領域を示すガイド画像Gとを透過型ディスプレイ30に表示させ(図7参照)、認識対象画像I及びガイド画像Gの表示位置を制御する。
 図3は任意の認識対象に対する認識処理部212とユーザの認識位置が異なることを示す模式図であり、図4はカメラ11の画像とユーザに提示された表示画面とを併記して示す図である。ここで、一般的にARアイウェアにおいては、アイウェアとユーザが同じ認識対象を認識する場合、認識対象に対する認識処理部212の認識位置とユーザの認識位置とにズレが生じる場合がある(図4参照)。即ち、透過型ディスプレイ30に表示されるガイド画像Gの表示位置と認識処理部212が認識対象を認識する認識位置(認識領域G1)とにズレが生じる場合がある。このようなズレが生じてしまうと、例えば、ユーザ所望の位置ではない位置に仮想的な重畳物が重畳された画像がユーザに提示されてしまう場合がある。
 そこで、本実施形態の表示制御部213は、透過型ディスプレイ30に表示されるガイド画像Gの表示位置と、認識領域G1とを対応づける処理を行う。具体的には、透過型ディスプレイ30に表示されたガイド画像G1の表示位置に基づいて、この表示位置が認識処理部212にとってどの認識位置に相当するのかを計算する。そして、表示制御部213は、この計算結果に基づいて、認識領域G1を決定する。このような計算は、例えば、カメラ11の画角、透過型ディスプレイ30に対するカメラ11の相対位置及び透過型ディスプレイ30に対するアイウェアを装着したユーザの眼の相対位置に基づき計算される。
 認識処理部212はカメラ11で撮像した画像中に含まれる認識対象を画像認識する認識処理を実行し、自己位置推定部211に認識対象の位置情報等を出力する。また、認識処理部212は、仮想的な重畳物を透過型ディスプレイ30に表示させる上での表示位置に関する情報を表示制御部213に出力する。
 自己位置推定部211は、SLAM(simultaneous localization and mapping)によって、センサーユニット部10から出力された各種センサデータに基づき、アイウェアを装着したユーザの自己位置推定と環境マップを構築する。
 具体的には、自己位置推定部211は、GPS12の出力に基づいてアイウェアを装着したユーザの大まかな位置情報を取得する。自己位置推定部211は、認識処理部212による認識処理の結果に基づき環境マップを構築し、この環境マップとセンサーユニット部10による観測結果とのマッチングによってアイウェアを装着したユーザの自己位置を推定する。なお、この「自己位置」とはユーザの位置及び視野方向(ユーザが向いている方向)を含めたものであり、「自己位置推定」とはユーザの位置と視野方向の両方を推定することを意味する点で以下の説明においても同様である。ここで、ユーザの位置は、情報処理装置20の位置に相当する。また環境マップは特許請求の範囲の「マップ」の一例である。
 2.)情報処理方法
 図5及び図6は情報処理装置20の典型的な処理の流れを示すフローチャートである。ここで、図5は環境マップを構築する過程を示すフローチャートであり、図6はユーザの自己位置を推定するまでの過程を示すフローチャートである。
 本実施形態の自己位置推定システム100は、任意の環境内における幾何学形状等を既知のモデル(環境マップ)として記憶しておき、センサーユニット部10による観測結果と当該環境マップとの相対関係から解析的に自己位置を推定する、所謂モデルベーストアプローチに基づきアイウェアを装着したユーザの自己位置を推定する。以下、環境マップの構築とユーザの自己位置推定について図3及び図4を適宜参照しながら詳細に説明する。
 2-1.)環境マップの構築
 先ず、ユーザの自己位置を推定する前の準備として、環境マップを作成する(ステップS101)。環境マップの形式はセンサーユニット部10が備えるセンサの種類に応じて2D形成であってもよく、3D形成であってもよい。
 ここで、カメラ11の視野範囲内に任意の認識対象が収められた場合、即ち、任意の認識対象が画像認識された場合(ステップS103のYES)、この認識対象が撮像された画像データが認識処理部212に出力される。この認識対象とは、例えば、公園や道路脇に設置された案内板、標識、飲食店の看板、ランドマーク、オブジェ又は特定の場所に設置されたポスター等であるが、ステップS103の時点では、カメラ11に撮像された認識対象がどのような物体であるのかまだ特定されていない。
 次に、認識処理部212は、カメラ11から出力された画像データに基づいて、任意の認識対象の3次元特徴量を算出する(ステップS104)。3次元特徴量とは、例えば、SHOT(signature of histograms of orientations)により算出されたSHOT特徴量である。このSHOT特徴量は、任意の環境内に存在する認識対象の特徴点(例えばエッジ点)周辺の分割領域における周辺点群の法線ヒストグラムによって定義される。SHOT特徴量の詳細については、下記ウェブサイト1のP.9を参照されたい。
 3次元特徴量はSHOT以外に、例えば、PFH(point feature histogram)、CSHOT(color signature of histograms of orientations)等の手法によって算出される。あるいは、3次元特徴量は、HONV(histogram of oriented normal vector)、LSP(local surface patches)、CCDoN(combination of curvatures and difference of normals)、NARF(normal aligned radial feature)、MHOG(mesh histograms of oriented gradients)、RoPS(rotational projection statistics)等の手法によって算出されてもよい。
 あるいは、3次元特徴量は、PPF(point pair feature)、ER(efficient ransac)、VC-PPF(visibility context point pair feature)、MPPF(multimodal point pair feature)、PPF B2BorS2BorL2L(point pair feature boundary-to-boundary or surface to boundary or line to line)またはVPM(vector pair matching)等の手法により算出されてもよい。
 なお、3次元特徴量を算出するための上記手法の詳細については、下記のウェブサイト1を参照されたい。
 1:(http://isl.sist.chukyo-u.ac.jp/Archives/ViEW2014SpecialTalk-Hashimoto.pdf)
 また、ステップS104において算出される特徴量として、例えば、2次元特徴量が算出されてもよい。この2次元特徴量とは、例えばSIFT(scale invariant feature transform)により算出されたSIFT特徴量である。SIFT特徴量は、2次元画像のスケール(大きさ、移動、回転)に依存しない特徴量であり、カメラ11により撮像された2次元画像から検出された複数の特徴点毎に算出された128次元の特徴量ベクトルにより表現される。SIFT特徴量の詳細については、下記ウェブサイト2を参照されたい。
 2:(http://www.vision.cs.chubu.ac.jp/cvtutorial/PDF/02SIFTandMore.pdf)
 2次元特徴量は、例えば、カメラ11により撮像された2次元画像を、SIFT、SURF(speed-up robust features)、RIFF(rotation invariant fast feature)等の手法によって解析することで算出される。あるいは、BREIF(binary robust independent elementary features)、BRISK(binary robust invariant scalable keypoints)、ORB(oriented FAST and rotated BRIEF)又はCARD(compact and real-time descriptors)等の手法によって算出されてもよい。
 なお、2次元特徴量を算出するための上記手法の詳細については、下記のウェブサイト3を参照されたい。
 3:(https://www.jstage.jst.go.jp/article/jjspe/77/12/77_1109/_pdf)
 次に、認識処理部212は、先のステップS104において算出された特徴量と、既にストレージ装置210に記憶されている、認識済みの認識対象の特徴量とを比較する。具体的には、認識処理部212は、任意の認識対象をカメラ11が撮像することにより得られた画像データに基づき算出された特徴量と、当該認識対象の予め登録(記憶)された特徴量との誤差(類似度)を算出し、この誤差が所定の閾値以下であるか否かを判定する。
 ここで、誤差が所定の閾値以下である場合(ステップS105のYES)、認識処理部212は、ステップS103においてカメラ11により撮像された認識対象が、誤差を算出する際に参照された既に認識済みの認識対象であると判定する。即ち、ステップS113においてカメラ11により撮像された認識対象がどのような物体であるのかが特定(認識)される。
 そして、認識処理部212は、どのような物体であるのか特定された認識対象の位置情報を算出し、この位置情報と当該認識対象の画像データとを紐づける(ステップS106)。位置情報と画像データとが紐づけられた情報はストレージ装置210に記憶される。ここで、位置情報とは、例えば特定された認識対象に対するユーザの相対位置や当該認識対象の座標位置等である。
 本実施形態では、アイウェアを装着したユーザが所望エリア内の全てを歩行するまで、即ち、任意の環境内のすべて認識対象を画像認識するまで、制御部21はステップS101~ステップS106を繰り返し実行する。ここで、自己位置推定部211は、ステップS101~ステップS106が繰り返される過程で得られた認識済みの認識対象の位置情報、画像データ及び特徴量を統合することによって、アイウェアを装着したユーザの歩行に伴い環境マップを逐次連続的に構築する。このように構築された環境マップに関する情報は、ストレージ装置210に記憶される。
 次に、環境マップの構築が完了した場合(S102のYES)、自己位置推定部211は、環境マップの後処理を実行する(ステップS107)。具体的には、自己位置推定部211は、環境マップの所定のエリア内において同一の識別済みの認識対象が複数存在する場合(ステップS108のYES)、当該複数の認識対象のうち一部の認識対象の画像データを削除する(ステップS109)。この場合、典型的には、所定のエリア内における複数の同じ認識対象のうち1つの認識対象の画像データのみが残される。
 2-2.)自己位置推定
 次に、例えばアイウェアの電源起動時等においてユーザが自己位置を喪失した場合の自己位置推定について説明する。
 先ず、GPS12によりアイウェアを装着したユーザの大よその現在位置がセンシングされる(ステップS201)。ここで、当該ユーザの自己位置が捕捉された場合(ステップS202のYES)、自己位置推定部211は、ストレージ装置210に保存されている環境マップに関する情報を読み出し(ステップS203)、この情報とGPS12から取得したセンサデータを表示制御部213に出力する。
 表示制御部213は、ユーザの位置情報(現在位置)と環境マップに関する情報とに基づいて、透過型ディスプレイ30に表示させる認識対象画像Iの候補を複数選択する。具体的には、環境マップに登録された複数の認識対象の中から、ユーザの大よその現在位置からユーザが目視により確認可能な認識対象を複数選択する。この場合、GPS12の検出誤差(GPSの種類に応じた検出誤差)も考慮して、例えばユーザの現在位置から半径50m以内の認識対象のみが選択される。
 次いで、表示制御部213は、先に選択された複数の認識対象各々の位置情報及び画像データとユーザの状況とに基づいて、当該選択された複数の認識対象(認識対象画像I)各々に対して透過型ディスプレイ30に表示される上での優先順位を設定する。この際、ユーザの状況として、ユーザの周囲が非常に混雑している場合や遮蔽物が多い場合には、ユーザが目視により確認しやすい例えば170cm以上の認識対象の優先度が高くなる。なお、ユーザの周囲の混雑状況や遮蔽物の多さは、例えば、カメラ11によりユーザの周囲が撮像されることにより生成された画像データに基づき判断される。あるいは、ネットワークNを通じてユーザの現在地点における各時間帯の混雑具合が判断されてもよい。
 図7は、認識対象画像Iおよびガイド画像Gが表示された透過型ディスプレイ30の表示画面の一例を示す図である。表示制御部213は、先に設定された優先順位に基づいて、透過型ディスプレイ30に表示される認識対象(認識対象画像I)とガイド画像Gの表示位置を決定する(ステップS205)。この場合、例えば、透過型ディスプレイ30の表示領域における上段部30a、中段部30b及び下段部30cの領域内の認識対象の優先度と周囲のカバー率から、ガイド画像Gを上段部30a、中段部30b及び下段部30cのどの領域に表示させるのかを決定する。
 本実施形態では、透過型ディスプレイ30に表示される認識対象画像Iが多すぎることによってユーザが混乱するのを防ぐ観点から、例えば周囲60°間隔で一番優先度が高い認識対象を含む認識対象画像Iが表示されるのが好ましい。
 次に、表示制御部213は、透過型ディスプレイ30に表示されるガイド画像Gの表示位置と、認識領域G1とを対応づける処理を行う。具体的には、透過型ディスプレイ30に表示されたガイド画像Gの表示位置に基づいて、この表示位置が認識処理部212にとってどの認識位置に相当するのかを計算する。そして、表示制御部212は、この計算結果に基づき認識処理部212の認識位置を補正する。
 次いで、ユーザは、透過型ディスプレイ30に表示された認識対象画像Iを参照して、当該画像に含まれる認識対象と類似する認識対象を探索する。そして、ユーザは、この認識対象を発見した場合、この認識対象をガイド画像Gの認識領域G1内に収める。これにより、認識処理部212は、認識領域G1内の認識対象を画像認識する認識処理を実行する(ステップS206)。
 具体的には、認識処理部212は、認識領域G1内に収められた認識対象の特徴量を算出し、この特徴量に関する情報を自己位置推定部211に出力する。自己位置推定部211は、当該算出された特徴量に類似する特徴量を環境マップから抽出し、抽出された特徴量と認識処理部212により算出された特徴量との誤差(再投影誤差)を算出する。
 そして、自己位置推定部211は、この誤差が所定の閾値以下である場合に(ステップS207のYES)、認識領域G1内の認識対象が環境マップに登録されたどの認識対象であるのかを特定する。これにより、自己位置推定部211は、環境マップに登録された認識対象の位置情報等に基づいて、アイウェアを装着したユーザの自己位置を推定する(ステップS208)。なお、本実施形態では、このようにして推定されたユーザの自己位置が透過型ディスプレイ30を介してユーザに提示されてもよい。
 3.)作用・効果
 本実施形態では、ユーザの自己位置を推定する際に指標となる認識対象がユーザ自身によって探索され、情報処理装置20はユーザが発見した認識対象と環境マップに登録された当該認識対象とのマッチングのみを実行する。これにより、ユーザの自己位置を推定する上での処理負荷が低減される。特に、本実施形態では、透過型ディスプレイ30に表示された表示領域全体を認識するものではなく認識領域G1が限定されているため、より処理負荷が低減される。
 また、自己位置推定システム100では、環境マップの所定のエリア内において同一の認識対象が複数存在する場合、当該複数の認識対象のうち一部の認識対象の画像データが削除される。これにより、先のステップS205において、同じ認識対象画像Iが透過型ディスプレイ30に表示されることがなくなるため、ユーザが認識対象を探索する際の誤選択が抑制される。
 さらに、本実施形態の自己位置推定システム100では、複数の認識対象各々の位置情報及び画像データのみならず、ユーザの現在おかれている状況をも考慮して、ユーザに提示される認識対象画像Iが決定される。これにより、ユーザが認識対象を探索しやすくなり、ユーザの自己位置を推定する上での容易性及び利便性が向上する。
 4.)変形例
 以上、本技術の実施形態について説明したが、本技術は上述の実施形態に限定されたものではなく種々変更を加え得ることは勿論である。
 上記実施形態では、環境マップを記憶しておき、センサによる観測結果と環境マップとの相対関係からユーザの自己位置を推定するモデルベーストアプローチが採用されるがこれに限られず、例えば、任意の環境内の複数の位置において、センサによる環境の観測結果を記憶しておき、それらと実際の観測結果と照合する、所謂メモリベーストアプローチによってユーザの自己位置が推定されてもよい。
 また、上記実施形態では、図7に示すように、ユーザに提示される認識対象画像Iの数が3つであるがこれに限られず、透過型ディスプレイ30に表示される認識対象画像Iの数は3つ以上であってもよく3つ以下であってもよい。
 さらに、上記実施形態では、ユーザの周囲の混雑具合や遮蔽物の多さを考慮して優先順位が付けられるがこれに限られず、例えば、ユーザの行動履歴等からユーザにとって興味がある画像(ユーザがよく行く店の看板や、何かのイベントに参加中であればこのイベントのポスター等)の優先度を高くしてもよい。あるいは、ユーザのスケジュールを確認し、ユーザが何かのイベントに参加する予定がある場合には、そのイベントに関係する画像の優先度を高くしてもよい。
 加えて、上記実施形態では、ステップS103,S206において、カメラ11の表面が球面であることに起因した歪みを補正する歪み補正が実行されてもよい(図8参照)。
 また、上記実施形態では、ユーザの状況に応じてガイド画像Gの画角が変更されてもよい。これにより、例えば、認識対象の特徴量が算出しやすい角度で認識対象を認識することによって認識精度が向上する。ここで、ガイド画像Gの画角が狭いことによって画像の解像度が低い場合には、例えば超解像技術によって画像を鮮明にすることによりカメラ11の認識精度を向上させてもよい。
 さらに、ガイド画像Gは認識対象の形状に沿って、形が変更されてもよい。さらに、ガイド画像Gの認識領域G1内に認識対象が収まることによって、ガイド画像Gの色が変更されてもよく、透過型ディスプレイ30にアニメーションが表示されてもよい。
 加えて、上記実施形態では、優先順位に基づいてユーザに提示される認識対象画像Iが複数選択されるがこれにかぎられず、例えば、1段階目にユーザの視野方向の候補を3つ挙げ、2段階目に認識対象画像Iを1つだけ提示する等、多段階にわたって認識対象画像Iがユーザに提示されてもよい。また、上記実施形態では、認識対象を大まかに認識してからユーザの自己位置を詳細に推定する等、多段階にわたってユーザの自己位置が推定されてもよい。
 5.)補足
 本技術の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
 また、本実施形態の自己位置推定システム100は、ヒト用のARアイウェアに適用されることを前提として説明したがこれに限られない。例えば、本技術は人以外のロボット等の移動体に適用されてもよく、本技術の用途は特に限定されない。
 さらに、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 以上、添付図面を参照しながら本技術の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本技術の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本技術の技術的範囲に属するものと了解される。
 なお、本技術は以下のような構成もとることができる。
 (1)
 情報処理装置であって、
  認識対象を含む認識対象画像と、上記認識対象を認識する認識領域を示すガイド画像とが表示部に表示されるように制御する表示制御部と、
  上記認識領域内の上記認識対象を認識する認識処理を実行する認識処理部と、
  上記認識処理の結果に基づいて、上記情報処理装置の自己位置を推定する自己位置推定部と
 を有する制御部
 を具備する上記情報処理装置。
 (2)
 上記(1)に記載の情報処理装置であって、
 上記自己位置推定部は、上記認識処理部により認識された認識対象の画像データと当該認識対象の位置情報とが対応づけられたマップを構築する
 情報処理装置。
 (3)
 上記(2)に記載の情報処理装置であって、
 上記自己位置推定部は、上記マップの所定の領域内において同一の認識対象が複数存在する場合に、上記複数の認識対象のうち一部の認識対象の画像データを消去する
 情報処理装置。
 (4)
 上記(1)から(3)のいずれか1つに記載の情報処理装置であって、
 上記認識処理部は、認識対象の特徴量を算出し、上記特徴量と当該認識対象の予め登録された特徴量との誤差が所定の閾値以下である場合に、認識対象を認識する
 情報処理装置。
 (5)
 上記(1)から(4)のいずれか1つに記載の情報処理装置であって、
 上記認識処理部は、上記認識処理として、認識対象の特徴量を算出し、
 上記自己位置推定部は、当該算出された特徴量と、上記認識された認識対象の特徴量との誤差が所定の閾値以下である場合に、上記情報処理装置の自己位置を推定する
 情報処理装置。
 (6)
 上記(4)又は(5)に記載の情報処理装置であって、
 上記認識処理部は、上記特徴量として、認識対象の2次元特徴量又は3次元特徴量を算出する
 情報処理装置。
 (7)
 上記(2)から(6)のいずれか1つに記載の情報処理装置であって、
 上記表示制御部は、上記情報処理装置の状況に応じて、上記表示部に表示される認識対象画像を決定する
 情報処理装置。
 (8)
 上記(2)から(7)のいずれか1つに記載の情報処理装置であって、
 上記表示制御部は、上記情報処理装置の現在位置と上記マップとに基づいて、上記表示部に表示される認識対象画像の候補を複数選択する
 情報処理装置。
 (9)
 上記(2)から(8)のいずれか1つに記載の情報処理装置であって、
 上記表示制御部は、上記マップにおける認識対象の位置情報と、当該認識対象の画像データと、上記情報処理装置の状況とに基づいて、上記選択された複数の認識対象画像各々に対して、表示の優先順位を設定する
 情報処理装置。
 (10)
 上記(9)に記載の情報処理装置であって、
 上記表示制御部は、上記優先順位に基づき、上記表示部に表示される認識対象画像を決定する
 情報処理装置。
 (11)
 上記(9)又は(10)に記載の情報処理装置であって、
 上記表示制御部は、上記情報処理装置の状況に応じて、上記表示部に表示されるガイド画像の表示位置を制御する
 情報処理装置。
 (12)
 上記(9)から(11)のいずれか1つに記載の情報処理装置であって、
 上記表示制御部は、上記優先順位に基づき、上記表示部に表示されるガイド画像の表示位置を制御する
 情報処理装置。
 (13)
 上記(1)から(12)のいずれか1つに記載の情報処理装置であって、
 上記表示制御部は、認識対象に対する上記認識処理部の認識位置と、当該認識対象に対するユーザの認識位置とのズレを補正する
 情報処理装置。
 (14)
 上記(1)から(13)のいずれか1つに記載の情報処理装置であって、
 上記表示制御部は、上記表示部に表示されるガイド画像の表示位置と、上記認識領域とを対応づける
 情報処理装置。
 (15)
 上記(1)から(14)のいずれか1つに記載の情報処理装置であって、
 上記表示制御部は、上記表示部を介して上記ユーザに提示されるガイド画像の表示位置に基づいて上記認識領域を計算し、上記計算結果から上記認識領域を決定する
 情報処理装置。
 (16)
 情報処理装置が、
 認識対象を含む認識対象画像と、上記認識対象を認識する認識領域を示すガイド画像とを表示部に表示し、
 上記認識領域内の上記認識対象を認識する認識処理を実行し、
 上記認識処理の結果に基づいて、上記情報処理装置の自己位置を推定する
 情報処理方法。
 (17)
 認識対象を含む認識対象画像と、上記認識対象を認識する認識領域を示すガイド画像とを表示部に表示するステップと、
 上記認識領域内の上記認識対象を認識する認識処理を実行するステップと、
 上記認識処理の結果に基づいて、情報処理装置の自己位置を推定するステップと
 を上記情報処理装置に実行させるプログラム。
 情報処理装置・・・20
 制御部・・・21
 自己位置推定システム・・・100
 自己位置推定部・・・211
 認識処理部・・・212
 表示制御部・・・213

Claims (17)

  1.  情報処理装置であって、
      認識対象を含む認識対象画像と、前記認識対象を認識する認識領域を示すガイド画像とが表示部に表示されるように制御する表示制御部と、
      前記認識領域内の前記認識対象を認識する認識処理を実行する認識処理部と、
      前記認識処理の結果に基づいて、前記情報処理装置の自己位置を推定する自己位置推定部と
     を有する制御部
     を具備する前記情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記自己位置推定部は、前記認識処理部により認識された認識対象の画像データと当該認識対象の位置情報とが対応づけられたマップを構築する
     情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     前記自己位置推定部は、前記マップの所定の領域内において同一の認識対象が複数存在する場合に、前記複数の認識対象のうち一部の認識対象の画像データを消去する
     情報処理装置。
  4.  請求項2に記載の情報処理装置であって、
     前記認識処理部は、認識対象の特徴量を算出し、前記特徴量と当該認識対象の予め登録された特徴量との誤差が所定の閾値以下である場合に、認識対象を認識する
     情報処理装置。
  5.  請求項2に記載の情報処理装置であって、
     前記認識処理部は、前記認識処理として、認識対象の特徴量を算出し、
     前記自己位置推定部は、当該算出された特徴量と、前記認識された認識対象の特徴量との誤差が所定の閾値以下である場合に、前記情報処理装置の自己位置を推定する
     情報処理装置。
  6.  請求項4に記載の情報処理装置であって、
     前記認識処理部は、前記特徴量として、認識対象の2次元特徴量又は3次元特徴量を算出する
     情報処理装置。
  7.  請求項2に記載の情報処理装置であって、
     前記表示制御部は、前記情報処理装置の状況に応じて、前記表示部に表示される認識対象画像を決定する
     情報処理装置。
  8.  請求項7に記載の情報処理装置であって、
     前記表示制御部は、前記情報処理装置の現在位置と前記マップとに基づいて、前記表示部に表示される認識対象画像の候補を複数選択する
     情報処理装置。
  9.  請求項8に記載の情報処理装置であって、
     前記表示制御部は、前記マップにおける認識対象の位置情報と、当該認識対象の画像データと、前記情報処理装置の状況とに基づいて、前記選択された複数の認識対象画像各々に対して、表示の優先順位を設定する
     情報処理装置。
  10.  請求項9に記載の情報処理装置であって、
     前記表示制御部は、前記優先順位に基づき、前記表示部に表示される認識対象画像を決定する
     情報処理装置。
  11.  請求項9に記載の情報処理装置であって、
     前記表示制御部は、前記情報処理装置の状況に応じて、前記表示部に表示されるガイド画像の表示位置を制御する
     情報処理装置。
  12.  請求項11に記載の情報処理装置であって、
     前記表示制御部は、前記優先順位に基づき、前記表示部に表示されるガイド画像の表示位置を制御する
     情報処理装置。
  13.  請求項1に記載の情報処理装置であって、
     前記表示制御部は、認識対象に対する前記認識処理部の認識位置と、当該認識対象に対するユーザの認識位置とのズレを補正する
     情報処理装置。
  14.  請求項13に記載の情報処理装置であって、
     前記表示制御部は、前記表示部に表示されるガイド画像の表示位置と、前記認識領域とを対応づける
     情報処理装置。
  15.  請求項14に記載の情報処理装置であって、
     前記表示制御部は、前記表示部を介して前記ユーザに提示されるガイド画像の表示位置に基づいて前記認識領域を計算し、前記計算結果から前記認識領域を決定する
     情報処理装置。
  16.  情報処理装置が、
     認識対象を含む認識対象画像と、前記認識対象を認識する認識領域を示すガイド画像とを表示部に表示し、
     前記認識領域内の前記認識対象を認識する認識処理を実行し、
     前記認識処理の結果に基づいて、前記情報処理装置の自己位置を推定する
     情報処理方法。
  17.  認識対象を含む認識対象画像と、前記認識対象を認識する認識領域を示すガイド画像とを表示部に表示するステップと、
     前記認識領域内の前記認識対象を認識する認識処理を実行するステップと、
     前記認識処理の結果に基づいて、情報処理装置の自己位置を推定するステップと
     を前記情報処理装置に実行させるプログラム。
PCT/JP2019/036948 2018-11-09 2019-09-20 情報処理装置、情報処理方法及びプログラム WO2020095551A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018211265 2018-11-09
JP2018-211265 2018-11-09

Publications (1)

Publication Number Publication Date
WO2020095551A1 true WO2020095551A1 (ja) 2020-05-14

Family

ID=70611600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/036948 WO2020095551A1 (ja) 2018-11-09 2019-09-20 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2020095551A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239339A (ja) * 2010-05-13 2011-11-24 Fujitsu Ltd 位置推定装置、位置推定方法及び位置推定プログラム
JP2015011494A (ja) * 2013-06-28 2015-01-19 オリンパス株式会社 情報提示システム及び情報提示システムの制御方法
JP2015087909A (ja) * 2013-10-30 2015-05-07 キヤノン株式会社 情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラム
JP2015207181A (ja) * 2014-04-22 2015-11-19 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239339A (ja) * 2010-05-13 2011-11-24 Fujitsu Ltd 位置推定装置、位置推定方法及び位置推定プログラム
JP2015011494A (ja) * 2013-06-28 2015-01-19 オリンパス株式会社 情報提示システム及び情報提示システムの制御方法
JP2015087909A (ja) * 2013-10-30 2015-05-07 キヤノン株式会社 情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラム
JP2015207181A (ja) * 2014-04-22 2015-11-19 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NAKAGAWA, TOMOKA ET AL.: "Camera position and posture estimation for a still image based on a voting approach using feature landmark database", IPSJ SIG TECHNICAL REPORTS, 20 January 2006 (2006-01-20), pages 93 - 100, XP031351370 *
OE, MOTOKO ET AL.: "Camera position and posture estimation based on feature landmark database for geometric registration", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 10, no. 3, 2005, pages 285 - 294, XP055706136 *

Similar Documents

Publication Publication Date Title
US11632536B2 (en) Method and apparatus for generating three-dimensional (3D) road model
US11710322B2 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
WO2019205865A1 (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
US9875579B2 (en) Techniques for enhanced accurate pose estimation
JP7305249B2 (ja) 画像特徴点の動き情報の決定方法、タスク実行方法およびデバイス
JP2019109245A (ja) 視覚強化ナビゲーション
US20100296705A1 (en) Method of and arrangement for mapping range sensor data on image sensor data
US10771707B2 (en) Information processing device and information processing method
CN113610702B (zh) 一种建图方法、装置、电子设备及存储介质
EP2525288A2 (en) Method, system, and computer-readable recording medium for providing information on an object using a viewing frustum
JP5518677B2 (ja) 仮想情報付与装置及び仮想情報付与プログラム
JP2018173882A (ja) 情報処理装置、方法、及びプログラム
EP4246281A1 (en) Information display system, information display method, and carrier means
KR20130015984A (ko) 차선 인식 장치 및 그 방법
US9811889B2 (en) Method, apparatus and computer program product for generating unobstructed object views
WO2020095551A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20220030206A1 (en) Information processing apparatus, information processing method, program, and projection system
JP2021103410A (ja) 移動体及び撮像システム
CN110660134B (zh) 三维地图构建方法、三维地图构建装置及终端设备
TWI779332B (zh) 擴增實境系統與其錨定顯示虛擬物件的方法
TW202008209A (zh) 車輛之位置決定方法及系統,及其相關電腦程式產品
US11354897B2 (en) Output control apparatus for estimating recognition level for a plurality of taget objects, display control system, and output control method for operating output control apparatus
JP7444292B2 (ja) 検出システム、検出方法、及びプログラム
WO2021005876A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
US20240037759A1 (en) Target tracking method, device, movable platform and computer-readable storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19881383

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19881383

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP