JP2020101696A - 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム - Google Patents

地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム Download PDF

Info

Publication number
JP2020101696A
JP2020101696A JP2018240121A JP2018240121A JP2020101696A JP 2020101696 A JP2020101696 A JP 2020101696A JP 2018240121 A JP2018240121 A JP 2018240121A JP 2018240121 A JP2018240121 A JP 2018240121A JP 2020101696 A JP2020101696 A JP 2020101696A
Authority
JP
Japan
Prior art keywords
vehicle
information
image
map generation
pollen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018240121A
Other languages
English (en)
Other versions
JP7119985B2 (ja
Inventor
卓郎 柳
Takuro Yanagi
卓郎 柳
麻貴 田村
Maki Tamura
麻貴 田村
睦実 松浦
Mutsumi Matsuura
睦実 松浦
井上 利彦
Toshihiko Inoue
利彦 井上
直樹 山室
Naoki Yamamuro
直樹 山室
林 貴志
Takashi Hayashi
貴志 林
孝広 志賀
Takahiro Shiga
孝広 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018240121A priority Critical patent/JP7119985B2/ja
Priority to US16/666,583 priority patent/US10893388B2/en
Priority to CN201911319882.7A priority patent/CN111354210B/zh
Publication of JP2020101696A publication Critical patent/JP2020101696A/ja
Application granted granted Critical
Publication of JP7119985B2 publication Critical patent/JP7119985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3826Terrain data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/48Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Ecology (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

【課題】花粉の飛散状況に関して粒度が細かい情報を得る。【解決手段】地図生成装置42は、車両10から画像51が撮影された時点における車両10の位置情報52を取得する通信部23と、通信部23により取得された車両10の位置情報52と、画像51にて、花粉対策品を着用している人が検出された結果を示す検出情報53とに基づいて、花粉の飛散状況を推定し、推定した飛散状況を示す地図情報55を生成する制御部21とを備える。【選択図】図2

Description

本発明は、地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラムに関する。
特許文献1及び特許文献2には、人の顔を撮影した画像から、その人がマスクを着用しているか否かを判定する技術が記載されている。
特開2004−310397号公報 特開2008−083932号公報
気象情報サービスの一環として現在提供されている花粉情報は、大まかな地域ごとの花粉の飛散量を予測したものであり、粒度が粗いため、花粉症のユーザにとって真に有用な情報とはなっていない。
本発明の目的は、花粉の飛散状況に関して粒度が細かい情報を得ることである。
本発明の一実施形態に係る地図生成装置は、
車両から画像が撮影された時点における前記車両の位置情報を取得する通信部と、
前記通信部により取得された前記車両の位置情報と、前記画像にて、花粉対策品を着用している人が検出された結果を示す検出情報とに基づいて、花粉の飛散状況を推定し、推定した飛散状況を示す地図情報を生成する制御部と
を備える。
本発明の一実施形態に係る地図生成方法では、
通信部が、車両から画像が撮影された時点における前記車両の位置情報を取得し、
制御部が、前記通信部により取得された前記車両の位置情報と、前記画像にて、花粉対策品を着用している人が検出された結果を示す検出情報とに基づいて、花粉の飛散状況を推定し、推定した飛散状況を示す地図情報を生成する。
本発明の一実施形態に係る地図生成プログラムは、
コンピュータに、
車両から画像が撮影された時点における前記車両の位置情報を取得するステップと、
取得された前記車両の位置情報と、前記画像にて、花粉対策品を着用している人が検出された結果を示す検出情報とに基づいて、花粉の飛散状況を推定し、推定した飛散状況を示す地図情報を生成するステップと
を実行させる。
本発明の一実施形態によれば、花粉の飛散状況に関して粒度が細かい情報を得られる。
本発明の一実施形態に係る地図生成システムの構成を示す模式図である。 本発明の一実施形態に係る地図生成システムの構成を示すブロック図である。 本発明の一実施形態に係る地図生成システムの動作を示すフローチャートである。 本発明の一実施形態の変形例に係る地図生成システムの構成を示すブロック図である。 本発明の一実施形態の変形例に係る地図生成システムの動作を示すフローチャートである。
以下、本発明の実施形態について、図を参照して説明する。
各図中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
図1及び図2を参照して、本実施形態の概要を説明する。
地図生成装置42の通信部23は、車両10から画像51が撮影された時点における車両10の位置情報52を取得する。地図生成装置42の制御部21は、通信部23により取得された車両10の位置情報52と、画像51にて、花粉対策品を着用している人が検出された結果を示す検出情報53とに基づいて、花粉の飛散状況を推定する。制御部21は、推定した飛散状況を示す地図情報55を生成する。
本実施形態では、車両10から撮影された画像51に写っている人のマスク又はメガネといった花粉対策品の着用状況をもとに、画像51が撮影された位置における花粉の飛散量が推定される。その結果、現在提供されている花粉情報54のような、大まかな地域ごとの花粉の飛散量ではなく、具体的な位置における花粉の飛散量を示す地図情報55が生成される。
画像51としては、例えば、移動する車両10から連続的に撮影された動画像を使用できる。あるいは、移動する車両10から断続的に撮影された複数の静止画像を使用できる。あるいは、位置が異なる複数台の車両10から個別に撮影された複数の画像を使用できる。いずれの場合も、具体的な位置ごとの花粉の飛散量が推定される。その結果、具体的な位置ごとの花粉の飛散量を示す地図情報55が生成される。例えば、1つ以上の地域内の様々な位置における花粉の飛散量を示す地図情報55を生成することも可能である。
このように、本実施形態によれば、花粉の飛散状況に関して粒度が細かい情報を得られる。すなわち、花粉症のユーザにとって有用な情報を得られる。
車両10は、本実施形態では、自動車であるが、他の種類の車両でもよい。
図2を参照して、本実施形態に係る地図生成システム40の構成を説明する。
地図生成システム40は、画像解析装置41と、地図生成装置42とを備える。
画像解析装置41及び地図生成装置42は、移動体通信網及びインターネットなどのネットワーク43を介して互いに通信可能である。地図生成装置42は、ネットワーク43を介して端末機器30とも通信可能である。
画像解析装置41は、車両10に備えられている。画像解析装置41は、ナビゲーション装置などの車載機器として構成されてもよいし、又はスマートフォンなど、車載機器に接続して使用される電子機器として構成されてもよい。
画像解析装置41は、制御部11、記憶部12、通信部13、及び測位部14といった構成要素を備える。
制御部11は、1つ以上のプロセッサである。プロセッサとしては、CPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサを使用できる。「CPU」は、Central Processing Unitの略語である。制御部11には、1つ以上の専用回路が含まれてもよいし、又は制御部11において、1つ以上のプロセッサを1つ以上の専用回路に置き換えてもよい。専用回路としては、例えば、FPGA又はASICを使用できる。「FPGA」は、Field-Programmable Gate Arrayの略語である。「ASIC」は、Application Specific Integrated Circuitの略語である。制御部11には、1つ以上のECUが含まれてもよい。「ECU」は、Electronic Control Unitの略語である。制御部11は、画像解析装置41を含む車両10の各部を制御しながら、画像解析装置41の動作に関わる情報処理を実行する。
記憶部12は、1つ以上のメモリである。メモリとしては、例えば、半導体メモリ、磁気メモリ、又は光メモリを使用できる。メモリは、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してよい。記憶部12には、画像解析装置41の動作に用いられる情報と、画像解析装置41の動作によって得られた情報とが記憶される。
通信部13は、1つ以上の通信モジュールである。通信モジュールとしては、例えば、DSRC、LTE、4G、又は5Gに対応した通信モジュールを使用できる。「DSRC」は、Dedicated Short Range Communicationsの略語である。「LTE」は、Long Term Evolutionの略語である。「4G」は、4th Generationの略語である。「5G」は、5th Generationの略語である。通信部13は、画像解析装置41の動作に用いられる情報を受信し、また画像解析装置41の動作によって得られる情報を送信する。
測位部14は、1つ以上の測位モジュールである。測位モジュールとしては、例えば、GPS、QZSS、GLONASS、又はGalileoに対応した測位モジュールを使用できる。「GPS」は、Global Positioning Systemの略語である。「QZSS」は、Quasi-Zenith Satellite Systemの略語である。QZSSの衛星は、準天頂衛星と呼ばれる。「GLONASS」は、Global Navigation Satellite Systemの略語である。測位部14は、車両10の位置情報52を取得する。
画像解析装置41の機能は、本実施形態に係る画像解析プログラムを、制御部11に含まれるプロセッサで実行することにより実現される。すなわち、画像解析装置41の機能は、ソフトウェアにより実現される。画像解析プログラムは、画像解析装置41の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させるためのプログラムである。すなわち、画像解析プログラムは、コンピュータを画像解析装置41として機能させるためのプログラムである。
プログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、又は半導体メモリを使用できる。プログラムの流通は、例えば、プログラムを記録したDVD又はCD−ROMなどの可搬型記録媒体を販売、譲渡、又は貸与することによって行う。「DVD」は、Digital Versatile Discの略語である。「CD−ROM」は、Compact Disc Read Only Memoryの略語である。プログラムをサーバのストレージに格納しておき、ネットワークを介して、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
コンピュータは、例えば、可搬型記録媒体に記録されたプログラム又はサーバから転送されたプログラムを、一旦、メモリに格納する。そして、コンピュータは、メモリに格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型記録媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、Application Service Providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
画像解析装置41の一部又は全ての機能が、制御部11に含まれる専用回路により実現されてもよい。すなわち、画像解析装置41の一部又は全ての機能が、ハードウェアにより実現されてもよい。
車両10には、画像解析装置41のほかに、撮影部15、入力部16、及び出力部17が備えられている。車両10において、撮影部15、入力部16、及び出力部17を画像解析装置41の一部としてもよい。
撮影部15は、1つ以上の車載カメラである。車載カメラとしては、例えば、フロントカメラ、サイドカメラ、又はリアカメラを使用できる。撮影部15は、車両10から画像51を撮影する。すなわち、撮影部15は、車両10の外の画像51を撮影する。
入力部16は、1つ以上の入力インタフェースである。入力インタフェースとしては、例えば、物理キー、静電容量キー、ポインティングデバイス、車載ディスプレイと一体的に設けられたタッチスクリーン、又は車載マイクを使用できる。入力部16は、画像解析装置41の動作に用いられる情報の入力を、車両10の運転手などのユーザから受け付ける。
出力部17は、1つ以上の出力インタフェースである。出力インタフェースとしては、例えば、車載ディスプレイ又は車載スピーカを使用できる。車載ディスプレイとしては、例えば、HUD、LCD、又は有機ELディスプレイを使用できる。「HUD」は、Head-Up Displayの略語である。「LCD」は、Liquid Crystal Displayの略語である。「EL」は、Electro Luminescenceの略語である。出力部17は、画像解析装置41の動作によって得られる情報をユーザに向けて出力する。
地図生成装置42は、任意の場所に備えられていてよいが、本実施形態では、データセンタに備えられている。地図生成装置42は、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバ20として構成される。
地図生成装置42は、制御部21、記憶部22、及び通信部23といった構成要素を備える。
制御部21は、1つ以上のプロセッサである。プロセッサとしては、CPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサを使用できる。制御部21には、1つ以上の専用回路が含まれてもよいし、又は制御部21において、1つ以上のプロセッサを1つ以上の専用回路に置き換えてもよい。専用回路としては、例えば、FPGA又はASICを使用できる。制御部21は、地図生成装置42であるサーバ20の各部を制御しながら、地図生成装置42の動作に関わる情報処理を実行する。
記憶部22は、1つ以上のメモリである。メモリとしては、例えば、半導体メモリ、磁気メモリ、又は光メモリを使用できる。メモリは、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してよい。記憶部22には、地図生成装置42の動作に用いられる情報と、地図生成装置42の動作によって得られた情報とが記憶される。
通信部23は、1つ以上の通信モジュールである。通信モジュールとしては、例えば、LAN規格に対応した通信モジュールを使用できる。「LAN」は、Local Area Networkの略語である。通信部23は、地図生成装置42の動作に用いられる情報を受信し、また地図生成装置42の動作によって得られる情報を送信する。
地図生成装置42の機能は、本実施形態に係る地図生成プログラムを、制御部21に含まれるプロセッサで実行することにより実現される。すなわち、地図生成装置42の機能は、ソフトウェアにより実現される。地図生成プログラムは、地図生成装置42の動作に含まれるステップの処理をコンピュータに実行させることで、当該ステップの処理に対応する機能をコンピュータに実現させるためのプログラムである。すなわち、地図生成プログラムは、コンピュータを地図生成装置42として機能させるためのプログラムである。
地図生成装置42の一部又は全ての機能が、制御部21に含まれる専用回路により実現されてもよい。すなわち、地図生成装置42の一部又は全ての機能が、ハードウェアにより実現されてもよい。
端末機器30は、ユーザによって使用される機器である。端末機器30は、スマートフォンなど、ユーザによって携帯されるモバイル機器として構成されてもよいし、デスクトップPCなど、ユーザによって自宅又はオフィスで使用される非モバイル機器として構成されてもよいし、又はナビゲーション装置など、ユーザによって車内で使用される車載機器として構成されてもよい。「PC」は、Personal Computerの略語である。
図2のほかに、図3を参照して、本実施形態に係る地図生成システム40の動作を説明する。地図生成システム40の動作は、本実施形態に係る地図生成方法に相当する。
ステップS101からステップS103の処理は、車両10で実行される。
ステップS101において、画像解析装置41の制御部11は、車両10から撮影された画像51と、画像51が撮影された時点における車両10の位置情報52とを取得する。
具体的には、制御部11は、車両10の前方、側方、及び後方など、車両10の外の画像51を撮影部15から取得する。画像51は、動画像でもよいし、静止画像でもよい。制御部11は、現在時刻における車両10の位置情報52を測位部14から取得する。位置情報52は、例えば、GPS、QZSS、GLONASS、Galileo、又はこれらのうち2つ以上の組み合わせを利用して得られた、車両10の現在位置の2次元座標又は3次元座標である。制御部11は、撮影部15から取得した画像51を記憶部12に記憶するとともに、現在時刻を示す時刻情報と、測位部14から取得した位置情報52とを、その画像51に対応付けて記憶部12に記憶する。
制御部11は、画像51とともに、画像51が撮影された時刻を示す時刻情報を撮影部15から取得してもよい。その場合、制御部11は、取得した時刻情報に示されている時刻における車両10の位置情報52を測位部14から取得する。制御部11は、取得した画像51を記憶部12に記憶するとともに、取得した時刻情報及び位置情報52を、その画像51に対応付けて記憶部12に記憶する。
ステップS102において、画像解析装置41の制御部11は、ステップS101で取得した画像51を解析することで、その画像51にて、花粉対策品を着用している人を検出して、検出結果を示す検出情報53を生成する。すなわち、制御部11は、画像51にて、花粉対策品を着用している人が検出された結果を示す検出情報53を生成する。
具体的には、制御部11は、ステップS101で記憶部12に記憶した画像51を解析して、車両10の周囲にいる歩行者、他の車両に乗っている人、及びその他の人を認識する。制御部11は、画像51をさらに解析して、認識した人がマスク又はメガネといった花粉対策品を着用しているかどうかを判定する。画像51内の人及び花粉対策品を認識する技術としては、例えば、機械学習、パターンマッチング、特徴点抽出、又はこれらの組み合わせによる画像認識技術を使用できる。特許文献1又は特許文献2に記載の技術など、任意の従来技術を使用してもよい。制御部11は、認識した人の数である総人数と、花粉対策品を着用していると判定した人の数である検出人数とを示す情報を検出情報53として生成する。
検出情報53は、検出人数の代わりに、総人数に対する検出人数の比率である検出率を示す情報でもよい。
検出情報53は、検出人数として、制御部11によりマスク及びメガネの両方を着用していると判定された人の数を示す情報でもよい。すなわち、検出情報53に示される検出人数は、マスクのみを着用している人、及びメガネのみを着用している人を除外した数でもよい。
検出情報53は、検出人数として、制御部11により花粉対策メガネを着用していると判定された人の数を示す情報でもよい。花粉対策メガネには、通常のメガネと異なり、目元を覆うカバーがフレームに取り付けられているという特徴がある。制御部11は、画像51を解析して、この特徴を検出することで、通常のメガネを着用している人と、花粉対策メガネを着用している人とを判別できる。
検出情報53は、画像51にて、花粉対策品を着用している人の目の潤みが検出された結果をさらに示す情報であってもよい。例えば、検出情報53は、検出人数として、制御部11により花粉対策品を着用していて、かつ目が潤んでいると判定された人の数を示す情報でもよい。画像51内の人の目の潤みを認識する技術としては、例えば、機械学習、パターンマッチング、特徴点抽出、又はこれらの組み合わせによる画像認識技術を使用できる。
検出情報53は、画像51にて、花粉対策品を着用している人の目の充血が検出された結果をさらに示す情報であってもよい。例えば、検出情報53は、検出人数として、制御部11により花粉対策品を着用していて、かつ目が充血していると判定された人の数を示す情報でもよい。画像51内の人の目の充血を認識する技術としては、例えば、機械学習、パターンマッチング、特徴点抽出、又はこれらの組み合わせによる画像認識技術を使用できる。
撮影部15に含まれる車載カメラが車両10の外側に配置されている場合、検出情報53は、画像51にて、その車載カメラのレンズに付着した花粉が検出された結果をさらに示す情報であってもよい。その場合、制御部11は、画像51を解析して、画像51の撮影に使用された車載カメラのレンズに花粉が付着しているかどうかを判定する。画像51内のレンズに付着した花粉を認識する技術としては、例えば、機械学習、パターンマッチング、特徴点抽出、又はこれらの組み合わせによる画像認識技術を使用できる。
撮影部15に含まれる車載カメラが車両10の内側に配置されている場合、検出情報53は、画像51にて、その車載カメラのレンズに対向する車両10の窓ガラスに付着した花粉が検出された結果をさらに示す情報であってもよい。その場合、制御部11は、画像51を解析して、画像51の撮影方向に存在する車両10の窓ガラスに花粉が付着しているかどうかを判定する。画像51内の窓ガラスに付着した花粉を認識する技術としては、例えば、機械学習、パターンマッチング、特徴点抽出、又はこれらの組み合わせによる画像認識技術を使用できる。
ステップS103において、画像解析装置41の通信部13は、ステップS101で制御部11により取得された車両10の位置情報52と、ステップS102で制御部11により生成された検出情報53とを地図生成装置42に提供する。
具体的には、制御部11は、ステップS101で記憶部12に記憶した時刻情報及び位置情報52と、ステップS102で生成した検出情報53とを通信部13に入力する。通信部13は、制御部11から入力された時刻情報、位置情報52、及び検出情報53を、ネットワーク43経由の通信によって、サーバ20である地図生成装置42に送信する。
ステップS101からステップS103の処理は、移動する車両10で繰り返し実行される。あるいは、ステップS101からステップS103の処理は、位置が異なる複数台の車両10で実行される。
ステップS104の処理は、ステップS101からステップS103の処理が実行される度に、すなわち、位置情報52及び検出情報53が提供される度にサーバ20で実行される。
ステップS104において、地図生成装置42の通信部23は、ステップS103で車両10の画像解析装置41から提供された車両10の位置情報52と、検出情報53とを取得する。
具体的には、通信部23は、ステップS103で車両10の画像解析装置41から送信された時刻情報、位置情報52、及び検出情報53を、ネットワーク43を介して受信する。制御部21は、通信部23により受信された時刻情報、位置情報52、及び検出情報53を通信部23から取得する。制御部21は、取得した時刻情報、位置情報52、及び検出情報53を記憶部22に記憶する。
制御部21は、位置情報52が車両10の画像解析装置41からほぼリアルタイムに送信される場合は、時刻情報として、通信部23が位置情報52を車両10の画像解析装置41から受信した時刻を示す情報を記憶部22に記憶してもよい。その場合、通信部23は、時刻情報を車両10の画像解析装置41から受信しなくてよい。
ステップS105の処理は、サーバ20で実行される。ステップS105の処理は、ステップS104の処理よりも前に実行されてもよい。
ステップS105において、地図生成装置42の通信部23は、地域ごとの花粉情報54を取得する。
具体的には、通信部23は、気象情報サービスの一環として公開サーバから送信される花粉情報54を、ネットワーク43を介して受信する。制御部21は、通信部23により受信された花粉情報54を通信部23から取得する。制御部21は、取得した花粉情報54を記憶部22に記憶する。
ステップS106及びステップS107の処理は、ステップS104の処理が実行される度に、すなわち、位置情報52及び検出情報53が取得される度に、そのとき取得された位置情報52及び検出情報53について個別にサーバ20で実行される。あるいは、ステップS106及びステップS107の処理は、数分、数十分、又は数時間といった単位期間ごとに、単位期間内にステップS104で取得された全ての位置情報52及び検出情報53について一括してサーバ20で実行される。
ステップS106において、地図生成装置42の制御部21は、ステップS104で通信部23により取得された車両10の位置情報52と、検出情報53と、ステップS105で通信部23により取得された花粉情報54とに基づいて、花粉の飛散状況を推定する。制御部21は、推定した飛散状況を示す地図情報55を生成する。制御部21は、一旦ステップS106で地図情報55を生成した後、再びステップS106の処理を実行するときは、生成済の地図情報55を更新してもよいし、又は新たな地図情報55を生成し直してもよい。
具体的には、制御部21は、ステップS104で記憶部22に記憶した時刻情報に示されている時刻が現在時刻から数分、数十分、又は数時間といった規定期間内であれば、ステップS104で記憶部22に記憶した位置情報52及び検出情報53と、ステップS105で記憶部22に記憶した花粉情報54とを参照する。制御部21は、検出情報53に示されている検出人数に応じた花粉の飛散量を第1飛散量として特定する。第1飛散量は、検出人数を花粉の飛散量に換算するための表、若しくは式、又は検出人数から花粉の飛散量を推定する関数を用いて特定される。第1飛散量を特定するために用いられる表、式、及び関数は、いずれも任意の方法で決定されてよいが、例えば、花粉対策品を着用している人の数と花粉の飛散量との関係について実地調査を行い、その結果を分析することで予め決定される。制御部21は、位置情報52に示されている位置を含む地域について、花粉情報54に示されている花粉の飛散量を第2飛散量とし、第1飛散量と比較する。第2飛散量は、大まかな地域の花粉の飛散量を予測した値である。制御部21は、第1飛散量と第2飛散量との差が閾値を超えていなければ、第1飛散量が正しいと判定して、地図上の、位置情報52に示されている位置に第1飛散量をマッピングすることにより、地図情報55を生成又は更新する。制御部21は、第1飛散量と第2飛散量との差が閾値を超えていれば、第1飛散量が誤っていると判定して、第1飛散量のマッピングを中止する。第1飛散量及び第2飛散量は、1平方センチメートル当たりの花粉数、又は1立方メートル当たりの花粉数といった任意の単位で表されてよいが、便宜的に、5段階などの数値レベルで表されてもよい。
検出情報53が、検出人数の代わりに検出率を示す情報である場合、制御部21は、検出率に応じた花粉の飛散量を第1飛散量として特定する。第1飛散量は、検出率を花粉の飛散量に換算するための表、若しくは式、又は検出率から花粉の飛散量を推定する関数を用いて特定される。第1飛散量を特定するために用いられる表、式、及び関数は、いずれも任意の方法で決定されてよいが、例えば、花粉対策品を着用している人の比率と花粉の飛散量との関係について実地調査を行い、その結果を分析することで予め決定される。
検出情報53が、検出人数として、制御部11によりマスク及びメガネの両方を着用していると判定された人の数を示す情報である場合、花粉対策とは別の目的でマスクを着用している人が検出人数に含まれにくくなる。よって、第1飛散量の正確性、すなわち、花粉の飛散状況の推定精度が向上する。
検出情報53が、検出人数として、制御部11により花粉対策メガネを着用していると判定された人の数を示す情報である場合、通常のメガネを着用している人が検出人数に含まれにくくなる。よって、第1飛散量の正確性、すなわち、花粉の飛散状況の推定精度が向上する。
検出情報53が、検出人数として、制御部11により花粉対策品を着用していて、かつ目が潤んでいると判定された人の数を示す情報である場合、花粉症とは別の理由でマスクを着用している人が検出人数に含まれにくくなる。よって、第1飛散量の正確性、すなわち、花粉の飛散状況の推定精度が向上する。
検出情報53が、検出人数として、制御部11により花粉対策品を着用していて、かつ目が充血していると判定された人の数を示す情報である場合、花粉症とは別の理由でマスクを着用している人が検出人数に含まれにくくなる。よって、第1飛散量の正確性、すなわち、花粉の飛散状況の推定精度が向上する。
制御部21は、検出情報53に、画像51の撮影に使用された車載カメラのレンズと、画像51の撮影方向に存在する車両10の窓ガラスとのいずれかに花粉が付着しているという判定結果が示されている場合に限って、地図情報55を生成してもよい。その場合、第1飛散量の正確性、すなわち、花粉の飛散状況の推定精度が向上する。
制御部21は、第1飛散量と第2飛散量とを比較することなく、地図情報55を生成してもよい。その場合、花粉情報54を参照する必要がないため、ステップS105の処理を省略してよい。
制御部21は、地図情報55を適宜確認し、直近の規定期間よりも前に取得された位置情報52及び検出情報53に基づいてマッピングされた第1飛散量があれば、その第1飛散量を地図情報55から除外してよい。
制御部21は、本実施形態では、少なくとも1台の車両10について第1飛散量を特定した位置に、その第1飛散量をマッピングするが、規定台数以上の車両10についてほぼ同じ第1飛散量を特定した位置のみに、その第1飛散量をマッピングしてもよい。その場合、地図情報55の信頼性が向上する。
ステップS107において、地図生成装置42の通信部23は、ステップS106で制御部21により生成又は更新された地図情報55を端末機器30に提供する。
具体的には、制御部21は、ステップS106で生成又は更新した地図情報55を通信部23に入力する。通信部23は、制御部21から入力された地図情報55を、ネットワーク43を介して、端末機器30に送信する。
ステップS108及びステップS109の処理は、ステップS107の処理が実行される度に、すなわち、地図情報55が提供される度に端末機器30で実行される。
ステップS108において、端末機器30は、ステップS107でサーバ20である地図生成装置42から提供された地図情報55を取得する。
具体的には、端末機器30は、ステップS107でサーバ20である地図生成装置42から送信された地図情報55を、ネットワーク43を介して受信する。
ステップS109において、端末機器30は、ステップS108で取得した地図情報55をユーザに向けて表示する。
具体的には、端末機器30は、ステップS108で受信した地図情報55を含む画面をディスプレイに表示する。この画面において、地図情報55は、地図上の1つ以上の位置に、マッピングされた第1飛散量を示す数字、文字、アイコンなどの図形、又はこれらの組み合わせを配置する形式で表示される。同じ地図上のユーザの現在位置には、人のアイコンなどの図形が表示されてよい。
上述のように、車両10の画像解析装置41は、車両10から撮影された画像51を解析する。画像解析装置41は、画像51にて、花粉対策品を着用している人を検出する。画像解析装置41は、検出結果を示す検出情報53を生成する。画像解析装置41は、画像51が撮影された時点における車両10の位置情報52と、生成した検出情報53とを地図生成装置42に提供する。地図生成装置42は、画像解析装置41から提供された車両10の位置情報52と、検出情報53とを取得する。地図生成装置42は、取得した車両10の位置情報52と、検出情報53とに基づいて、花粉の飛散状況を推定する。地図生成装置42は、推定した飛散状況を示す地図情報55を生成する。したがって、本実施形態によれば、花粉の飛散状況に関して粒度が細かい情報を得られる。すなわち、花粉症のユーザにとって有用な情報を得られる。
画像解析装置41は、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属するサーバとして構成されてもよい。このサーバは、サーバ20でもよいし、サーバ20とは別のサーバでもよい。
画像解析装置41がサーバ20として構成される場合、図4に示すように、画像解析装置41は、地図生成装置42に統合される。図5に示すように、ステップS102の処理は、ステップS104aの処理としてサーバ20で実行される。そのため、ステップS101の後のステップS102aでは、ステップS101で取得された画像51及び車両10の位置情報52など、ステップS104aの処理に必要な情報が、車両10からサーバ20に提供される。ステップS102aの後のステップS103aでは、地図生成装置42の通信部23が、ステップS102aで車両10から提供された画像51と、車両10の位置情報52とを取得する。ステップS104aでは、地図生成装置42の制御部21が、ステップS103aで通信部23により取得された画像51を解析することで、その画像51にて、花粉対策品を着用している人を検出して、検出結果を示す検出情報53を生成する。すなわち、制御部21は、画像51にて、花粉対策品を着用している人が検出された結果を示す検出情報53を生成する。この検出情報53は、ステップS106の処理で地図情報55を生成又は更新するために利用される。
画像解析装置41がサーバ20とは別のサーバであるサーバXとして構成される場合、ステップS102及びステップS103の処理は、サーバXで実行される。ステップS101の処理が車両10で実行される度に、ステップS101で取得された画像51及び車両10の位置情報52など、ステップS102及びステップS103の処理に必要な情報が、車両10からサーバXにアップロードされる。ステップS103では、車両10の位置情報52及び検出情報53など、ステップS104からステップS107の処理に必要な情報が、サーバXからサーバ20に転送される。
本発明は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の複数のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の複数のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本発明の趣旨を逸脱しない範囲での変更が可能である。
10 車両
11 制御部
12 記憶部
13 通信部
14 測位部
15 撮影部
16 入力部
17 出力部
20 サーバ
21 制御部
22 記憶部
23 通信部
30 端末機器
40 地図生成システム
41 画像解析装置
42 地図生成装置
43 ネットワーク
51 画像
52 位置情報
53 検出情報
54 花粉情報
55 地図情報

Claims (9)

  1. 車両から画像が撮影された時点における前記車両の位置情報を取得する通信部と、
    前記通信部により取得された前記車両の位置情報と、前記画像にて、花粉対策品を着用している人が検出された結果を示す検出情報とに基づいて、花粉の飛散状況を推定し、推定した飛散状況を示す地図情報を生成する制御部と
    を備える地図生成装置。
  2. 前記検出情報は、前記画像にて、前記花粉対策品を着用している人の目の潤み及び充血の少なくともいずれかが検出された結果をさらに示す情報である請求項1に記載の地図生成装置。
  3. 前記検出情報は、前記画像にて、前記画像の撮影に使用された車載カメラのレンズと、前記画像の撮影方向に存在する前記車両の窓ガラスとのいずれかに付着した花粉が検出された結果をさらに示す情報である請求項1又は請求項2に記載の地図生成装置。
  4. 前記通信部は、地域ごとの花粉情報をさらに取得し、
    前記制御部は、前記車両の位置情報と、前記検出情報と、前記通信部により取得された花粉情報とに基づいて、前記飛散状況を推定する請求項1から請求項3のいずれか1項に記載の地図生成装置。
  5. 前記通信部は、前記画像をさらに取得し、
    前記制御部は、前記通信部により取得された前記画像を解析して前記検出情報を生成する請求項1から請求項4のいずれか1項に記載の地図生成装置。
  6. 請求項1から請求項4のいずれか1項に記載の地図生成装置と、
    前記画像を解析して前記検出情報を生成し、前記検出情報を前記地図生成装置に提供する画像解析装置と
    を備える地図生成システム。
  7. 前記画像解析装置は、前記車両に備えられ、前記車両の位置情報をさらに前記地図生成装置に提供する請求項6に記載の地図生成システム。
  8. 通信部が、車両から画像が撮影された時点における前記車両の位置情報を取得し、
    制御部が、前記通信部により取得された前記車両の位置情報と、前記画像にて、花粉対策品を着用している人が検出された結果を示す検出情報とに基づいて、花粉の飛散状況を推定し、推定した飛散状況を示す地図情報を生成する地図生成方法。
  9. コンピュータに、
    車両から画像が撮影された時点における前記車両の位置情報を取得するステップと、
    取得された前記車両の位置情報と、前記画像にて、花粉対策品を着用している人が検出された結果を示す検出情報とに基づいて、花粉の飛散状況を推定し、推定した飛散状況を示す地図情報を生成するステップと
    を実行させる地図生成プログラム。
JP2018240121A 2018-12-21 2018-12-21 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム Active JP7119985B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018240121A JP7119985B2 (ja) 2018-12-21 2018-12-21 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム
US16/666,583 US10893388B2 (en) 2018-12-21 2019-10-29 Map generation device, map generation system, map generation method, and non-transitory storage medium including instructions for map generation
CN201911319882.7A CN111354210B (zh) 2018-12-21 2019-12-19 地图生成设备、地图生成系统、地图生成方法以及地图生成程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018240121A JP7119985B2 (ja) 2018-12-21 2018-12-21 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム

Publications (2)

Publication Number Publication Date
JP2020101696A true JP2020101696A (ja) 2020-07-02
JP7119985B2 JP7119985B2 (ja) 2022-08-17

Family

ID=71096984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018240121A Active JP7119985B2 (ja) 2018-12-21 2018-12-21 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム

Country Status (3)

Country Link
US (1) US10893388B2 (ja)
JP (1) JP7119985B2 (ja)
CN (1) CN111354210B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022137534A (ja) * 2021-03-09 2022-09-22 本田技研工業株式会社 地図生成装置および車両位置認識装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102784A (ja) * 2006-10-19 2008-05-01 Matsushita Electric Ind Co Ltd 花粉症情報提供システムおよび花粉症情報提供方法
JP2010277526A (ja) * 2009-06-01 2010-12-09 Nec Corp 通信機器およびサーバおよび健康対策情報提供システムおよび健康対策情報提供方法
WO2012157015A1 (ja) * 2011-05-13 2012-11-22 三菱電機株式会社 ナビゲーション装置
JP2018059834A (ja) * 2016-10-06 2018-04-12 三菱電機株式会社 ナビゲーションシステム、乗員監視装置、情報端末装置、サーバ、およびナビゲーション用プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7853097B2 (en) * 2002-12-27 2010-12-14 Nikon Corporation Image processing apparatus and image processing program
JP4322537B2 (ja) 2003-04-07 2009-09-02 株式会社豊田中央研究所 マスク着用判定装置
JP2006263408A (ja) * 2005-03-24 2006-10-05 Hisatoku Sugiura ファッションマスク
JP2007163442A (ja) * 2005-12-16 2007-06-28 Clarion Co Ltd ナビゲーション装置、サーバシステム、これらの制御方法ならびに制御プログラム、気象データ配信表示システム及び方法
JP5054349B2 (ja) 2006-09-27 2012-10-24 綜合警備保障株式会社 入場規制装置、入場規制方法および入場規制プログラム
JP4989385B2 (ja) * 2007-09-12 2012-08-01 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP5964728B2 (ja) * 2012-11-06 2016-08-03 トヨタ自動車株式会社 ナビゲーションシステム
US9375847B2 (en) * 2013-01-18 2016-06-28 Irobot Corporation Environmental management systems including mobile robots and methods using same
US9230180B2 (en) * 2013-01-18 2016-01-05 GM Global Technology Operations LLC Eyes-off-the-road classification with glasses classifier
JP2015041969A (ja) * 2013-08-23 2015-03-02 ソニー株式会社 画像取得装置及び画像取得方法、並びに情報配信システム。
JP6518078B2 (ja) * 2015-02-25 2019-05-22 キヤノン株式会社 測定装置および測定方法、ならびに画像形成装置
US10226982B2 (en) * 2015-04-29 2019-03-12 International Business Machines Corporation Automatic vehicle climate control based on predicted air quality
US20170173371A1 (en) * 2015-12-21 2017-06-22 Nextteq Llc Respirator Seals
JP6477551B2 (ja) * 2016-03-11 2019-03-06 トヨタ自動車株式会社 情報提供装置及び情報提供プログラム
US10022614B1 (en) * 2016-05-02 2018-07-17 Bao Tran Smart device
JP6629139B2 (ja) * 2016-05-30 2020-01-15 株式会社東芝 制御装置、制御方法およびプログラム
CN106200925B (zh) * 2016-06-28 2019-03-19 Oppo广东移动通信有限公司 移动终端的控制方法、装置及移动终端
US10915601B2 (en) * 2016-06-30 2021-02-09 International Business Machines Corporation Personalized particulate matter exposure management using fine-grained weather modeling and optimal control theory
US10302613B2 (en) * 2016-10-11 2019-05-28 International Business Machines Corporation Estimation of concentration of particulate matter in atmosphere
JP6940969B2 (ja) * 2017-03-29 2021-09-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 車両制御装置、車両制御方法及びプログラム
JP7119346B2 (ja) * 2017-11-13 2022-08-17 トヨタ自動車株式会社 環境改善システム、ならびにそれに用いられるサーバ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008102784A (ja) * 2006-10-19 2008-05-01 Matsushita Electric Ind Co Ltd 花粉症情報提供システムおよび花粉症情報提供方法
JP2010277526A (ja) * 2009-06-01 2010-12-09 Nec Corp 通信機器およびサーバおよび健康対策情報提供システムおよび健康対策情報提供方法
WO2012157015A1 (ja) * 2011-05-13 2012-11-22 三菱電機株式会社 ナビゲーション装置
JP2018059834A (ja) * 2016-10-06 2018-04-12 三菱電機株式会社 ナビゲーションシステム、乗員監視装置、情報端末装置、サーバ、およびナビゲーション用プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
白井 良成, 岸野 泰恵, 納谷 太, 柳沢 豊, 米澤 拓郎, 中澤 仁, 徳田 英幸: "「公共車両を利用した大気状況センシングの試み」", 電子情報通信学会技術研究報告, vol. 第115巻 第393号, JPN6022004790, 8 January 2016 (2016-01-08), JP, pages 1 - 5, ISSN: 0004700973 *

Also Published As

Publication number Publication date
CN111354210B (zh) 2022-02-22
CN111354210A (zh) 2020-06-30
JP7119985B2 (ja) 2022-08-17
US20200204955A1 (en) 2020-06-25
US10893388B2 (en) 2021-01-12

Similar Documents

Publication Publication Date Title
CN111602140B (zh) 分析由头戴式设备的相机记录的图像中的对象的方法
US8571354B2 (en) Method of and arrangement for blurring an image
CN111062981A (zh) 图像处理方法、装置及存储介质
CN110570460A (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN112749613A (zh) 视频数据处理方法、装置、计算机设备及存储介质
KR20160096966A (ko) 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체
US20200202146A1 (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
CN111325701B (zh) 图像处理方法、装置及存储介质
US20210342601A1 (en) Information processing system, method of information processing, and program
JP7119985B2 (ja) 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム
EP3846161A1 (en) Information processing device, information processing method, and program
US11741671B2 (en) Three-dimensional scene recreation using depth fusion
US20210290129A1 (en) State estimation device, method and computer program therefor
JP2018195254A (ja) 表示制御プログラム、表示制御装置及び表示制御方法
CN113432620A (zh) 误差估计方法、装置、车载终端及存储介质
US11481996B2 (en) Calculation device, information processing method, and storage medium
CN112114659A (zh) 用于确定用户的精细的注视点的方法和系统
CN114600162A (zh) 用于捕捉摄像机图像的场景锁定模式
CN111080630A (zh) 眼底图像检测设备、方法、装置及存储介质
JP7176398B2 (ja) 制御装置、車両、画像表示システム、及び画像表示方法
WO2014058357A1 (en) Methods and apparatus for providing contextually relevant data in augmented reality
US11809621B2 (en) State estimation device, method and computer program therefor
US20230057371A1 (en) System for predictive virtual scenario presentation
JP6801985B2 (ja) 情報付与方法およびサーバ装置
JPWO2020044646A1 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7119985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151