JP2023159121A - 情報処理装置、情報処理方法、プログラム、および移動体 - Google Patents
情報処理装置、情報処理方法、プログラム、および移動体 Download PDFInfo
- Publication number
- JP2023159121A JP2023159121A JP2023124515A JP2023124515A JP2023159121A JP 2023159121 A JP2023159121 A JP 2023159121A JP 2023124515 A JP2023124515 A JP 2023124515A JP 2023124515 A JP2023124515 A JP 2023124515A JP 2023159121 A JP2023159121 A JP 2023159121A
- Authority
- JP
- Japan
- Prior art keywords
- content
- frame
- information
- unit
- superimposition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 44
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000000007 visual effect Effects 0.000 claims abstract description 50
- 230000033001 locomotion Effects 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 238
- 238000000034 method Methods 0.000 claims description 85
- 230000008569 process Effects 0.000 claims description 78
- 238000001514 detection method Methods 0.000 claims description 70
- 238000004364 calculation method Methods 0.000 claims description 38
- 238000005516 engineering process Methods 0.000 abstract description 19
- 238000010586 diagram Methods 0.000 description 83
- 238000004458 analytical method Methods 0.000 description 71
- 230000003044 adaptive effect Effects 0.000 description 34
- 230000007717 exclusion Effects 0.000 description 31
- 238000004891 communication Methods 0.000 description 29
- 239000004973 liquid crystal related substance Substances 0.000 description 19
- 230000010287 polarization Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 239000000203 mixture Substances 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 239000000872 buffer Substances 0.000 description 10
- 238000010191 image analysis Methods 0.000 description 9
- 230000010391 action planning Effects 0.000 description 8
- 230000005856 abnormality Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000036626 alertness Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- AFCARXCZXQIEQB-UHFFFAOYSA-N N-[3-oxo-3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)propyl]-2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carboxamide Chemical compound O=C(CCNC(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F)N1CC2=C(CC1)NN=N2 AFCARXCZXQIEQB-UHFFFAOYSA-N 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3697—Output of additional, non-guidance related information, e.g. low fuel level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Computer Graphics (AREA)
- Chemical & Material Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
- Instrument Panels (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】本技術は、ユーザが見ている風景に重ねて、コンテンツを適切に表示させることができるようにする。【解決手段】オブジェクトの表面に対応する領域に、コンテンツの重畳先となるフレームを、ユーザの移動状況に基づいて設定し、設定したフレームに対応する領域にコンテンツを表示するための視覚情報を生成する。本技術は、コンテンツのAR表示を行う装置に適用することができる。【選択図】図3
Description
本技術は、情報処理装置、情報処理方法、プログラム、および移動体に関し、特に、ユーザが見ている風景に重ねて、コンテンツを適切に表示させることができるようにした情報処理装置、情報処理方法、プログラム、および移動体に関する。
運転者の視界内に含まれる施設などに関する情報をヘッドアップディスプレイを用いてフロントガラスに投影し、運転者に提示する技術がある。運転者は、自身の前方に広がる風景に重ねて、各種の情報を見ることになる。
特許文献1には、施設に関するAR(Augmented Reality)画像を運転者が見ている実風景と対応付けて表示させる場合において、車速が速いときにはAR画像を遠方に表示させ、遅いときにはAR画像を近くに表示させる技術が開示されている。
風景に溶け込んで見えるような形で情報を提示することが望ましい。風景に溶け込んで見せることにより、運転者は、運転に集中しながら、情報を見ることができる。
本技術はこのような状況に鑑みてなされたものであり、ユーザが見ている風景に重ねて、コンテンツを適切に表示させることができるようにするものである。
本技術の一側面の情報処理装置、およびプログラム、並びに移動体は、移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部とを備え、前記表示制御部は、前記視覚情報に対してデフォーカス処理する情報処理装置、およびプログラム、並びに移動体である。
本技術の一側面の情報処理方法は、移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定し、前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成するステップを含み、前記視覚情報に対してデフォーカス処理がなされる情報処理方法である。
本技術の一側面においては、移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームが設定され、前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報が生成され、前記視覚情報に対してデフォーカス処理がなされる。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.第1の実施の形態
1-1.コンテンツの表示例
1-2.車両制御システムの構成例
1-3.車両制御システムの動作
1-4.変形例
2.第2の実施の形態
2-1.第2の実施の形態の概要
2-2.デフォーカス度の設定例
2-3.複数の情報重畳適切フレームが存在する場合のデフォーカス度の設定例
2-4.表示制御部の第2の実施の形態の構成例
2-5.変形例
3.第3の実施の形態
3-1.第3の実施の形態の概要
3-2.車両制御システムの構成例
3-3.図55の表示処理部による表示処理
3-4.変形例
1.第1の実施の形態
1-1.コンテンツの表示例
1-2.車両制御システムの構成例
1-3.車両制御システムの動作
1-4.変形例
2.第2の実施の形態
2-1.第2の実施の形態の概要
2-2.デフォーカス度の設定例
2-3.複数の情報重畳適切フレームが存在する場合のデフォーカス度の設定例
2-4.表示制御部の第2の実施の形態の構成例
2-5.変形例
3.第3の実施の形態
3-1.第3の実施の形態の概要
3-2.車両制御システムの構成例
3-3.図55の表示処理部による表示処理
3-4.変形例
<<<1.第1の実施の形態>>>
<<1-1.コンテンツの表示例>>
図1は、本技術の一実施形態に係る車両制御システムを搭載した車両の運転席近傍の内装を示す図である。
<<1-1.コンテンツの表示例>>
図1は、本技術の一実施形態に係る車両制御システムを搭載した車両の運転席近傍の内装を示す図である。
図1に示すように、運転席に座るユーザ(運転者)から見てダッシュボードの先にはフロントガラスGが設けられる。車両制御システムによるコンテンツの表示は、例えば、フロントガラスGに画像を投影することによって行われる。ユーザは、フロントガラスG越しに見える風景に重ねてコンテンツを見ることになる。
なお、以下においては、コンテンツを見る車両の搭乗者が運転者である場合について説明するが、コンテンツを見るユーザは、助手席や後部座席に座っている他のユーザであってもよい。
コンテンツとして、娯楽情報、実用情報、広告などの各種の情報を表す画像が表示される。コンテンツとして表示される画像は、動画である場合もあるし、静止画である場合もある。画像中に文字が含まれるようにしてもよいし、含まれないようにしてもよい。
このようなコンテンツのAR表示を実現する投影ユニットは、バックミラーの背面側やダッシュボードの上面などの所定の位置に設けられる。AR表示を実現するデバイスとして、投影ユニット以外の、虚像を投影する各種のデバイスが用いられるようにしてもよい。例えば、フロントガラスGに貼り付けられた透過型のディスプレイが用いられるようにしてもよいし、ユーザが装着する透過型のHMD(Head Mounted Display)が用いられるようにしてもよい。
車両制御システムによるコンテンツの表示は、風景内の最適な場所に、最適な表現で行われる。具体的には、風景内に実在する建物などのオブジェクトの壁面に設定されたフレームのうち、ユーザにとって見やすいと考えられるフレームが、最適な場所として移動状況に基づいて選択される。また、建物の壁面に実際に投影されているように見せるために、壁面の見え方に応じた画像処理を施した上でコンテンツの表示が行われる。
図2は、コンテンツの見え方の例を示す図である。
図2に示す横長長方形の範囲に示す風景は、運転席に座っているユーザが見ている風景の一部を表す。車両の前方には右に曲がるカーブが見えている。カーブの手前の右側には建物B1があり、カーブの先には建物B2がある。道路沿いの、建物B2のさらに先には建物B3がある。
図2に示すように、建物B1の壁面には、壁面の向きに合わせて矩形を変形させたフレームが設定され、そこにコンテンツC1が表示されている。
同様に、建物B2の壁面に設定されたフレームにはコンテンツC2が表示され、建物B3の壁面に設定されたフレームにはコンテンツC3が表示されている。近くにある建物の壁面にはコンテンツが大きく表示され、遠くにある建物の壁面にはコンテンツが小さく表示されている。
左上には、車速が表示されている。このように、コンテンツ以外の各種の情報を表示することも可能である。
図3は、図2に示すような風景の見え方を実現するためのコンテンツの表示例を示す図である。
図3のAは、ユーザの前方に見える実際の風景を示している。図3のAに示すように、実際の風景には、車両の前方に右に曲がるカーブが見え、道路沿いに建物B1乃至B3が見えている。
このような風景に対して、図3のBに示すような形でコンテンツC1乃至C3が表示され、図3のCに示す、図2と同じコンテンツの見え方が実現される。
図4は、コンテンツの表示を模式的に示す図である。
コンテンツの表示は、建物に設定されたフレームに対応するフロントガラスG上の領域に画像を表示させることによって行われる。ユーザの位置である位置Pを基準とすると、位置Pとフレーム(斜線部分)を結ぶ直線の内側の領域が、フレームに対応するフロントガラスG上の領域となる。図4の水平線は、ユーザと建物の間にある表示面としてのフロントガラスGを示す。
図4の例において、建物B1’に設定されたフレームに対応するフロントガラスG上の領域は領域G1であり、建物B2’に設定されたフレームに対応するフロントガラスG上の領域は領域G2である。領域G1と領域G2にコンテンツを表示させることによって、建物B1’と建物B2’の壁面にコンテンツが表示されているかのような見え方が実現される。
ユーザは、フロントガラスG越しに見える建物B1’に重ねて、領域G1に表示されたコンテンツを見ることになる。また、ユーザは、フロントガラスG越しに見える建物B2’に重ねて、領域G2に表示されたコンテンツを見ることになる。これにより、ユーザは、あたかも建物の壁面に表示されているかのような状態で各種の情報を見ることができる。
このように、建物の壁面に設定されたフレームに対するコンテンツの重畳は、フロントガラスGに画像を表示させることによって実現される。
表示内容は、車両の走行中、走行状況(移動状況)に応じてリアルタイムで更新される。運転席からの風景の見え方が変化することに伴って、コンテンツの見え方も変化する。
図5は、図2の状態から一定時間経過後のコンテンツの見え方の例を示す図である。
図5の状態は、車両がカーブを曲がっている最中の状態である。右側に見えていた建物B1の大部分は視界から外れ、建物B1に重畳されていたコンテンツC1が見えなくなっている。
また、建物B2が正面前方に迫っており、コンテンツC2が、図2の状態より大きく表示されている。コンテンツC2は、車両と建物B2の壁面との位置関係に基づいて、建物B2の壁面に表示されているかのような大きさ、形状で表示される。時間経過に伴って、コンテンツC2の表示内容も変化する。
同様に、建物B3の見え方の変化に伴って、コンテンツC3の表示も変化している。
また、図5の例では、図2の状態では見えなかった建物B4が、建物B3の先に新たに見えるようになっている。ユーザから見える建物B4の2つの壁面にもフレームがそれぞれ設定され、それぞれのフレームにコンテンツC4-1とコンテンツC4-2が重畳されている。
図6は、図5の状態から一定時間経過後のコンテンツの見え方の例を示す図である。
図6の状態は、車両がカーブを曲がりきり、道路を直進している状態である。左側に見えていた建物B2の大部分は視界から外れ、建物B2に重畳されていたコンテンツC2が見えなくなっている。
また、図5の状態ではほぼ見えていなかった建物B5の他に、建物B6,B7が前方に見えるようになっており、それぞれの壁面にコンテンツが重畳されている。
図7は、図6の状態から一定時間経過後のコンテンツの見え方の例を示す図である。
図7の状態は、建物B4の手前の位置を直進している状態である。建物B4乃至B7のそれぞれの建物に重畳されていたコンテンツの表示は、建物の見え方の変化に伴って変化している。また、図6の状態ではほぼ見えていなかった建物B8が右側に大きく見えるようになっており、建物B8の壁面にもコンテンツが重畳されている。
なお、ここでは、フレームが建物の壁面に設定される場合について説明しているが、貯水タンク、高速道路の両脇に設置された防音壁などの各種の建造物にもフレームが設定され、コンテンツが重畳される。フレームが設定される対象は建造物に限られるものではなく、遠くに見える山の斜面、海面などの自然物であってもよい。道路自体にフレームが設定され、コンテンツが重畳されるようにしてもよい。
すなわち、運転をしているユーザの視界内にある各種のオブジェクトにフレームを設定し、コンテンツを重畳させることが可能である。以下、主に、コンテンツの重畳先のオブジェクトが建物であるものとして説明する。
このように、車両制御システムによるコンテンツの表示は、運転中に見える建物に重畳させることによって行われる。また、建物に重畳されたコンテンツは、ユーザの見え方の変化に伴って、形状、大きさを変えて表示される。
後に詳述するように、実際には、建物が遠くにあり、霞んで見える場合にはコントラストを下げたり、建物に強い光が当たっており、明るく見える場合にはコントラストを下げたりするような画像処理が、コンテンツに対して施される。
建物に表示されているかのような形でコンテンツが表示され、また、その表示が風景の見え方の変化に伴って変化するから、ユーザは、運転をしながら、自然な形でコンテンツを見ることができる。
このようなコンテンツの表示を実現する車両制御システムの処理についてはフローチャートを参照して後述する。
<<1-2.車両制御システムの構成例>>
<1-2-1.車両制御システムの全体構成>
図8は、車両制御システム100の構成例を示すブロック図である。図8に示す車両制御システム100が情報処理装置として機能する。
<1-2-1.車両制御システムの全体構成>
図8は、車両制御システム100の構成例を示すブロック図である。図8に示す車両制御システム100が情報処理装置として機能する。
なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、適宜、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、および自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、および自動運転制御部112は、通信ネットワーク121を介して相互に接続されている。
通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、および、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。
また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、および、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、および、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、および、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からの信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、および、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
データ取得部102を構成するカメラにより、車両の進行方向の風景が撮影される。カメラにより撮影された風景画像が解析されることによって、建物の有無、建物の明るさ、周囲の明るさなどが特定される。
また、データ取得部102を構成する各種のセンサにより検出された結果に基づいて、進行方向、速度等の、車両の状況が特定される。特定された車両の状況は、車両の走行経路の予測などに用いられる。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、WUSB(Wireless USB)等により車内機器104と無線通信を行う。また、通信部103は、図示しない接続端子(および、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。
風景に重畳されるコンテンツが、コンテンツを管理するサーバから取得されるようにしてもよい。この場合、通信部103は、サーバと通信を行うことによってコンテンツを取得する。通信部103により取得されたコンテンツは例えば記憶部111に供給され、記憶される。
通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。また、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、および、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、および、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)および聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報および聴覚情報の出力を制御する。
具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、ランプ等を備える。
また、出力部106は、投影ユニット106Aを有する。投影ユニット106Aは、HUD、透過型ディスプレイなどの、AR表示機能を有する表示デバイスである。投影ユニット106Aは、上述したように、コンテンツ等の各種の情報をフロントガラスGに投影する。
駆動系制御部107は、各種の制御信号を駆動系システム108に供給し、駆動系システム108を制御する。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、および、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、SSD(Solid State Drive)、HDD(Hard Disc Drive)等の記憶デバイスにより構成される。記憶部111は、車両制御システム100の各部が用いるプログラムやデータ等を記憶する。
例えば、記憶部111には、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、および、自車の周囲の情報を含むローカルマップ等の地図データが記憶される。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。
自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、および、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、および、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、および、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。
また、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、および、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、および、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理および認識処理、運転者の状態の検出処理、搭乗者の検出処理、および、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、および、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無および内容、運転操作の状態、パワーシートの位置および傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、および、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、および、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置および姿勢等の推定処理を行う。
また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。
自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、および、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車および周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、および、状況予測部154を備える。
マップ解析部151は、自己位置推定部132および車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、および、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、および、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置および状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、および、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、および、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無および内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類および位置、周囲の動物体の種類、位置および動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成および路面の状態、並びに、周囲の天候、気温、湿度、および、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132および状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152および状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、および、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、および、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、および、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動および体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152および状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、および、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151および状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、および、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151および状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、および、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する。
動作計画部163は、マップ解析部151および状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、および、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172および方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、および、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、および、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172および方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<1-2-2.出力制御部の構成>
図9は、図8の出力制御部105の機能構成例を示すブロック図である。図9に示す機能部のうちの少なくとも一部は、所定のプログラムが実行されることによって実現される。
図9は、図8の出力制御部105の機能構成例を示すブロック図である。図9に示す機能部のうちの少なくとも一部は、所定のプログラムが実行されることによって実現される。
出力制御部105は、情報重畳適切視界設定部201、重畳対象フレーム選択部202、表示制御部203、およびコンテンツ取得部204から構成される。
情報重畳適切視界設定部201は、車両の進行方向の風景を撮影することによって得られた画像を解析する。情報重畳適切視界設定部201に対しては、例えば、データ取得部102を構成するカメラにより撮影された風景画像が供給される。
情報重畳適切視界設定部201は、風景画像に写る建物の壁面に情報重畳可能フレームを設定する。情報重畳可能フレームは、建物などのオブジェクトの表面(表面に対応する領域)のうち、コンテンツの重畳が可能な領域である。
また、情報重畳適切視界設定部201は、情報重畳可能フレームのうちの所定のフレームを、コンテンツを重畳するのに適したフレームである情報重畳適切フレームとして選択する。
すなわち、全ての情報重畳可能フレームにコンテンツが重畳されるのではなく、コンテンツを重畳するのに適した情報重畳可能フレームが走行状況などに応じて選択される。情報重畳適切視界設定部201により設定された情報重畳適切フレームに関する情報は重畳対象フレーム選択部202に供給される。情報重畳適切視界設定部201から表示制御部203に対しては、風景画像の解析結果の情報が適宜供給される。
重畳対象フレーム選択部202は、コンテンツ取得部204により取得されたコンテンツの重畳先を、情報重畳適切視界設定部201により設定された情報重畳適切フレームの中から選択する。コンテンツの重畳先として選択された情報重畳適切フレームに関する情報は表示制御部203に供給される。
表示制御部203は、コンテンツに対して、重畳先として選択された情報重畳適切フレームの状況に応じた画像処理を施して見た目の調整を行う。このように、表示制御部203は、コンテンツを表示させるための視覚情報を生成する機能を有する。また、表示制御部203は、投影ユニット106Aを制御し、画像処理を施したコンテンツを情報重畳適切フレームに重畳させる。表示制御部203は、情報重畳適切フレームに対応するフロントガラスG上の領域にコンテンツを投影することによって、コンテンツの表示を行うことになる。
コンテンツ取得部204は、記憶部111から読み出すことによってコンテンツを取得する。例えば記憶部111には、図示せぬサーバから取得されたコンテンツが記憶されている。コンテンツ取得部204により取得されたコンテンツは、重畳対象フレーム選択部202と表示制御部203に供給される。
このように、コンテンツの表示は、情報重畳適切視界設定部201による処理を第1段階の処理、重畳対象フレーム選択部202による処理を第2段階の処理、表示制御部203による処理を第3段階の処理として行われる。
以下、各段階の処理の詳細について、情報重畳適切視界設定部201、重畳対象フレーム選択部202、および表示制御部203の各部の構成とあわせて説明する。
<1-2-3.第1段階の処理(情報重畳適切視界の設定)>
図10は、図9の情報重畳適切視界設定部201の構成例を示すブロック図である。
図10は、図9の情報重畳適切視界設定部201の構成例を示すブロック図である。
情報重畳適切視界設定部201は、画像解析部211、光状態モード設定部212、オブジェクト検出部213、フレーム設定部214、および適切視界設定部215から構成される。
画像解析部211は、撮影を行うことによって得られた風景画像を解析する。風景画像の解析により、建物のアウトラインが検出されるとともに、周囲の明るさ(輝度)が検出される。また、風景画像の解析を行うことにより、日照の状態、照明の状態、大気の状態なども検出される。画像解析部211による解析結果を表す情報は光状態モード設定部212とオブジェクト検出部213に供給されるとともに、表示制御部203にも供給される。
光状態モード設定部212は、画像解析部211から供給された情報に基づいて光状態モードを設定する。例えば、光状態モードとして、「昼モード」、「薄暮モード」、「夜モード」のうちのいずれかが設定される。
例えば、「昼モード」は、太陽が出ていて周囲が明るいときに設定される。「薄暮モード」は、夕方や明け方などのように、周囲が薄暗いときに設定される。「夜モード」は、太陽が沈んでいて周囲が暗いときに設定される。
各モードには基準となる明るさの閾値が設定されている。光状態モード設定部212は、画像を解析することによって特定された周囲の明るさと、閾値となる明るさを比較することによって、現在の明るさの状況に応じた光状態モードを設定する。光状態モード設定部212により設定された光状態モードに関する情報はフレーム設定部214に供給される。
光状態モード設定部212による光状態モードの設定が、風景画像の解析結果に基づいて行われるのではなく、データ取得部102を構成するセンサの検出結果に基づいて行われるようにしてもよい。また、光状態モードの設定が、現在時刻等を参照して行われるようにしてもよい。
オブジェクト検出部213は、地図データを取得し、アウトラインが検出された建物を地図上にプロットすることによって、走行中の道路沿いにあって、ユーザの視界に含まれる建物の3次元モデルを生成する。
例えば、走行中の道路は、データ取得部102を構成するGNSS受信機による測位結果に基づいて特定される。オブジェクト検出部213に供給される地図データは、記憶部111に記憶されているものであってもよいし、図示せぬサーバから取得されるものであってもよい。
図11は、道路沿いのオブジェクトの3次元モデルの例を示す図である。
図11の例においては、自車両が走行している直線状の道路の左右に建物が並んでいる。このような建物のアウトラインのデータを含む3次元モデルがオブジェクト検出部213により生成される。3次元モデルには、樹木や電柱などの、風景画像に含まれる建物以外のオブジェクトのアウトラインのデータも含まれる。
オブジェクト検出部213に供給される地図データに、各建物の位置だけでなく、建物の高さなどに関する情報が含まれている場合、図11に示すような3次元モデルが地図データに基づいて生成されるようにしてもよい。この場合、オブジェクト検出部213は、地図データ上の建物が実際に存在しているか否かを画像解析部211による風景画像の解析結果に基づいて判定し、実際に存在している建物について、その位置を確定する。
例えば、地図データ上では存在する建物が取り壊されていることがある。オブジェクト検出部213は、地図データ上の建物と同じ建物が風景画像に写っていない場合、その建物については、コンテンツの重畳対象から除外する。
このように、オブジェクトの存在を風景画像に基づいて確認することにより、実際にはなくなっていて、ユーザの視界にない建物にコンテンツが重畳されるのを防ぐことが可能になる。
一般的に、地図データの更新は1年毎などの所定の期間毎に行われるため、地図データ上に存在する建物が、車両の走行時点でなくなっていることも起こりうる。車両の走行時点でなくなっている建物の壁面にコンテンツを重畳させた場合、コンテンツが浮いているように見えてしまうが、そのような不自然な見え方を防ぐことが可能になる。
オブジェクト検出部213は、風景画像に実際に写っている建物の3次元モデルの情報をフレーム設定部214に出力する。
フレーム設定部214は、オブジェクト検出部213から供給された3次元モデルに基づいて、ユーザの視界に含まれる建物の壁面に情報重畳可能フレームを設定する。例えば、閾値より広い面積を有する平面が情報重畳可能フレームとして設定される。
図12は、情報重畳可能フレームの設定の例を示す図である。
図12の例においては、カーブ手前の右側にある建物に情報重畳可能フレームF_01が設定されている。また、カーブに沿って左手に3つの建物があり、手前の建物から順に、情報重畳可能フレームF_02,F_03,F_04が設定されている。なお、図12に示す風景は、後述する車両位置Aにおける風景を示している。
このように、自車両が走行する道路から見える建物の3次元モデルに基づいて、コンテンツの重畳先の候補としての情報重畳可能フレームが設定される。フレーム設定部214により設定された情報重畳可能フレームの中から、コンテンツの重畳先となるフレームが選択される。図12においては、建物の1つの面に情報重畳可能フレームが1つ設定されているが、複数設定されるようにしてもよい。
また、フレーム設定部214は、以上のようにして設定した情報重畳可能フレームのうち、コンテンツの重畳先として適切でない情報重畳可能フレームを除外する。情報重畳可能フレームの除外は、光状態モード設定部212により設定された光状態モードと、画像解析部211により解析された風景画像に写っている建物の各部分の明るさ等に基づいて行われる。
<除外ルールに基づく判断>
・除外ルール1
フレーム設定部214は、「昼モード」、「薄暮モード」、「夜モード」の全ての場合において、大型モニタなどの強力な発光状態にある部分を、情報重畳可能フレームから除外する。例えば、閾値以上の輝度を有する建物の部分が、強力な発光状態にある部分として特定される。
・除外ルール1
フレーム設定部214は、「昼モード」、「薄暮モード」、「夜モード」の全ての場合において、大型モニタなどの強力な発光状態にある部分を、情報重畳可能フレームから除外する。例えば、閾値以上の輝度を有する建物の部分が、強力な発光状態にある部分として特定される。
この場合、各部分の絶対的な輝度に基づいて、情報重畳可能フレームから除外するか否かの判断が行われることになる。
図13は、除外ルール1により除外される情報重畳可能フレームの例を示す図である。
図13に示すように、建物B11を構成する面b11-1上方の領域A1の部分と、建物B12を構成する面b12-2上方の領域A2の部分に大型モニタが設置されているものとする。この場合、領域A1の部分と領域A2の部分が情報重畳可能フレームから除外される。
大型モニタなどの発光状態にある部分にコンテンツを重畳させた場合、コンテンツの周りから光が漏れるように見えてしまうことがある。除外ルール1に従って情報重畳可能フレームから除外することにより、そのような不自然な見え方を防ぐことが可能になる。
・除外ルール2
フレーム設定部214は、「昼モード」の場合、太陽光によって強い影となって見える部分を、情報重畳可能フレームから除外する。例えば、太陽光が当たることによって高輝度になっている部分と、その部分と閾値以上の輝度差を有する部分がある場合、輝度の低い部分が、太陽光によって強い影となって見える部分として特定される。
フレーム設定部214は、「昼モード」の場合、太陽光によって強い影となって見える部分を、情報重畳可能フレームから除外する。例えば、太陽光が当たることによって高輝度になっている部分と、その部分と閾値以上の輝度差を有する部分がある場合、輝度の低い部分が、太陽光によって強い影となって見える部分として特定される。
この場合、各部分の絶対的な輝度と、周囲との輝度差に基づいて、情報重畳可能フレームから除外するか否かの判断が行われることになる。
図14は、除外ルール2により除外される情報重畳可能フレームの例を示す図である。
図14に示すように、建物B11を構成する面b11-1に太陽光が当たり、他の面である面b11-2全体に影が生じることによって、それらの面の輝度差が閾値以上あるものとする。この場合、輝度の低い面b11-2の領域A11の部分が情報重畳可能フレームから除外される。
同様に、建物B12を構成する面b12-2の領域A12の部分と、建物B13を構成する面b13-2の領域A13の部分が情報重畳可能フレームから除外される。建物B12において、面b12-1の上方と面b12-2には閾値以上の輝度差があり、建物B13において、面b13-1の上方と面b13-2には閾値以上の輝度差がある。
非常に明るい部分が周りにある影の部分にコンテンツを重畳させた場合、コンテンツが見えづらくなってしまう。除外ルール2に従って情報重畳可能フレームを除外することにより、コンテンツの視認性を確保することが可能になる。
・除外ルール3
フレーム設定部214は、「薄暮モード」の場合、各種理由によって特に暗く見える部分を、情報重畳可能フレームから除外する。例えば、輝度が閾値より低い部分が、特に暗く見える部分として特定される。
フレーム設定部214は、「薄暮モード」の場合、各種理由によって特に暗く見える部分を、情報重畳可能フレームから除外する。例えば、輝度が閾値より低い部分が、特に暗く見える部分として特定される。
この場合、除外ルール1と同様に、各部分の絶対的な輝度に基づいて、情報重畳可能フレームから除外するか否かの判断が行われることになる。
図15は、除外ルール3により除外される情報重畳可能フレームの例を示す図である。
図15に示すように、建物B21を構成する面b21-1の輝度が閾値より低いものとする。また、建物B21の陰になって、建物B22を構成する面b22-1と面b22-2の輝度が閾値より低いものとする。この場合、面b21-1の領域A21-1,A21-2の部分、面b22-1の領域A22-1の部分、および、面b22-2の領域A22-2の部分が情報重畳可能フレームから除外される。
特に暗い部分にコンテンツを重畳させた場合、コンテンツが見えづらくなってしまう。除外ルール3に従って情報重畳可能フレームを除外することによっても、コンテンツの視認性を確保することが可能になる。
なお、図15において、建物B23の正面に見える面は、薄暗くなってはいるが、特に暗く見える部分ではないため、除外対象とはされていない。
・除外ルール4
フレーム設定部214は、「夜モード」の場合、照明光によって強い影となって見える部分を、情報重畳可能フレームから除外する。例えば、照明光が当たることによって高輝度になっている部分と、その部分と閾値以上の輝度差を有する部分がある場合、輝度の低い部分が、照明光によって強い影となって見える部分として特定される。
フレーム設定部214は、「夜モード」の場合、照明光によって強い影となって見える部分を、情報重畳可能フレームから除外する。例えば、照明光が当たることによって高輝度になっている部分と、その部分と閾値以上の輝度差を有する部分がある場合、輝度の低い部分が、照明光によって強い影となって見える部分として特定される。
この場合、除外ルール2と同様に、各部分の絶対的な輝度と、周囲との輝度差に基づいて、情報重畳可能フレームから除外するか否かの判断が行われることになる。
図16は、除外ルール4により除外される情報重畳可能フレームの例を示す図である。
図16に示すように、建物B31を構成する面b31-1に街灯Lからの光が当たり、他の面である面b31-2全体に影が生じることによって、それらの面の輝度差が閾値以上あるものとする。この場合、輝度の低い面b31-2の領域A31の部分が情報重畳可能フレームから除外される。
同様に、建物B32を構成する面b32-1の一部に街灯Lからの光が当たり、他の部分に建物B31の影が生じることによって、それらの部分の輝度差が閾値以上あるものとする。この場合、面32-1のうちの、輝度の低い領域A32の部分が情報重畳可能フレームから除外される。
非常に明るい部分が周りにある影の部分にコンテンツを重畳させた場合、コンテンツが見えづらくなってしまう。除外ルール4に従って情報重畳可能フレームを除外することによっても、コンテンツの視認性を確保することが可能になる。
・除外ルール5
フレーム設定部214は、「夜モード」の場合、建物外壁の発光状態にある部分や内部照明などによって発光状態にある窓部分を、情報重畳可能フレームから除外する。例えば、閾値以上の輝度を有する建物の部分が、発光状態にある部分として特定される。
フレーム設定部214は、「夜モード」の場合、建物外壁の発光状態にある部分や内部照明などによって発光状態にある窓部分を、情報重畳可能フレームから除外する。例えば、閾値以上の輝度を有する建物の部分が、発光状態にある部分として特定される。
この場合、各部分の絶対的な輝度に基づいて、情報重畳可能フレームから除外するか否かの判断が行われることになる。
図17は、除外ルール5により除外される情報重畳可能フレームの例を示す図である。
図17に示すように、建物B11を構成する面b11-1の領域A41-1,A41-2の部分と、面b11-2の領域A41-3,A41-4の部分に窓があり、室内の照明によって、それらの部分が発光状態にあるものとする。この場合、領域A41-1乃至A41-4の部分が情報重畳可能フレームから除外される。
同様に、建物B12を構成する面b12-2の領域A42の部分と、建物B13を構成する面b13-2の領域A43の部分が情報重畳可能フレームから除外される。これらの部分にも窓があり、室内の照明によって、それらの部分が発光状態にあるものとされている。
周りが暗い場合において、室内からの光が漏れている窓の部分などにコンテンツを重畳させた場合、コンテンツの周りから光が漏れるように見えてしまうことがある。除外ルール5に従って情報重畳可能フレームを除外することにより、そのような不自然な見え方を防ぐことが可能になる。
・除外ルール6
フレーム設定部214は、歴史的建造物、看板などの表示物、観光名所にある対象物など、コンテンツを重畳することが道義的あるいは慣習的に不適当とされる部分を、情報重畳可能フレームから除外する。除外ルール6は、「昼モード」、「薄暮モード」、「夜モード」の全ての場合において採用される。
フレーム設定部214は、歴史的建造物、看板などの表示物、観光名所にある対象物など、コンテンツを重畳することが道義的あるいは慣習的に不適当とされる部分を、情報重畳可能フレームから除外する。除外ルール6は、「昼モード」、「薄暮モード」、「夜モード」の全ての場合において採用される。
図18は、除外ルール6により除外される情報重畳可能フレームの例を示す図である。
図18の領域A51,A52として示すように、例えば歴史的建造物である城の外壁は、情報重畳可能フレームから除外される。
除外ルール6に基づく判断は、例えば、地図データに含まれる情報に基づいてフレーム設定部214により行われる。風景画像を解析することによって歴史的建造物などが検出され、情報重畳可能フレームから除外するか否かの判断が行われるようにしてもよい。
フレーム設定部214は、以上のような各ルールに従って情報重畳可能フレームを除外し、残った(除外されなかった)情報重畳可能フレームの情報を適切視界設定部215に出力する。
<情報重畳適切フレームの判断>
図10の適切視界設定部215は、フレーム設定部214により設定され、除外ルールに基づく判断を経た情報重畳可能フレームが、次の条件1乃至4を満たすか否かを判断する。
図10の適切視界設定部215は、フレーム設定部214により設定され、除外ルールに基づく判断を経た情報重畳可能フレームが、次の条件1乃至4を満たすか否かを判断する。
条件1:ユーザからの距離、車両進行方向に対する角度、および車両速度から算出されるユーザ視界内角速度が基準範囲内にあること
条件2:車両進行方向に対する対面角度が最小基準値以上であること
条件3:情報重畳可能フレームが樹木や電柱などの手前オブジェクト越しに見える場合、露出面積比率が基準値以上であること
条件4:ユーザ視界内に滞在している時間が基準値以上であること
条件2:車両進行方向に対する対面角度が最小基準値以上であること
条件3:情報重畳可能フレームが樹木や電柱などの手前オブジェクト越しに見える場合、露出面積比率が基準値以上であること
条件4:ユーザ視界内に滞在している時間が基準値以上であること
これらの条件を満たすか否かの判断は、風景画像の解析結果、地図データに含まれる道路に関する情報、車両の進行方向、車両速度などを適宜用いて行われる。車両の進行方向、車両速度などの、現在の車両の状況に関する情報は、例えば、状況分析部133などから供給される情報に基づいて特定される。また、将来の車両の状況に関する情報は、例えば、動作計画部163などから供給される進行状況予測情報に基づいて特定される。
適切視界設定部215は、条件1乃至4の全ての条件を満たす情報重畳可能フレームを、情報重畳適切フレームとして設定する。条件1乃至4のうちの少なくともいずれかの条件を満たさない情報重畳可能フレームは、情報重畳適切フレームとしては選択されない。
条件1乃至4を満たすか否かの判断について説明するが、はじめに、前提とする車両の状況の具体例について説明する。
図19は、車両位置の推移の例を示す図である。
図19は、右に曲がるカーブを走行する車両の位置の推移を平面から見た状態を示している。道路上にある角丸の長方形は車両を表し、道路の両脇にある矩形は建物を表す。カーブの内側に1つの建物があり、その建物の道路側の面に情報重畳可能フレームF_01が設定されている。また、カーブの外側に3つの建物があり、手前の建物から順に、情報重畳可能フレームF_02,F_03,F_04が設定されている。図19において、建物を表す矩形内の太線は情報重畳可能フレームを示す。
各時刻における車両の位置を車両位置A乃至Eとする。車両は、車両位置A乃至Eを結ぶ軌跡上を順に走行することになる。
例えば、車両位置Aにおける車両の向きを基準とすると、図20に示すように、車両位置Bにおける方向変移は22.5°で表され、車両位置Cにおける方向変移は45°で表される。車両位置Dにおける車両の方向変移は67.5°で表され、車両位置Eにおける車両の方向変移は90°で表される。
車両位置を基準として示される扇形の内角が、車両が各位置にあるときのユーザの視界の範囲を表す。例えば、車両位置Aにおける視界は扇形#1で表され、車両位置Bにおける視界は扇形#2で表される。車両位置Cにおける視界は扇形#3で表される。このように、車両位置と車両の方向に応じてユーザが見る風景が変化する。
このような各時刻の車両の状況が、現在の車両の進行状況と将来の進行状況に基づいて、各タイミングで生成される。図19は、車両が車両位置Aを走行しているタイミングで生成された車両位置の推移の状況を示している。車両位置B乃至Eにおける車両の状況は、将来の進行状況に基づいて予測される状況となる。このような将来の進行状況が、外部から入力される進行状況予測情報により表される。
図21は、各車両位置における風景画像を示す図である。
説明の便宜上、カメラにより撮影される風景画像の範囲とユーザの視界の範囲が一致するものとする。ユーザが見ている風景全体が、カメラにより撮影されることになる。
図21のAは、車両位置Aの風景画像を示している。車両位置Aの風景画像には、情報重畳可能フレームF_01乃至F_04が全て含まれる。図19の扇形#1に示すように、車両位置Aを走行しているタイミングにおけるユーザの視界には、情報重畳可能フレームF_01乃至F_04が含まれる。
図21のAの状態において、情報重畳可能フレームF_03が設定された建物の手前の位置と情報重畳可能フレームF_04が設定された建物の手前の位置には、それぞれの情報重畳可能フレームに一部重なる形で樹木が植えられている。なお、図21のAに示す風景は、図12を参照して説明した風景と同じである。
図21のBは、車両位置Bの風景画像を示している。現在の車両位置は車両位置Aであるから、図21のBに示す風景画像は、一定時間経過後に見えることが予測される風景を表す。
車両位置Bの風景画像には、情報重畳可能フレームF_03と情報重畳可能フレームF_04が含まれる。図19の扇形#2に示すように、車両位置Bを走行しているタイミングにおけるユーザの視界には、情報重畳可能フレームF_03と情報重畳可能フレームF_04が含まれる。
図21のCは、車両位置Cの風景画像を示している。現在の車両位置は車両位置Aであるから、図21のCに示す風景画像は、車両位置Bを走行しているタイミングよりもさらに一定時間経過後に見えることが予測される風景を表す。
車両位置Cの風景画像には、情報重畳可能フレームF_04が含まれる。図19の扇形#3に示すように、車両位置Cを走行しているタイミングにおけるユーザの視界の左側には情報重畳可能フレームF_04が含まれる。
車両位置D,Eを走行しているタイミングでは、情報重畳可能フレームF_01乃至F_04は、いずれもユーザの視界から外れることになる。
・条件1の判断
適切視界設定部215は、ユーザからの距離、車両進行方向に対する角度、および車両速度から算出されるユーザ視界内角速度が基準範囲内にある場合に、条件1を満たすものとして判断する。ユーザ視界内角速度は、各情報重畳可能フレームの位置を基準としたときの、情報重畳可能フレームが、ユーザの視界に収まっている間の車両の角速度を表す。
適切視界設定部215は、ユーザからの距離、車両進行方向に対する角度、および車両速度から算出されるユーザ視界内角速度が基準範囲内にある場合に、条件1を満たすものとして判断する。ユーザ視界内角速度は、各情報重畳可能フレームの位置を基準としたときの、情報重畳可能フレームが、ユーザの視界に収まっている間の車両の角速度を表す。
図22は、ユーザ視界内角速度の例を示す図である。
図22の例においては、車両位置Aから車両位置Bまでの移動中のユーザ視界内角速度を用いた判断が示されている。この場合、図22に示すように、情報重畳可能フレームF_01のユーザ視界内角速度は41°/secとなり、情報重畳可能フレームF_02のユーザ視界内角速度は38°/secとなる。また、情報重畳可能フレームF_03のユーザ視界内角速度は3°/secとなり、情報重畳可能フレームF_04のユーザ視界内角速度は8°/secとなる。
例えば、上限となるユーザ視界内角速度の基準値が30°/secである場合、基準値を超える情報重畳可能フレームF_01と情報重畳可能フレームF_02は、条件1を満たさず、コンテンツを重畳させるフレームとしては不適切であるとして判断される。
一方、基準値の範囲内にある情報重畳可能フレームF_03と情報重畳可能フレームF_04は、条件1を満たし、コンテンツを重畳させるフレームとして適切であるとして判断される。ユーザ視界内角速度が基準値より小さいということは、ユーザの視界内における移動量が少ないことを表す。
このように、コンテンツを重畳させるフレームとして適切であるか否かを条件1に基づいて判断することにより、ユーザの視界内における移動量が少ないフレーム、すなわち、コンテンツを重畳させたときに見やすいフレームを選択することが可能になる。
例えば、ユーザ視界内角速度が大きい情報重畳可能フレームにコンテンツを重畳させた場合、コンテンツが大きく移動して見えることになる。条件1に基づく判断により、視界内で大きく移動するような情報重畳可能フレームにコンテンツが重畳されるのを防ぐことが可能になる。
・条件2の判断
適切視界設定部215は、車両進行方向に対する対面角度が最小基準値以上である場合に、条件2を満たすものとして判断する。
適切視界設定部215は、車両進行方向に対する対面角度が最小基準値以上である場合に、条件2を満たすものとして判断する。
図23は、車両進行方向に対する対面角度の例を示す図である。
図23に示すように、情報重畳可能フレームF_03の設定面は破線L1で表され、情報重畳可能フレームF_04の設定面は破線L2で表される。条件1に基づく判断により情報重畳可能フレームF_01と情報重畳可能フレームF_02は不適切なフレームとして判断されているから、情報重畳可能フレームF_01と情報重畳可能フレームF_02についての、条件2に基づく判断は行われない。
車両位置Aにおける、車両進行方向に対する情報重畳可能フレームF_03の対面角度は扇形#11-1で表され、情報重畳可能フレームF_04の対面角度は扇形#11-2で表される。いずれの情報重畳可能フレームの対面角度も90°となる。
この例においては、情報重畳可能フレームF_03と情報重畳可能フレームF_04が平行な面に設定されているために、同じ車両位置におけるそれぞれの対面角度が同じ角度になっているが、平行ではない面に設定されている場合、それぞれの対面角度は異なる角度になる。
各車両位置における、車両進行方向に対する情報重畳可能フレームの対面角度が同様にして求められる。
すなわち、車両位置Bにおける、車両進行方向に対する情報重畳可能フレームF_03の対面角度は扇形#12-1で表され、情報重畳可能フレームF_04の対面角度は扇形#12-2で表される。いずれの情報重畳可能フレームの対面角度も67.5°となる。
車両位置Cにおける、車両進行方向に対する情報重畳可能フレームF_04の対面角度は扇形#13で表される。情報重畳可能フレームF_04の対面角度は45°となる。車両位置Cを走行しているタイミングでは、ユーザの視界から既に外れるため、情報重畳可能フレームF_03の対面角度を用いた判断は行われない。
例えば、最小となる対面角度の基準値が30°である場合、車両位置Aを走行しているタイミングでは、情報重畳可能フレームF_03と情報重畳可能フレームF_04のいずれの対面角度も基準値を超えることになる。情報重畳可能フレームF_03と情報重畳可能フレームF_04は、条件2を満たし、コンテンツを重畳させるフレームとして適切であるとして判断される。
また、車両位置Bを走行しているタイミングでも、情報重畳可能フレームF_03と情報重畳可能フレームF_04のいずれの対面角度も基準値を超えることになる。情報重畳可能フレームF_03と情報重畳可能フレームF_04は、条件2を満たし、コンテンツを重畳させるフレームとして適切であるとして判断される。
車両位置Cを走行しているタイミングでは、情報重畳可能フレームF_04の対面角度は基準値を超えることになる。情報重畳可能フレームF_04は、条件2を満たし、コンテンツを重畳させるフレームとして適切であるとして判断される。
1回のタイミングにおける対面角度が基準値を超えるだけでなく、複数のタイミングにおける対面角度が基準値を超える情報重畳可能フレームが、条件2を満たすとして判断されるようにしてもよい。
車両進行方向に対する情報重畳可能フレームの対面角度が基準値以上であるということは、情報重畳可能フレームがユーザに対して正面に近い向きで設定されていることを表す。
このように、コンテンツを重畳させるフレームとして適切であるか否かを条件2に基づいて判断することにより、ユーザに対して正面に近い向きで設定されているフレーム、すなわち、コンテンツを重畳させたときに見やすいフレームを選択することが可能になる。
・条件3の判断
適切視界設定部215は、情報重畳可能フレームが樹木や電柱などの手前オブジェクト越しに見える場合、露出面積比率が基準値以上である場合に、条件3を満たすものとして判断する。手前オブジェクトは、ユーザの位置から見たときに、情報重畳可能フレームの手前にあるオブジェクトである。
適切視界設定部215は、情報重畳可能フレームが樹木や電柱などの手前オブジェクト越しに見える場合、露出面積比率が基準値以上である場合に、条件3を満たすものとして判断する。手前オブジェクトは、ユーザの位置から見たときに、情報重畳可能フレームの手前にあるオブジェクトである。
なお、条件3に基づく判断が、手前オブジェクトと、その後方にある建物(情報重畳可能フレーム)との距離が閾値より近い場合に行われるようにしてもよい。手前のオブジェクトと建物との距離は、例えばオブジェクト検出部213により生成された、オブジェクトの3次元モデルに基づいて特定される。
図24および図25は、露出面積比率の例を示す図である。
図24に示すように、例えば、車両位置Aを走行しているタイミングでは、ユーザの視界に含まれる情報重畳可能フレームF_03の手前に樹木T1があり、情報重畳可能フレームF_04の手前に樹木T2がある。図25に示すように、ユーザは、これらの情報重畳可能フレームを、樹木が一部覆い隠している状態で見ることになる。
情報重畳可能フレームF_03の露出面積比率は、情報重畳可能フレームF_03全体の面積に対する、樹木T1によって隠されていない部分(図25の斜線部分)の面積の比率として表される。それぞれの面積は、風景画像の解析結果に基づいて例えば適切視界設定部215により求められる。この例においては、情報重畳可能フレームF_03の露出面積比率は80%となる。
同様に、情報重畳可能フレームF_04の露出面積比率は、情報重畳可能フレームF_04全体の面積に対する、樹木T2によって隠されていない部分の面積の比率として表される。この例においては、情報重畳可能フレームF_04の露出面積比率は95%となる。
例えば、最低となる露出面積比率の基準値が60%である場合、車両位置Aを走行しているタイミングでは、情報重畳可能フレームF_03と情報重畳可能フレームF_04のいずれの露出面積比率も基準値を超えることになる。情報重畳可能フレームF_03と情報重畳可能フレームF_04は、条件3を満たし、コンテンツを重畳させるフレームとして適切であるとして判断される。
1回のタイミングにおける露出面積比率が基準値を超えるだけでなく、複数のタイミングにおける露出面積比率が基準値を超える情報重畳可能フレームが、条件3を満たすとして判断されるようにしてもよい。
露出面積比率が基準値以上であるということは、手前にオブジェクトがある場合であっても、情報重畳可能フレームの広い範囲がユーザから見えていることを表す。
このように、コンテンツを重畳させるフレームとして適切であるか否かを条件3に基づいて判断することにより、コンテンツを重畳させたときに見やすいフレームを選択することが可能になる。
・条件4の判断
適切視界設定部215は、ユーザ視界内に滞在している時間が基準値以上である場合に、条件4を満たすものとして判断する。
適切視界設定部215は、ユーザ視界内に滞在している時間が基準値以上である場合に、条件4を満たすものとして判断する。
図26は、ユーザ視界内の滞在時間の例を示す図である。
図26に示すように、車両位置Aから車両位置Bまで走行するのにかかる時間が2秒であるものとする。車両位置Bから車両位置C、車両位置Cから車両位置D、車両位置Dから車両位置Eまで走行するのにかかる時間もそれぞれ2秒であるものとする。これらの時間は、車両位置間の距離と予測される走行速度に基づいて求められる。
車両位置Aを通過するタイミングを基準とした場合、情報重畳可能フレームF_03のユーザ視界内の滞在時間は、基準となるタイミングから、車両位置Cの手前の位置を走行するタイミングまでの時間として求められる。扇形#3で表される車両位置Cにおけるユーザの視界には含まれていないが、その手前の位置までは、ユーザの視界に情報重畳可能フレームF_03が含まれ続ける。この例においては、情報重畳可能フレームF_03のユーザ視界内の滞在時間は3.5秒となる。
同様に、情報重畳可能フレームF_04のユーザ視界内の滞在時間は、基準となるタイミングから、車両位置Dの手前の位置を走行するタイミングまでの時間として求められる。車両位置Dにおけるユーザの視界にはほとんど含まれていないが、その手前の位置までは、ユーザの視界に情報重畳可能フレームF_04が含まれ続ける。この例においては、情報重畳可能フレームF_04のユーザ視界内の滞在時間は5.5秒となる。
例えば、最小となるユーザ視界内の滞在時間の基準値が3.0秒である場合、情報重畳可能フレームF_03と情報重畳可能フレームF_04のいずれの滞在時間も基準値を超えることになる。情報重畳可能フレームF_03と情報重畳可能フレームF_04は、条件4を満たし、コンテンツを重畳させるフレームとして適切であるとして判断される。
滞在時間の基準値が、走行速度に応じて設定されるようにしてもよい。上述した3.0秒の基準値は、例えば走行速度が5m/sec(18km/h)である場合に設定される。
滞在時間が基準値以上であるということは、走行中のユーザの視界に、一定の時間、情報重畳可能フレームが収まり続けていることを表す。
このように、コンテンツを重畳させるフレームとして適切であるか否かを条件4に基づいて判断することにより、コンテンツを重畳させたときに一定時間見続けることのできるフレームを選択することが可能になる。
以上のような条件1乃至4に基づいて、コンテンツの重畳に適した情報重畳可能フレームであるか否かの判断が行われる。情報重畳可能フレームの面積が基準値以上であるか否かなどの、他の条件を用いて、コンテンツの重畳に適した情報重畳可能フレームであるか否かの判断が行われるようにしてもよい。
図10の説明に戻り、適切視界設定部215は、条件1乃至4の全ての条件を満たす情報重畳可能フレームを情報重畳適切フレームとして選択する。条件1乃至4の全ての条件ではなく、少なくともいずれか1つの条件を満たす情報重畳可能フレームが、情報重畳適切フレームとして選択されるようにしてもよい。
適切視界設定部215は、情報重畳適切フレームに基づいて情報重畳適切視界を設定する。情報重畳適切視界は、ユーザの視界全体のうちの、コンテンツを重畳させるのに適した領域である。例えば、ユーザの視界全体のうち、全ての情報重畳適切フレームを含む矩形の内側の領域が、情報重畳適切視界として設定される。
図27は、情報重畳適切視界の設定の例を示す図である。
太線L21で囲んで示すように、情報重畳適切フレームとして選択された情報重畳可能フレームF_03と情報重畳可能フレームF_04を囲む最小矩形の内側の領域が、情報重畳適切視界として設定される。情報重畳適切視界に含まれる情報重畳可能フレームF_03と情報重畳可能フレームF_04が、コンテンツの重畳先として用いられる。
なお、図27の例においては、情報重畳適切視界に含まれる情報重畳可能フレームが、いずれも情報重畳適切フレームとして判断された情報重畳可能フレームF_03と情報重畳可能フレームF_04とされている。条件1乃至4に基づく判断によって情報重畳適切フレームとして判断されなかった情報重畳可能フレームについても、情報重畳適切視界に含まれる場合にはコンテンツの重畳先として用いられるようにしてもよい。
また、適切視界設定部215は、図27に示すように、情報重畳適切視界の外側の領域を、情報重畳不適視界として設定する。情報重畳不適視界はコンテンツの重畳には用いられず、各種のメッセージの表示、走行速度などの走行状態を表す情報の表示などに用いられる。図2等に示す左上の速度表示は、情報重畳不適視界を用いた表示である。
適切視界設定部215は、情報重畳適切視界に含まれる全ての情報重畳適切フレームの情報を重畳対象フレーム選択部202に出力する。
<1-2-4.第2段階の処理(重畳先とする情報重畳適切フレームの選択)>
次に、第2段階の処理として重畳対象フレーム選択部202により行われる重畳先の選択について説明する。
次に、第2段階の処理として重畳対象フレーム選択部202により行われる重畳先の選択について説明する。
図28は、図9の重畳対象フレーム選択部202の構成例を示すブロック図である。
重畳対象フレーム選択部202は、事前解析部231、適合度算出部232、および重畳先設定部233から構成される。事前解析部231に対しては、コンテンツ取得部204により取得されたコンテンツが表示予定のコンテンツとして入力される。また、適合度算出部232に対しては、情報重畳適切視界設定部201から出力された情報重畳適切フレームの情報が入力される。
事前解析部231は、表示予定の全てのコンテンツについて、コンテンツ情報項目の事前解析を行い、表示位置判定要素(Positioning Factors)を設定する。
コンテンツ情報項目は、コンテンツの特徴を表すメタデータであり、コンテンツの種別毎に異なる項目から構成される。一方、表示位置判定要素は、コンテンツの表示に要する仕様に関する情報であり、重畳先となる情報重畳適切フレームを選択するために用いられる。
事前解析部231は、それぞれのコンテンツを、「動画」、「静止画」、「文字(テキスト)」のうちのいずれかのコンテンツ種別に分類する。コンテンツ種別の分類は、例えばコンテンツのファイルの拡張子に基づいて行われる。
図29は、コンテンツ情報項目の例を示す図である。重複する説明については適宜省略する。
図29のAは、ファイル名が「File_01」である文字コンテンツのコンテンツ情報項目を示している。
図29のAに示すように、事前解析部231は、文字コンテンツのコンテンツ情報項目として、「Type」、「Number of Letters」、「Time for Reading」、「Proportion」、および「Time for Viewing」の各項目を設定する。
「Type」はコンテンツ種別を表す。
「Number of Letters」はコンテンツに含まれる文字数を表す。
「Time for Reading」は読解時間を表す。読解時間は、例えば文字数に応じて設定される。
「Proportion」は、コンテンツの表示に要する領域の縦横サイズ比率を表す。
「Time for Viewing」は閲覧所要時間を表す。文字コンテンツの場合、閲覧所要時間は読解時間と同じ時間として設定される。
図29のAの例においては、「Number of Letters」は42として設定されている。また、「Time for Reading」は10秒として設定されている。「Proportion」は4:3として設定されている。「Time for Viewing」は、「Time for Reading」と同じ10秒として設定されている。
この場合、事前解析部231は、「Proportion」の4:3と「Time for Viewing」の10秒を、「File_01」の文字コンテンツの表示位置判定要素として設定する。
図29のBは、ファイル名が「File_02」である動画コンテンツのコンテンツ情報項目を示している。
図29のBに示すように、事前解析部231は、動画コンテンツのコンテンツ情報項目として、「Type」、「Playback Duration」、「Proportion」、および「Time for Viewing」の各項目を設定する。
「Playback Duration」は再生時間を表す。
「Proportion」は、動画コンテンツを構成する各フレームの縦横サイズ比率を表す。
「Time for Viewing」は閲覧所要時間を表す。動画コンテンツの場合、閲覧所要時間は再生時間と同じ時間として設定される。
図29のBの例においては、「Playback Duration」は20秒として設定されている。また、「Proportion」は16:9として設定されている。「Time for Viewing」は、「Playback Duration」と同じ20秒として設定されている。
この場合、事前解析部231は、「Proportion」の16:9と「Time for Viewing」の20秒を、「File_02」の動画コンテンツの表示位置判定要素として設定する。
図29のCは、ファイル名が「File_03」である静止画コンテンツのコンテンツ情報項目を示し、図29のDは、ファイル名が「File_04」である静止画コンテンツのコンテンツ情報項目を示している。
図29のC,Dに示すように、事前解析部231は、静止画コンテンツのコンテンツ情報項目として、「Type」、「Text」、「Number of Letters」、「Time for Reading」、「Proportion」、および「Time for Viewing」の各項目を設定する。
「Text」は、画像中に文字要素が含まれているか否かを表す。事前解析部231は、「静止画」のコンテンツについては、画像解析を行うことによって、文字要素ありの「静止画」であるか、文字要素無しの「静止画」であるかの識別を行う。文字要素ありの静止画コンテンツの他のコンテンツ情報項目は、文字コンテンツのコンテンツ情報項目と同じである。
図29のCの例においては、「Text」は文字要素あり(Included)として設定されている。「File_03」の静止画コンテンツは、文字要素ありの静止画コンテンツである。また、「Number of Letters」は28として設定されている。「Time for Reading」は7秒として設定されている。「Proportion」は3:4として設定されている。「Time for Viewing」は、「Time for Reading」と同じ7秒として設定されている。
この場合、事前解析部231は、「Proportion」の3:4と「Time for Viewing」の7秒を、「File_03」の静止画コンテンツの表示位置判定要素として設定する。
一方、図29のDの例においては、「Text」は文字要素ありとして設定されている。「File_04」の静止画コンテンツも、文字要素ありの静止画コンテンツである。また、「Number of Letters」は18として設定されている。「Time for Reading」は5秒として設定されている。「Proportion」は1:1として設定されている。「Time for Viewing」は、「Time for Reading」と同じ5秒として設定されている。
この場合、事前解析部231は、「Proportion」の1:1と「Time for Viewing」の5秒を、「File_04」の静止画コンテンツの表示位置判定要素として設定する。
事前解析部231は、以上のようにして設定した各コンテンツの表示位置判定要素の情報を適合度算出部232に出力する。
適合度算出部232は、事前解析部231により事前解析が行われたコンテンツと、情報重畳適切視界に含まれる情報重畳適切フレームの組み合わせ毎の適合度を算出する。すなわち、全てのコンテンツのそれぞれについて、情報重畳適切視界に含まれるそれぞれの情報重畳適切フレームとの適合度が算出される。
例えば、適合度算出部232は、各情報重畳適切フレームの縦横サイズ比率とユーザ視界内の滞在時間を例えば情報重畳適切視界設定部201から供給された情報に基づいて特定する。
適合度算出部232は、特定した縦横サイズ比率とユーザ視界内の滞在時間を、コンテンツの表示位置判定要素と比較することによって、コンテンツと情報重畳適切フレームの適合度を算出する。上述したように、表示位置判定要素として、縦横サイズ比率(「Proportion」)と閲覧所要時間(「Time for Viewing」)が設定されている。
図30は、適合度の例を示す図である。
ここでは、情報重畳適切フレームF_11乃至F_14の4つの情報重畳適切フレームが情報重畳適切視界に含まれているものとする。図30に示すFrame_11乃至Frame_14は、それぞれ、情報重畳適切フレームF_11乃至F_14を表す。情報重畳適切フレームF_11乃至F_14の縦横サイズ比率は、それぞれ、1:0.9、3:4.2、4:3.2、16:8であり、ユーザ視界内の滞在時間は、それぞれ、4秒、7秒、14秒、17秒であるものとする。
図30のAは、「File_01」の文字コンテンツの、情報重畳適切フレームF_11乃至F_14のそれぞれとの適合度を示している。「File_01」の文字コンテンツの表示位置判定要素は、上述したように、縦横サイズ比率の4:3と閲覧所要時間の10秒である。
図30のAに示すように、事前解析部231は、文字コンテンツの縦横サイズ比率の4:3と情報重畳適切フレームF_11の縦横サイズ比率の1:0.9に基づいて、縦横サイズ比率の適合度を20として求める。例えば、両者の比率が近いほど、高い適合度が求められる。
また、事前解析部231は、文字コンテンツの閲覧所要時間の10秒と情報重畳適切フレームF_11のユーザ視界内の滞在時間の4秒に基づいて、閲覧所要時間の適合度を10として求める。例えば、両者の時間が近いほど、高い適合度が求められる。
事前解析部231は、縦横サイズ比率の適合度と閲覧所要時間の適合度を足し合わせることによって、「File_01」の文字コンテンツと情報重畳適切フレームF_11の全体の適合度を30として算出する。
この例においては、縦横サイズ比率の適合度と閲覧所要時間の適合度を足し合わせることによって全体の適合度が求められているが、一方の適合度に重み付けをしてから足し合わせるなど、全体の適合度の求め方については任意である。
事前解析部231は、情報重畳適切フレームF_12乃至F_14のそれぞれについて、「File_01」の文字コンテンツとの適合度を同様にして算出する。
図30のAの例においては、「File_01」の文字コンテンツと情報重畳適切フレームF_12との全体の適合度は30であり、「File_01」の文字コンテンツと情報重畳適切フレームF_13との全体の適合度は90である。また、「File_01」の文字コンテンツと情報重畳適切フレームF_14との全体の適合度は70である。
事前解析部231は、「File_02」の動画コンテンツ、「File_03」の静止画コンテンツ、「File_04」の静止画コンテンツのそれぞれの、情報重畳適切フレームF_11乃至F_14のそれぞれとの適合度を同様にして算出する。
図30のBは、「File_02」の動画コンテンツの、情報重畳適切フレームF_11乃至F_14のそれぞれとの適合度を示している。「File_02」の動画コンテンツの表示位置判定要素は、上述したように、縦横サイズ比率の16:9と閲覧所要時間の20秒である。
図30のBの例においては、「File_02」の動画コンテンツと情報重畳適切フレームF_11との全体の適合度は0であり、「File_02」の動画コンテンツと情報重畳適切フレームF_12との全体の適合度は0である。また、「File_02」の動画コンテンツと情報重畳適切フレームF_13との全体の適合度は50であり、「File_02」の動画コンテンツと情報重畳適切フレームF_14との全体の適合度は80である。
図30のCは、「File_03」の静止画コンテンツの、情報重畳適切フレームF_11乃至F_14のそれぞれとの適合度を示している。「File_03」の静止画コンテンツの表示位置判定要素は、上述したように、縦横サイズ比率の3:4と閲覧所要時間の7秒である。
図30のCの例においては、「File_03」の静止画コンテンツと情報重畳適切フレームF_11との全体の適合度は30であり、「File_03」の静止画コンテンツと情報重畳適切フレームF_12との全体の適合度は90である。また、「File_03」の静止画コンテンツと情報重畳適切フレームF_13との全体の適合度は60であり、「File_03」の静止画コンテンツと情報重畳適切フレームF_14との全体の適合度は50である。
図30のDは、「File_04」の静止画コンテンツの、情報重畳適切フレームF_11乃至F_14のそれぞれとの適合度を示している。「File_04」の静止画コンテンツの表示位置判定要素は、上述したように、縦横サイズ比率の1:1と閲覧所要時間の5秒である。
図30のDの例においては、「File_04」の静止画コンテンツと情報重畳適切フレームF_11との全体の適合度は70であり、「File_04」の静止画コンテンツと情報重畳適切フレームF_12との全体の適合度は70である。また、「File_04」の静止画コンテンツと情報重畳適切フレームF_13との全体の適合度は70であり、「File_04」の静止画コンテンツと情報重畳適切フレームF_14との全体の適合度は60である。
適合度算出部232は、このようにして算出した適合度の情報を重畳先設定部233に出力する。
重畳先設定部233は、適合度算出部232により算出された適合度に従って、各コンテンツの重畳先となる情報重畳適切フレームを設定する。例えば、重畳先設定部233は、適合度の高い情報重畳適切フレームを順に割り当てることによって、重畳先となる情報重畳適切フレームを設定する。
図31は、重畳先の設定の例を示す図である。
図31の左側は、上述したような適合度の算出例を示している。各適合度には、適宜、「Not Good」から「Very Good」の範囲でランク付けされる。
白抜き矢印の先に示す表は、「File_01」の文字コンテンツ、「File_02」の動画コンテンツ、「File_03」の静止画コンテンツ、「File_04」の静止画コンテンツのそれぞれの、情報重畳適切フレームF_11乃至F_14のそれぞれとの全体の適合度を示す表である。
楕円で囲んで示すように、重畳先設定部233は、「File_01」の文字コンテンツの重畳先として、情報重畳適切フレームF_11乃至F_14の中で適合度が最も高い情報重畳適切フレームF_13を設定する。
また、重畳先設定部233は、「File_02」の動画コンテンツの重畳先として、情報重畳適切フレームF_11乃至F_14の中で適合度が最も高い情報重畳適切フレームF_14を設定する。
重畳先設定部233は、「File_03」の静止画コンテンツの重畳先として、情報重畳適切フレームF_11乃至F_14の中で適合度が最も高い情報重畳適切フレームF_12を設定する。
重畳先設定部233は、「File_04」の静止画コンテンツの重畳先として、情報重畳適切フレームF_11乃至F_14の中で適合度が最も高い情報重畳適切フレームF_11を設定する。
なお、「File_04」の静止画コンテンツと、情報重畳適切フレームF_11,F_12,F_13との適合度はいずれも70であるが、ここでは、いずれのコンテンツの重畳先としても設定されていない情報重畳適切フレームF_11が設定される。情報重畳適切フレームF_12は、70より高い適合度に基づいて「File_03」の静止画コンテンツの重畳先として既に設定され、情報重畳適切フレームF_13は、70より高い適合度に基づいて「File_01」の文字コンテンツの重畳先として既に設定されている。
図32は、以上のように設定された重畳先の例を示す図である。
図32に示す風景画像には、建物B101乃至B103が写っている。図32の例において、上述した情報重畳適切フレームF_11と情報重畳適切フレームF_12は、左側にある建物B101に設定された情報重畳適切フレームである。情報重畳適切フレームF_13は、中央にある建物B102に設定された情報重畳適切フレームである。情報重畳適切フレームF_14は、右側にある建物B103に設定された情報重畳適切フレームである。
重畳先となる情報重畳適切フレームの設定が以上のようにして行われた場合、情報重畳適切フレームF_11には、それとの適合度が70として算出された「File_04」の静止画コンテンツが重畳される。また、情報重畳適切フレームF_12には、それとの適合度が80として算出された「File_03」の静止画コンテンツが重畳される。
情報重畳適切フレームF_13には、それとの適合度が90として算出された「File_01」の文字コンテンツが重畳される。情報重畳適切フレームF_14には、それとの適合度が80として算出された「File_02」の動画コンテンツが重畳される。
重畳先設定部233は、このようにして設定した各コンテンツの重畳先の情報、すなわち、どのコンテンツを、どの情報重畳適切フレームに重畳させるのかを表す情報を表示制御部203に出力する。
以上においては、コンテンツと情報重畳適切フレームとの適合度が、両者の縦横サイズ比率と時間に基づいて算出されるものとしたが、他の要素に基づいて算出されるようにしてもよい。例えば、縦横サイズ比率だけに基づいて算出されるようにしてもよいし、時間(閲覧所要時間と視界内の滞在時間)だけに基づいて算出されるようにしてもよい。
すなわち、コンテンツと情報重畳適切フレームとの適合度が、上述した表示位置判定要素のうちの少なくともいずれかに基づいて算出されるようにすることが可能である。
また、暗い場所にある情報重畳適切フレームには動画コンテンツを重畳させ、明るい場所にある情報重畳適切フレームには文字コンテンツを重畳させるといったように、他の要素に基づいて適合度の算出が行われるようにしてもよい。この場合、情報重畳適切フレームの輝度とコンテンツ種別に基づいて適合度の算出が行われることになる。
遠くにある情報重畳適切フレームには動画コンテンツを重畳させ、近くにある情報重畳適切フレームには文字コンテンツを重畳させるように適合度の算出が行われるようにしてもよい。この場合、情報重畳適切フレームまでの距離とコンテンツ種別に基づいて適合度の算出が行われることになる。
このように、各コンテンツと情報重畳適切フレームの適合度の算出方法については様々な方法を採用することが可能である。
コンテンツ情報項目と表示位置判定要素の解析が車両制御システム100において行われるものとしたが、コンテンツを管理するサーバ側で行われるようにしてもよい。サーバから車両制御システム100に対しては、コンテンツ情報項目と表示位置判定要素の情報が、コンテンツと対応付けて提供される。
<1-2-5.第3段階の処理(表示の実行)>
次に、第3段階の処理として表示制御部203により行われる表示処理について説明する。
次に、第3段階の処理として表示制御部203により行われる表示処理について説明する。
図33は、図9の表示制御部203の構成例を示すブロック図である。
表示制御部203は、適応コントラスト算出部251、コントラスト調整部252、マスク処理部253、および表示処理部254から構成される。
適応コントラスト算出部251に対しては、情報重畳適切視界設定部201から出力された風景画像の解析結果と、重畳対象フレーム選択部202から出力された各コンテンツの重畳先となる情報重畳適切フレームの情報が入力される。コントラスト調整部252に対してはコンテンツ取得部204から出力されたコンテンツが入力され、マスク処理部253に対しては風景画像が入力される。
適応コントラスト算出部251は、コンテンツの重畳先として設定された情報重畳適切フレームの存在箇所のコンテキストに基づいて、各情報重畳適切フレームの適応コントラスト(Fitting Contrast)を算出する。適応コントラストは、情報重畳適切フレームの存在箇所の実際の見え方と同じ見え方になるように、コンテンツのコントラストを調整するために用いられる。
適応コントラスト算出部251は、例えば、日照の状態、照明の状態、大気の状態、および、車両位置からの距離のうちの少なくともいずれかに基づいて適応コントラストを算出する。この例においては、日照の状態、照明の状態、大気の状態、および、車両位置からの距離のうちの少なくともいずれかがコンテキストとして用いられているが、天候、気温などの他の状態がコンテキストとして用いられるようにしてもよい。
例えば、日照の状態、照明の状態、大気の状態、および、車両位置からの距離は風景画像の解析結果に含まれる。車両位置から情報重畳適切フレームの存在箇所までの距離が、距離センサによる検出結果に基づいて取得されるようにしてもよい。
適応コントラスト算出部251は、各情報重畳適切フレームの適応コントラストの情報をコントラスト調整部252に出力する。
コントラスト調整部252は、重畳先が設定されたコンテンツのコントラストを、重畳先となる情報重畳適切フレームの適応コントラストに応じて調整する。コントラスト調整部252は、コントラスト調整後のコンテンツを表示処理部254に出力する。
図34は、適応コントラストに基づくコントラストの調整の例を示す図である。
図34に示す情報重畳適切フレームF_11乃至F_14は、図32を参照して説明した情報重畳適切フレームと同じである。
図34の例においては、情報重畳適切フレームF_11は、近距離にある建物B101の壁面に設定されている。情報重畳適切フレームF_11の日照の状態は、情報重畳適切フレームF_11が設定された壁面に太陽光が当たることによって、日向の状態になっている。日照の状態は、例えば、情報重畳適切フレームF_11が設定されている壁面の輝度に基づいて特定される。
この場合、図34において引出線の先に示すように、適応コントラスト算出部251は、情報重畳適切フレームF_11が近距離にあり、日照の状態が日向の状態であることに基づいて、情報重畳適切フレームF_11の適応コントラストとして100%を算出する。
適応コントラストが100%であるから、情報重畳適切フレームF_11を重畳先とする「File_04」の静止画コンテンツは、コントラストの調整が行われることなく、元のコントラストで情報重畳適切フレームF_11に重畳される。
一方、近距離にある建物B101の壁面に設定されている情報重畳適切フレームF_12の日照の状態は、弱い日陰の状態になっている。
この場合、適応コントラスト算出部251は、情報重畳適切フレームF_12が近距離にあり、日照の状態が弱い日陰の状態であることに基づいて、情報重畳適切フレームF_12の適応コントラストとして60%を算出する。
適応コントラストが60%であるから、情報重畳適切フレームF_12を重畳先とする「File_03」の静止画コンテンツは、コントラストを60%に下げた状態で情報重畳適切フレームF_12に重畳される。
情報重畳適切フレームF_11が設定されている壁面と情報重畳適切フレームF_12が設定されている壁面の実際の見え方を比べた場合、日陰になっているから、情報重畳適切フレームF_12が設定されている壁面の方が暗く、コントラストが低く見える。壁面の実際の見え方に応じてコントラストを下げることにより、「File_03」の静止画コンテンツを、それが重畳される壁面の見え方に溶け込んだ状態で表示させることが可能になる。
情報重畳適切フレームF_13は、遠距離にある建物B102の壁面に設定されている。情報重畳適切フレームF_13の大気の状態は、霧が発生している状態になっている。霧が発生しているといった大気の状態は、例えば、情報重畳適切フレームF_13が設定されている壁面の輝度やコントラストに基づいて特定される。
この場合、適応コントラスト算出部251は、情報重畳適切フレームF_13が遠距離にあり、大気の状態が霧が発生している状態であることに基づいて、情報重畳適切フレームF_13の適応コントラストとして10%を算出する。
適応コントラストが10%であるから、情報重畳適切フレームF_13を重畳先とする「File_01」の文字コンテンツは、コントラストを10%に下げた状態で情報重畳適切フレームF_13に重畳される。
情報重畳適切フレームF_11が設定されている壁面と情報重畳適切フレームF_13が設定されている壁面の実際の見え方を比べた場合、遠距離にあって霧で霞んで見えることから、情報重畳適切フレームF_13が設定されている壁面の方が、コントラストが低く見える。壁面の実際の見え方に応じてコントラストを下げることにより、「File_01」の文字コンテンツを、それが重畳される壁面の見え方に溶け込んだ状態で表示させることが可能になる。
情報重畳適切フレームF_14は、近距離にある建物B103の壁面に設定されている。情報重畳適切フレームF_14の日照の状態は日向の状態になっている。
この場合、適応コントラスト算出部251は、情報重畳適切フレームF_11の場合と同様に、情報重畳適切フレームF_14が近距離にあり、日照の状態が日向の状態であることに基づいて、情報重畳適切フレームF_14の適応コントラストとして100%を算出する。
適応コントラストが100%であるから、情報重畳適切フレームF_14を重畳先とする「File_02」の動画コンテンツは、コントラストの調整が行われることなく、元のコントラストで情報重畳適切フレームF_14に重畳される。
このように、各コンテンツに対しては、重畳先となる情報重畳適切フレームの存在箇所の実際の見え方に応じて算出される適応コントラストに基づいて、コントラストの調整が施される。これにより、コンテンツが、あたかも実際の建物の壁面に表示されているかのようにユーザに見せることが可能になる。
図33の説明に戻り、マスク処理部253は、樹木や電柱などの手前オブジェクトが情報重畳適切フレームを覆い隠している場合、マスク処理を行うことによって、手前オブジェクトの画像を風景画像から切り出す。
マスク処理部253によるマスク処理は、情報重畳適切フレームに重なる手前オブジェクトがある場合に行われる。マスク処理部253は、マスク処理を行うことによって切り出した手前オブジェクトの画像を、部品画像として表示処理部254に出力する。
表示処理部254は、投影ユニット106Aを制御し、各コンテンツを、各コンテンツの重畳先として設定された情報重畳適切フレームに重畳させる。
また、表示処理部254は、コンテンツに重ねて、マスク処理部253から供給された部品画像を表示させる。部品画像は、手前オブジェクトが実際に見える位置に重ねて表示される。表示処理部254によるコンテンツ等の表示は、車両の走行中、繰り返し行われる。
図35は、手前オブジェクトの表示の例を示す図である。
図35の左端に示すように、ある位置を走行しているタイミングにおいて、建物の手前にある樹木が、その建物の壁面に設定された情報重畳適切フレームを覆い隠しているものとする。図35の左端において、破線で示す範囲が情報重畳適切フレームの範囲である。この場合、白抜き矢印#31の先に色を付して示す範囲が、手前オブジェクトと情報重畳適切フレームが重なる範囲となる。
マスク処理部253は、手前オブジェクトの外形を検出し、矢印#41の先に示すようなマスク画像Mを生成する。また、マスク処理部253は、マスク画像Mを用いて風景画像にマスク処理を施すことによって、手前オブジェクトの部品画像Pを切り出す。
白抜き矢印#32の先に示すように、表示処理部254は、情報重畳適切フレームにコンテンツを重畳させる。
上述したように、コンテンツの表示は、フロントガラスG上にコンテンツを表示することによって行われるから、ユーザの見え方としては、白抜き矢印#32の先に示すように、手前オブジェクトに重ねてコンテンツが見えることになる。白抜き矢印#32の先に示す情報重畳適切フレーム全体に斜線を付していることは、手前オブジェクトに覆われることなく、コンテンツ全体が見えることを表す。
表示処理部254は、部品画像Pを、手前オブジェクトの位置に重ねて表示させることによって、白抜き矢印#33の先に示すように、コンテンツが、手前オブジェクトの奥にある建物の壁面に表示されているかのような表示を実現する。
仮に、部品画像Pを重ねて表示させないとした場合、白抜き矢印#32の先に示すように手前オブジェクトの手前にコンテンツが見えてしまうことになり、コンテンツが建物の壁面に表示されているようには見えない。部品画像Pをコンテンツに重ねて表示させることにより、実際の建物の壁面にコンテンツが表示されているかのような見え方を違和感なく実現することが可能になる。
<<1-3.車両制御システムの動作>>
ここで、以上のような構成を有する車両制御システム100の動作について説明する。
ここで、以上のような構成を有する車両制御システム100の動作について説明する。
<1-3-1.情報表示処理>
はじめに、図36のフローチャートを参照して、全体の処理である情報表示処理について説明する。
はじめに、図36のフローチャートを参照して、全体の処理である情報表示処理について説明する。
ステップS1において、自動運転制御部112は、データ取得部102を構成するカメラを制御し、車両の進行方向の風景の撮影を開始させる。撮影によって得られた風景画像は出力制御部105に供給される。
ステップS2において、自動運転制御部112は、データ取得部102を構成するセンサを制御し、各種のセンサによる測定を開始させる。センサによる測定結果等に基づいて、車両の状態の予測などが行われる。車両の状況に関する情報は、進行状況予測情報として出力制御部105に供給される。
ステップS3において、情報重畳適切視界設定部201は、第1段階の処理である情報重畳適切視界設定処理を行う。情報重畳適切視界設定処理により、コンテンツの重畳に適した情報重畳適切フレームが選択される。情報重畳適切視界設定処理の詳細については、図37、図38のフローチャートを参照して後述する。
ステップS4において、重畳対象フレーム選択部202は、第2段階の処理である重畳対象フレーム選択処理を行う。重畳対象フレーム選択処理により、情報重畳適切視界に含まれる情報重畳適切フレームの中から、重畳先となる情報重畳適切フレームが設定される。重畳対象フレーム選択処理の詳細については、図39のフローチャートを参照して後述する。
ステップS5において、表示制御部203は、第3段階の処理である表示処理を行う。表示処理により、コンテンツの表示が実行される。表示処理の詳細については、図40のフローチャートを参照して後述する。
車両の走行中、ステップS3乃至S5の処理が繰り返し行われる。
<1-3-2.情報重畳適切視界設定処理>
図37、図38のフローチャートを参照して、図36のステップS3において行われる情報重畳適切視界設定処理について説明する。
図37、図38のフローチャートを参照して、図36のステップS3において行われる情報重畳適切視界設定処理について説明する。
ステップS11において、情報重畳適切視界設定部201の画像解析部211は、風景画像を解析する。例えば、風景画像に写っている建物のアウトラインが検出されるとともに、周囲の明るさが検出される。
ステップS12において、光状態モード設定部212は、周囲の明るさに基づいて、「昼モード」、「薄暮モード」、「夜モード」のうちのいずれかの光状態モードを設定する。
ステップS13において、オブジェクト検出部213は、各オブジェクトの位置を確定する。すなわち、オブジェクト検出部213は、アウトラインを検出した建物を地図上にプロットし、風景画像に写っている建物の位置を確定する。また、オブジェクト検出部213は、建物の他に、樹木などのオブジェクトの位置を確定する。オブジェクト検出部213は、位置を確定したオブジェクトの3次元モデルを生成する。
ステップS14において、フレーム設定部214は、オブジェクトの表面に情報重畳可能フレームを設定する。
ステップS15において、フレーム設定部214は、光状態モードに応じて、不適切な情報重畳可能フレームを除外する。ここでは、除外ルール1乃至4に基づいて、コンテンツを重畳させた場合に不自然な見え方になってしまう情報重畳可能フレームが上述したようにして除外される。除外されなかった情報重畳可能フレームの情報が適切視界設定部215に供給される。
ステップS16において、適切視界設定部215は、1つの情報重畳可能フレームに注目する。
ステップS17において、適切視界設定部215は、注目する情報重畳可能フレームのユーザ視界内角速度を算出する。
ステップS18において、適切視界設定部215は、算出したユーザ視界内角速度が基準範囲内にあるか否かを判定する。
ユーザ視界内角速度が基準範囲内にあるとステップS18において判定した場合、ステップS19において、適切視界設定部215は、注目する情報重畳可能フレームの、車両進行方向に対する対面角度を算出する。
ステップS20において、適切視界設定部215は、算出した対面角度が最小基準値以上あるか否かを判定する。
対面角度が最小基準値以上あるとステップS20において判定した場合、ステップS21において、適切視界設定部215は、注目する情報重畳可能フレームの露出面積比率を算出する。
ステップS22において、適切視界設定部215は、算出した露出面積比率が基準値以上あるか否かを判定する。
露出面積比率が基準値以上あるとステップS22において判定した場合、ステップS23において、適切視界設定部215は、注目する情報重畳可能フレームの、ユーザの視界内の滞在時間を算出する。
ステップS24において、適切視界設定部215は、算出したユーザの視界内の滞在時間が基準値以上あるか否かを判定する。
滞在時間が基準値以上あるとステップS24において判定した場合、ステップS25において、適切視界設定部215は、注目する情報重畳可能フレームを、情報重畳適切フレームとして設定する。
一方、ステップS18においてユーザ視界内角速度が基準範囲内にないと判定された場合、注目する情報重畳可能フレームについては、ステップS26において、情報重畳が不適切なフレームとして設定される。ステップS20において対面角度が最小基準値以上ないと判定された場合、ステップS22において露出面積比率が基準値以上ないと判定された場合、または、ステップS24においてユーザの視界内の滞在時間が基準値以上ないと判定された場合も同様である。
ステップS25またはステップS26の処理の後、ステップS27において、適切視界設定部215は、全ての情報重畳可能フレームに注目したか否かを判定する。
まだ注目していない情報重畳可能フレームがあるとステップS27において判定された場合、ステップS16に戻り、他の情報重畳可能フレームに注目して、上述した処理が繰り返される。全ての情報重畳可能フレームに注目したとステップS27において判定された場合、処理はステップS28に進む。
ステップS28において、適切視界設定部215は、全ての情報重畳適切フレームを含む矩形の内側の領域を情報重畳適切視界として設定する。その後、図36のステップS3に戻り、それ以降の処理が行われる。
<1-3-3.重畳対象フレーム選択処理>
図39のフローチャートを参照して、図36のステップS4において行われる重畳対象フレーム選択処理について説明する。
図39のフローチャートを参照して、図36のステップS4において行われる重畳対象フレーム選択処理について説明する。
なお、図36の処理と並行して、コンテンツの事前解析が事前解析部231により行われる。事前解析処理によって得られた表示位置判定要素は、事前解析部231から適合度算出部232に供給される。
ステップS41において、重畳対象フレーム選択部202の適合度算出部232は、表示予定の1つのコンテンツに注目する。
ステップS42において、適合度算出部232は、注目するコンテンツについて、情報重畳適切視界内にある全ての情報重畳適切フレームとの適合度を算出する。適合度の算出は、上述したように、例えば、表示位置判定要素に含まれる縦横サイズ比率と閲覧所要時間等を参照して行われる。
ステップS43において、適合度算出部232は、全てのコンテンツに注目したか否かを判定する。
まだ注目していないコンテンツがあるとステップS43において判定された場合、ステップS41に戻り、他のコンテンツに注目して、上述した処理が繰り返される。これにより、各コンテンツと、全ての情報重畳適切フレームのそれぞれとの適合度が算出される。
全てのコンテンツに注目したとステップS43において判定された場合、ステップS44において、重畳先設定部233は、各コンテンツの重畳先となる情報重畳適切フレームを適合度に基づいて設定する。その後、図36のステップS4に戻り、それ以降の処理が行われる。
<1-3-4.表示処理>
図40のフローチャートを参照して、図36のステップS5において行われる表示処理について説明する。
図40のフローチャートを参照して、図36のステップS5において行われる表示処理について説明する。
ステップS51において、表示制御部203の適応コントラスト算出部251は、重畳先が設定された1つのコンテンツに注目する。
ステップS52において、適応コントラスト算出部251は、重畳先となる情報重畳適切フレームの存在箇所のコンテキストに基づいて適応コントラストを算出する。
ステップS53において、コントラスト調整部252は、注目するコンテンツのコントラストを、適応コントラストに基づいて調整する。
ステップS54において、マスク処理部253は、注目するコンテンツの重畳先となる情報重畳適切フレームに手前オブジェクトがある場合、マスク処理を行うことによって手前オブジェクトの画像を切り出す。
ステップS55において、表示処理部254は、情報重畳適切フレームにコンテンツを重畳させる。
ステップS56において、表示処理部254は、適宜、手前オブジェクトの画像をコンテンツに重ねて表示させる。
ステップS57において、表示制御部203は、全てのコンテンツに注目したか否かを判定する。
まだ注目していないコンテンツがあるとステップS57において判定された場合、ステップS51に戻り、他のコンテンツに注目して、上述した処理が繰り返される。
全てのコンテンツに注目したとステップS57において判定された場合、図36のステップS5に戻り、それ以降の処理が行われる。これにより、全てのコンテンツが、重畳先として設定された情報重畳適切フレームに重畳された状態になる。
以上の一連の処理により、風景内の最適な場所に、風景に溶け込んだ形でコンテンツを表示させることが可能になる。ユーザは、通常の風景を見るのと同様の感覚で、コンテンツを見ることができる。
<1-3-5.事前解析処理>
図41のフローチャートを参照して、コンテンツの事前解析処理について説明する。事前解析処理は、図36の処理と適宜並行して行われる。
図41のフローチャートを参照して、コンテンツの事前解析処理について説明する。事前解析処理は、図36の処理と適宜並行して行われる。
ステップS101において、重畳対象フレーム選択部202の事前解析部231は、コンテンツ取得部204から供給されたコンテンツのうち、表示予定の1つコンテンツに注目する。
ステップS102において、事前解析部231は、ファイルの拡張子に基づいて、注目するコンテンツをコンテンツ種別に応じて分類する。
注目するコンテンツのコンテンツ種別が「動画」である場合、ステップS103において、事前解析部231は、縦横サイズ比率と閲覧所要時間を表示位置判定要素として設定する。
注目するコンテンツのコンテンツ種別が「静止画」である場合、ステップS104において、事前解析部231は、注目する静止画コンテンツを解析し、文字要素の有無を検出する。
ステップS105において、事前解析部231は、文字要素が含まれているか否かを判定し、文字要素が含まれていないと判定した場合、ステップS106において、縦横サイズ比率を表示位置判定要素として設定する。
一方、文字要素が含まれているとステップS105において判定した場合、ステップS107において、事前解析部231は、縦横サイズ比率と閲覧所要時間を表示位置判定要素として設定する。
注目するコンテンツのコンテンツ種別が「文字」である場合、ステップS108において、事前解析部231は、縦横サイズ比率と閲覧所要時間を表示位置判定要素として設定する。
ステップS103,S106,S107、またはステップS108において表示位置判定要素を設定した後、ステップS109において、事前解析部231は、全てのコンテンツに注目したか否かを判定する。
まだ注目していないコンテンツがあるとステップS109において判定された場合、ステップS101に戻り、他のコンテンツに注目して、上述した処理が繰り返される。
全てのコンテンツに注目したとステップS109において判定された場合、事前解析処理は終了される。各コンテンツの表示位置判定要素に関する情報は、事前解析部231から適合度算出部232に供給され、適合度の算出に用いられる。
なお、以上の各ステップの処理は、適宜、他の処理と並行して、または、他の処理と順番を代えて行われるようにしてもよい。
<<1-4.変形例>>
ユーザが乗っている移動体が車であるものとしたが、自転車、バイク、電車、飛行機などの他の移動体であってもよい。オブジェクトとユーザとの間にコンテンツの表示面となるデバイスが用意されている移動体であれば、各種の移動体におけるコンテンツの表示に上述した技術を適用可能である。
ユーザが乗っている移動体が車であるものとしたが、自転車、バイク、電車、飛行機などの他の移動体であってもよい。オブジェクトとユーザとの間にコンテンツの表示面となるデバイスが用意されている移動体であれば、各種の移動体におけるコンテンツの表示に上述した技術を適用可能である。
また、ユーザが透過型のHMDを装着し、徒歩で移動している場合のコンテンツの表示にも適用可能である。この場合、HMDにより、進行方向の風景に重ねてコンテンツが表示される。
あるタイミングにおける風景に重畳されるコンテンツが複数である場合、それぞれ異なるコンテンツが重畳されるものとしたが、1種類のコンテンツが複数の情報重畳適切フレームに重畳されるようにしてもよい。
情報重畳適切フレームの存在箇所のコンテキストに基づいてコンテンツに施される画像処理がコントラストの調整であるものとしたが、輝度の調整、色の調整などの他の処理が行われるようにしてもよい。
<<<2.第2の実施の形態>>>
<<2-1.第2の実施の形態の概要>>
以上においては、データ取得部102を構成するカメラにより撮影される車両の進行方向の風景画像に基づいて、情報重畳適切フレームを設定し、設定した情報重畳適切フレームに対してコンテンツを重畳して表示する例について説明してきた。
<<2-1.第2の実施の形態の概要>>
以上においては、データ取得部102を構成するカメラにより撮影される車両の進行方向の風景画像に基づいて、情報重畳適切フレームを設定し、設定した情報重畳適切フレームに対してコンテンツを重畳して表示する例について説明してきた。
しかしながら、以上においては、カメラで撮影された風景画像が基準となっており、ユーザの視点が考慮されていないため、見え方が不自然になる可能性があった。
すなわち、本来、ユーザの視線方向に存在するコンテンツは焦点が合った状態ではっきりと見えて、視線方向から外れたものは焦点が合っていない、ぼやけた状態で見えるはずである。しかしながら、以上の手法では、このような考慮がなされていないため、どのコンテンツも視線方向と無関係に全体がはっきりと見えるように表示されてしまい、不自然な見え方になる恐れがあった。
そこで、車両に搭乗するユーザを撮影して、ユーザの視点位置を検出し、視点位置に応じて情報重畳適切フレームに重畳するコンテンツに、視点位置から遠い位置のコンテンツほど、ぼんやりと見えるようにデフォーカス処理を加えて表示するようにしてもよい。
図42は、車両に搭乗するユーザの視点位置EPに応じて、情報重畳適切フレームに重畳するコンテンツにデフォーカス処理を加えて表示するようにした車両制御システム100の第2の実施の形態の概要を説明する図である。
すなわち、図42の車両制御システム100においては、車両の進行方向の風景画像を撮影するカメラ271および車内の搭乗者であるユーザ273を撮影するカメラ272が設けられている。
そして、出力制御部105は、カメラ271により撮影された風景画像に基づいて、上述した一連の処理により情報重畳適切フレームに対してコンテンツを重畳させると共に、カメラ272により撮影された車内のユーザ273の投影ユニット106A上の視点位置EPからの距離に応じて、投影ユニット106A上に表示されるコンテンツに対してデフォーカス処理を加える。
ここで、デフォーカスとは、画像を表示するに当たって、ユーザにはぼんやりと見えるように、画像を焦点が合っていない状態に加工処理を加えることである。
すなわち、本開示の第2の実施の形態においては、ユーザ273のユーザ視点位置からの距離に応じて、デフォーカス度(Deforcus_Range)が設定されて、デフォーカス度に応じた程度に焦点が合っていない状態に加工された状態でコンテンツが表示される。
結果として、ユーザが視線を動かしても、視線の動きに合わせて、視点位置EPに近い位置のコンテンツにおいてはデフォーカスの程度が小さく焦点のあった状態で表示され、視点位置EPから離れた位置のコンテンツは、視点位置EPからの距離の大きさ応じて、焦点が合っていない状態で表示されるので、ユーザの視線方向に応じた自然な視聴を実現することができる。
<<2-2.デフォーカス度の設定例>>
次に、図43を参照して、デフォーカス度の設定例について説明する。
次に、図43を参照して、デフォーカス度の設定例について説明する。
ユーザ273は、視線方向に存在する物体を視点位置として、視点位置に焦点を合わせて視聴しているので、視点位置から離れた位置に存在する物体には焦点が合っていない状態となっている。
そこで、デフォーカス度は、コンテンツ上の位置と、ユーザ273の視点位置との距離の差分値である距離差分値に応じて設定される。
例えば、図43の右部に示されるように、建物281の側面に情報重畳適切フレーム281Fが設定されており、情報重畳適切フレーム281F上のユーザ273の視点位置からの距離に応じて、近い順に位置281A,281B,281Cが設定されている場合について考える。
ここで、図43は、デフォーカス度の設定例を示しており、図中の右部においては、車両に搭乗するユーザ273の進行方向である前方の左右に建物281,282が存在する場合の風景の例が示されている。また、図43の左部においては、図43の右部の風景が見える場合の、ユーザ273と建物281,283とを上面からみたときの位置関係が示されている。
図43の左部で示されるように、ユーザ273が位置281Bへと視線を向けている場合について考える。以降において、ユーザ273が視線を向けている視点位置をユーザ視点位置と称する。したがって、図43の左部に示されるように、点線の矢印がユーザ273の視線を示している場合、位置281Bが、ユーザ視点位置となる。
このとき、情報重畳適切フレーム281F上の位置281Bがユーザ視点位置であるので、ユーザ273は、ユーザ視点位置である位置281Bに対して焦点を合わせて視聴していると考えることができる。
逆に言えば、ユーザ273は、情報重畳適切フレーム281F上のユーザ視点位置ではない位置281A,281Cにおいては、焦点が合っていない状態で視聴していると考えることができ、ユーザ視点位置から遠いほど焦点が合っていない状態であると考えることができる。
そこで、図43に示されるように、ユーザ視点位置である位置281Bにおいては、デフォーカス度(Deforcus_Range)が0%に設定される。また、ユーザ視点位置から離れた位置281A,281Cにおいては、ユーザ視点位置から位置281A,281Cのそれぞれまでの距離の値である距離差分値に応じて、デフォーカス度(Deforcus_Range)が0.1乃至0.5A%に設定される。
すなわち、デフォーカス度は、ユーザ273のユーザ視点位置と、それぞれの位置との距離差分値が大きいほど大きな値に設定され、距離差分値が小さいほど小さく設定される。したがって、ユーザ視点位置である位置281Bにおいては距離差分値が0となるので、デフォーカス度も0に設定される。
換言すれば、デフォーカス度は、ユーザ視点位置から近い位置ほど小さく設定され、遠い位置ほど大きな値に設定される。
ここで、図43のデフォーカス度の設定例における、Aは所定の係数であり、デフォーカス度と距離差分値に応じた重みとして任意に設定することができる。つまり、係数Aが小さい場合は、ユーザ視点位置からの位置との距離差分値が変化してもデフォーカス度は大きく変化せず、ユーザ視点位置の近傍の位置では、それほどぼんやりと見えるようにデフォーカス処理されない。これに対して、係数Aが大きい場合は、僅かな距離差分値の変化でもデフォーカス度が大きく変化するので、ユーザ視点位置の近傍の位置であっても、よりぼんやりと見えるようにデフォーカス処理される。
<<2-3.複数の情報重畳適切フレームが存在する場合のデフォーカス度の設定例>> 以上においては、情報重畳適切フレームが1枚である場合のデフォーカス度の設定例について説明してきたが、デフォーカス度は、情報重畳適切フレームが複数に存在する場合においても同様に設定することができる。
例えば、図44に示されるように、投影ユニット106A内において、複数の建物が存在し、複数の建物に情報重畳適切フレームが設定されるような場合について考える。
図44においては、車両の進行方向に、道路290が正面に存在し、道路290の左側に近い方から順に、建物291乃至293が配置され、道路290の右側に近い方から建物294,295が存在する風景が示されている。
そして、図44において、建物291のユーザが走行方向に対向する面には、情報重畳適切フレーム291Aが設定されており、星印のコンテンツ291aが重畳されて表示されている。ここで、ユーザ273のユーザ視点位置301が、コンテンツ291aのほぼ中心であることを前提とする。このため、情報重畳適切フレーム291Aのコンテンツ291aに対しては、デフォーカス度(Deforcus_Range)が、0%に設定される。
ここで、投影ユニット106Aにより投影される情報重畳適切フレーム上の画像と、投影ユニット106Aを通して進行方向前方に見える直視される建物291乃至295の、それぞれのユーザ視点位置301からの距離は、近い順に建物291,292,293,294,295の順序であるものとする。
また、建物292における、ユーザの進行方向に対向する面には、情報重畳適切フレーム292Aが設定されており、星印のコンテンツ292aが重畳されて表示されている。建物292のユーザ視点位置301からの距離は、建物291よりも離れているので、情報重畳適切フレーム292Aのコンテンツ292aに対しては、デフォーカス度(Deforcus_Range)が、例えば、1.0A乃至1.9A%に設定される。
さらに、建物294における、道路290に対向する面には、情報重畳適切フレーム294Aが設定されており、星印のコンテンツ294aが重畳されて表示されている。建物294のユーザ視点位置301からの距離は、建物292よりも離れているので、情報重畳適切フレーム294Aのコンテンツ294aに対しては、デフォーカス度(Deforcus_Range)が、例えば、コンテンツ292aにおける値より大きな値である2.0A乃至2.9A%に設定される。
また、建物295における、ユーザの進行方向に対向する面には、情報重畳適切フレーム295Aが設定されており、星印のコンテンツ295aが重畳されて表示されている。建物295のユーザ視点位置301からの距離は、建物294よりも遠いので、情報重畳適切フレーム295Aのコンテンツ295aに対しては、デフォーカス度(Deforcus_Range)が、例えば、コンテンツ294aに対する値よりも大きな値である3.0A乃至3.9A%に設定される。
すなわち、ユーザ視点位置301となるコンテンツ291aのデフォーカス度が最小となる0%に設定される。
また、ユーザ視点位置301となる情報重畳適切フレーム291Aに最も近い距離となる情報重畳適切フレーム292Aにおけるコンテンツ292aのデフォーカス度が、例えば、1.0乃至1.9%に設定される。
さらに、ユーザ視点位置301となる情報重畳適切フレーム291Aに2番目に近い距離となる情報重畳適切フレーム294Aにおけるコンテンツ294aのデフォーカス度が、例えば、2.0乃至2.9%に設定される。
また、ユーザ視点位置301となる情報重畳適切フレーム291Aに3番目に近い距離となる情報重畳適切フレーム295Aにおけるコンテンツ295aのデフォーカス度が、例えば、3.0乃至3.9%に設定される。
したがって、コンテンツ291aは、焦点が合った状態で表示され、コンテンツ292aは、デフォーカス度が1.0乃至1.9%に対応するように、焦点が合っていない状態で、ユーザ273には、コンテンツ291aよりも、ぼんやりと見えるように表示される。
また、コンテンツ294aは、デフォーカス度が2.0乃至2.9%に対応するように焦点が合っていない状態で、ユーザ273には、コンテンツ292aよりも、よりぼんやりと見えるように表示される。
さらに、コンテンツ295aは、デフォーカス度が3.0乃至3.9%に対応するように、焦点が合っていない状態で、ユーザ273には、コンテンツ294aよりもぼんやりと見えるように表示される。
すなわち、コンテンツ292a,294a,295aの順序で焦点が合っていない程度が大きく、よりぼんやりとした状態で表示される。図44においては、点線で表示される星印が、焦点の合っていない状態を表現している。尚、図44においては、コンテンツ291aは、実線でのみ星印として表示されており、焦点のずれがないことが示されている。また、コンテンツ292aは、1本の実線と1本の点線で表示された星印として表示されており、コンテンツ291aよりも焦点のずれが生じており、ぼんやりと見えていることが表現されている。
さらに、コンテンツ294aは、1本の実線と2本の点線で表示された星印として表示されており、コンテンツ292aよりも焦点のずれが大きく生じており、よりぼんやりと見えていることが表現されている。
さらに、コンテンツ295aは、1本の実線と3本の点線で表示された星印として表示されており、コンテンツ294aよりも焦点のずれが大きく生じており、さらにぼんやりと見えていることが表現されている。
このような表示により、ユーザ視点位置301のコンテンツ291aが、焦点が合っている状態で表示され、コンテンツ292a,294a,295aは、ユーザ273のユーザ視点位置301とそれぞれの位置との距離差分値に応じて、焦点が合っていない、ぼんやりとした、ぼやけた状態で表示されることにより、視線に応じた自然な表示を実現することが可能となる。
<<2-4.表示制御部の第2の実施の形態の構成例>>
<2-4-1.表示制御部の構成例>
次に、図45を参照して、出力制御部105の第2の実施の形態の構成例について説明する。ただし、出力制御部105の第2の実施の形態の構成例において、第1の実施の形態の構成例と異なる点は、表示制御部203の構成であるので、表示制御部203の構成についてのみ説明する。
<2-4-1.表示制御部の構成例>
次に、図45を参照して、出力制御部105の第2の実施の形態の構成例について説明する。ただし、出力制御部105の第2の実施の形態の構成例において、第1の実施の形態の構成例と異なる点は、表示制御部203の構成であるので、表示制御部203の構成についてのみ説明する。
また、図45の表示制御部203においては、図33の表示制御部203に対して、表示処理部254の処理が異なるので、表示処理部254の処理について説明する。
図45の表示制御部203は、車外を撮影するカメラ271により撮影された風景画像、記憶部111に記憶されている地図データ、または、図示せぬサーバから取得される地図データ、および情報重畳適切フレームの情報からメモリ空間上に擬似3Dモデルを構築し、その擬似3Dモデル内に、情報重畳適切フレームに対応するワイヤフレームを生成する。
また、表示制御部203は、擬似3Dモデルの座標系の情報と、カメラ272により撮影された車内画像とから、擬似3Dモデル内のワイヤフレームに重畳される情報重畳適切フレーム上の各位置におけるデフォーカス度を求めて、デフォーカス度マップを生成する。
そして、表示制御部203は、擬似3Dモデルにおけるワイヤフレーム上にコントラスト調整済みのコンテンツと部品画像とを重畳し、デフォーカス度マップより各位置のデフォーカス度を読み出して、対応するデフォーカス処理を施して、投影ユニット106Aに出力して表示させる。
<2-4-2.図45の表示処理部の構成例>
次に、図46を参照して、図45の表示処理部254の詳細な構成例について説明する。
次に、図46を参照して、図45の表示処理部254の詳細な構成例について説明する。
図45の表示処理部254は、擬似3Dモデルワイヤフレーム生成部321、コンテンツ重畳部322、デフォーカス処理部323、視点位置検出部324、デフォーカス度設定部325、およびデフォーカス度マップ記憶部326を備えている。
擬似3Dモデルワイヤフレーム生成部321は、風景画像、地図データ、および情報重畳適切フレームの情報に基づいて、車両の進行方向の空間に対応する道路や建物などから、メモリ空間内に擬似3Dモデルを構築する。そして、擬似3Dモデルワイヤフレーム生成部321は、構築した擬似3Dモデル内に、情報重畳適切フレームが設けられる位置の情報に基づいて、対応するワイヤフレームを生成して、擬似3Dモデルワイヤフレーム情報として、コンテンツ重畳部322、視点位置検出部324、およびデフォーカス度設定部325に出力する。
コンテンツ重畳部322は、コントラストが調整済みとされているコンテンツ、および部品画像を、擬似3Dモデルにおける情報重畳適切フレームに対応するワイヤフレーム上に重畳して、デフォーカス処理部323に出力する。
デフォーカス処理部323は、デフォーカス度マップ記憶部326にアクセスし、コントラストが調整済みとされているコンテンツ、および部品画像が重畳された擬似3Dモデルにおける情報重畳適切フレームに対応するワイヤフレーム毎に、設定されているデフォーカス度群を読み出して、対応するデフォーカス度で画像に対してデフォーカス処理を施して出力する。
視点位置検出部324は、カメラ272により撮影された車内画像よりユーザ視点位置を検索し、3Dモデルワイヤフレーム上の座標位置を求めて、デフォーカス度設定部325に出力する。より詳細には、視点位置検出部324は、カメラ272により撮影された車内画像よりユーザの顔画像を検出する。さらに、視点位置検出部324は、検出された顔画像から目の虹彩位置を特定し、虹彩の位置に基づいて、投影ユニット106Aの投影面上の視点位置をユーザ視点位置として検出する。
デフォーカス度設定部325は、擬似3Dモデルワイヤフレーム情報と、ユーザ視点位置の情報とに基づいて、擬似3Dモデル内の情報重畳適切フレームに対応するワイヤフレーム上の各位置にデフォーカス度を設定することで、ワイヤフレーム毎にデフォーカス度群を形成し、複数の情報重畳適切フレームについてのデフォーカス度マップとして、デフォーカス度マップ記憶部326に記憶させる。また、この際、デフォーカス度設定部325は、ワイヤフレーム以外の領域についても、デフォーカス度を設定する。すなわち、デフォーカス度設定部325は、擬似3Dモデル空間における全ての位置に対してデフォーカス度を設定し、デフォーカス度マップとしてデフォーカス度マップ記憶部326に記憶させる。
デフォーカス度マップ記憶部326は、デフォーカス度マップを記憶し、デフォーカス処理部323が、コンテンツ重畳部322より供給される、コントラストが調整済みとされているコンテンツ、および部品画像が、擬似3Dモデル空間内における情報重畳適切フレームに対応するワイヤフレーム上に重畳されたコンテンツに対して、デフォーカス度に応じたデフォーカス処理を施して出力させる。
<2-4-3.図45の表示制御部による表示処理>
次に、図47のフローチャートを参照して、図45の表示制御部203による表示処理について説明する。
次に、図47のフローチャートを参照して、図45の表示制御部203による表示処理について説明する。
ステップS201において、擬似3Dモデルワイヤフレーム生成部321は、風景画像、地図データ、および情報重畳適切フレームの情報に基づいて、道路や建物などの擬似3Dモデルをメモリ空間内に構築する。そして、擬似3Dモデルワイヤフレーム生成部321は、情報重畳適切フレームが設けられる位置の情報に基づいて、情報重畳適切フレームに対応するワイヤフレームを擬似3Dモデル内に設定し、擬似3Dモデルワイヤフレーム情報として、コンテンツ重畳部322、視点位置検出部324、およびデフォーカス度設定部325に出力する。
ステップS202において、視点位置検出部324およびデフォーカス度設定部325は、デフォーカス度マップ生成処理を実行し、デフォーカス度マップを生成して、デフォーカス度マップ記憶部326に記憶させる。
<2-4-4.図45の表示制御部によるデフォーカス度マップ生成処理>
ここで、図48のフローチャートを参照して、図45の表示制御部203によるデフォーカス度マップ生成処理について説明する。
ここで、図48のフローチャートを参照して、図45の表示制御部203によるデフォーカス度マップ生成処理について説明する。
ステップS221において、視点位置検出部324は、カメラ272により撮影された車内画像を取得し、搭乗者であるユーザの顔画像を検出し、さらに、虹彩位置を検出して、虹彩位置から視線方向を推定し、投影ユニット106Aの表示面上のユーザ視線位置を特定する。
ステップS222において、視点位置検出部324は、投影ユニット106A上のユーザ視点位置に対する擬似3Dモデルにおける座標位置を特定し、ユーザ視点位置の座標位置をデフォーカス度設定部325に出力する。
ステップS223において、デフォーカス度設定部325は、擬似3Dモデルにおける各点について、ユーザ視点位置からの距離差分値に応じたデフォーカス度を設定して、デフォーカス度マップを生成し、デフォーカス度マップ記憶部326に記憶させる。
以上の処理により、3Dモデルの各点におけるデフォーカス度が設定され、デフォーカス度マップとしてデフォーカス度マップ記憶部326に記憶させる。この際、デフォーカス度マップにおいては、3Dモデルにおけるワイヤフレームにおいては、連続的なデフォーカス度が設定され、ワイヤフレーム単位でデフォーカス度群が形成された状態で、デフォーカス度マップに格納されることになる。
ここで、図47のフローチャートの説明に戻る。
ステップS202において、デフォーカス度マップ生成処理により、デフォーカス度マップが生成されると、ステップS203において、表示制御部203の適応コントラスト算出部251は、重畳先が設定された1つのコンテンツに注目する。
ステップS204において、適応コントラスト算出部251は、重畳先となる情報重畳適切フレームの存在箇所のコンテキストに基づいて適応コントラストを算出する。
ステップS205において、コントラスト調整部252は、注目するコンテンツのコントラストを、適応コントラストに基づいて調整する。
ステップS206において、マスク処理部253は、注目するコンテンツの重畳先となる情報重畳適切フレームに手前オブジェクトがある場合、マスク処理を行うことによって手前オブジェクトの画像を切り出す。
ステップS207において、表示処理部254のコンテンツ重畳部322は、情報重畳適切フレームに対応する擬似3Dモデル空間におけるワイヤフレームに、コントラストが調整されたコンテンツを重畳させる。
ステップS208において、コンテンツ重畳部322は、適宜、手前オブジェクトの画像をコンテンツに重ねて表示させて、デフォーカス処理部323に出力する。
ステップS209において、デフォーカス処理部323は、デフォーカス度マップ記憶部326にアクセスし、デフォーカス度マップから、注目するコンテンツが重畳されるフレームに対応するデフォーカス度群を読み出し、フレーム上の各点におけるデフォーカス度に応じて、コンテンツが重畳された情報重畳適切フレームに対応する擬似3Dモデルのワイヤフレーム上の各点に対してデフォーカス処理を施して出力する。
ステップS210において、表示制御部203は、全てのコンテンツに注目したか否かを判定する。
まだ注目していないコンテンツがあるとステップS210において判定された場合、ステップS203に戻り、他のコンテンツに注目して、上述した処理が繰り返される。
全てのコンテンツに注目したとステップS210において判定された場合、全てのコンテンツが、重畳先として設定された情報重畳適切フレームに対応する擬似3Dモデルのワイヤフレーム上に重畳された状態になり、デフォーカス処理がなされると、処理は、ステップS211に進む。
ステップS211において、デフォーカス処理部323は、全てのコンテンツが、重畳先として設定された情報重畳適切フレームに重畳された状態で、ユーザ視点位置からの距離に応じてデフォーカス処理された画像を出力して投影ユニット106Aに出力して表示させ、図36のステップS5に戻り、それ以降の処理が行われる。
以上の一連の処理により、透過型ディスプレイからなる投影ユニット106A上に、風景に馴染むように、情報重畳適切フレームにコンテンツが重畳されて表示される。この際、ユーザ視点位置に近い位置の情報重畳適切フレームのコンテンツほど焦点のあっていない程度が小さい画像(フォーカスがより合ったシャープでクリアな状態の画像)として表示され、ユーザ視点位置から遠い位置の情報重畳適切フレームのコンテンツほど焦点の合わない画像(フォーカスがより合っていないぼんやりとした状態の画像)として表示される。
結果として、風景内の最適な場所に、より風景に溶け込んだ形でコンテンツを表示させることが可能となり、ユーザは、通常の風景を見るのと同様の感覚で、コンテンツを視聴することが可能となる。
尚、以上においては、デフォーカス度マップ生成処理において、風景画像の全体に対応する3Dモデル内の各点のデフォーカス度が求められて、デフォーカス度マップが生成される例について説明してきたが、実際にデフォーカス処理がなされるのは、コンテンツが重畳される情報重畳適切フレームの領域のみであるので、デフォーカス度マップについても、情報重畳適切フレームの領域に対応する擬似3Dモデル内におけるワイヤフレームの領域のデフォーカス度群だけを求めて、デフォーカス度マップを形成するようにしてもよい。
<<2-5.変形例>>
<2-5-1.投影ユニットが非透過型ディスプレイである場合の表示処理部の構成例>
以上においては、図42における投影ユニット106Aが透過型ディスプレイから構成される場合の例として説明を進めてきたが、投影ユニット106Aは、非透過型ディスプレイから構成されるようにしてもよい。
<2-5-1.投影ユニットが非透過型ディスプレイである場合の表示処理部の構成例>
以上においては、図42における投影ユニット106Aが透過型ディスプレイから構成される場合の例として説明を進めてきたが、投影ユニット106Aは、非透過型ディスプレイから構成されるようにしてもよい。
すなわち、以上においては、投影ユニット106Aは透過型ディスプレイであるので、上述した情報重畳適切フレームとみなされた領域にコンテンツが重畳されるため、情報重畳適切フレームとみなされたコンテンツが重畳されている領域にのみデフォーカス処理を施して投影される。このため、ユーザは、情報重畳適切フレームとみなされた領域については、投影された画像を視聴し、情報重畳適切フレームとみなされた領域以外の領域については、前方に実在する物体を直視により視聴することで、風景に自然に溶け込むように表示されたコンテンツを視聴していた。
しかしながら、非透過型ディスプレイの場合、ディスプレイ全体において、例えば、カメラ271により撮影された風景画像が表示され、表示される風景画像における情報重畳適切フレームの領域にコンテンツが重畳されて表示される。すなわち、非透過型ディスプレイで表示する場合については、ユーザは、ディスプレイ全体に表示された画像の一部にコンテンツが表示されている状態の画像を視聴することになる。このため、非透過型ディスプレイの場合については、ディスプレイの表示領域全体についてユーザ視点位置に応じたデフォーカス処理が必要となる。
ここで、図49を参照して、投影ユニットが非透過型ディスプレイである場合の表示処理部の構成例について説明する。
図49の表示処理部254において、図46の表示処理部254と異なる構成は、デフォーカス処理部323において、風景画像の情報が供給されて、情報重畳適切フレームの情報が重畳された状態でデフォーカス処理がなされる点である。
すなわち、投影ユニット106Aが非透過型ディスプレイである場合、デフォーカス処理部323は、カメラ271により撮影された風景画像に、コンテンツが重畳された情報重畳適切フレームを重畳した状態で、風景画像全体にデフォーカス処理を施す。
この際、デフォーカス処理部323は、デフォーカス度マップ記憶部326に記憶されている風景画像の全体に設定されたデフォーカス度の情報を全て利用して、コンテンツが重畳された情報重畳適切フレームを重畳した状態で、風景画像全体にデフォーカス処理を施す。
<2-5-2.投影部が非透過型ディスプレイである場合の表示処理>
次に、図50のフローチャートを参照して、投影ユニット106Aが非透過型ディスプレイである場合の表示処理について説明する。尚、図49のステップS241乃至S249の処理は、図47のステップS201乃至S208,S210の処理と同様であるので、その説明は省略する。
次に、図50のフローチャートを参照して、投影ユニット106Aが非透過型ディスプレイである場合の表示処理について説明する。尚、図49のステップS241乃至S249の処理は、図47のステップS201乃至S208,S210の処理と同様であるので、その説明は省略する。
すなわち、ステップS241乃至S249の処理により、擬似3Dモデルにおける全ての、情報重畳適切フレームに対応するワイヤフレーム上にコンテンツが重畳されると、処理は、ステップS250に進む。
ステップS250において、デフォーカス処理部323は、擬似3Dモデルにおける全ての、情報重畳適切フレームに対応するワイヤフレーム上にコンテンツが重畳された状態で、カメラ271により撮影された風景画像に貼り合わせて重畳する。
ステップS251において、デフォーカス処理部323は、風景画像全体に対してデフォーカス度に応じてデフォーカス処理を施す。すなわち、ここでは、情報重畳適切フレームに対応するワイヤフレーム上にコンテンツが重畳された領域のみならず、擬似3Dモデルにおける風景画像全体の各位置に対して、ユーザ視聴位置からの距離差分値に応じたデフォーカス度でデフォーカス処理が施される。
ステップS252において、デフォーカス処理部323は、デフォーカス処理された風景画像を、非透過型ディスプレイからなる投影ユニット106Aに出力して、表示させ、図36のステップS5に戻り、それ以降の処理が行われる。
すなわち、図51の表示例は、図44を参照して説明した透過型ティスプレイを前提とした投影ユニット106Aに表示される風景が、非透過型ディスプレイからなる106Aで表示される例を示している。
すなわち、図44においては、透過型ディスプレイからなる投影ユニット106Aにより表示される例であるので、ユーザ視点位置301からの距離に応じて、情報重畳適切フレーム292A,294A,295A内のそれぞれの星印のコンテンツ292a,294a,295aに対してのみデフォーカス処理が施されている。
これに対して、図51においては、非透過型ディスプレイからなる投影ユニット106Aにより表示される例であるので、ユーザ視点位置301からの距離に応じて、建物292乃至295に対応する建物292’乃至295’を含めた風景画像全体についてデフォーカス処理が施されている。従って、情報重畳適切フレーム292A,294A,295Aのそれぞれについても、星印のコンテンツ292a,294a,295aと同様にデフォーカス処理が施されている。その他の構成についても、デフォーカス処理が施されている。尚、星印のコンテンツ292a,294a,295aにおけるデフォーカス処理は、投影ユニット106Aが透過型ディスプレイであっても、非透過型ディスプレイであっても同様のデフォーカス処理が施されている。
結果として、風景内の最適な場所に、より風景に溶け込んだ形でコンテンツを表示させることが可能となり、ユーザは、通常の風景を見るのと同様の感覚で、コンテンツを視聴することが可能となる。
<<<3.第3の実施の形態>>>
<<3-1.第3の実施の形態の概要>>
以上においては、搭乗者であるユーザが1人である場合にユーザ視点位置からの距離差分値に応じて情報重畳適切フレーム上のコンテンツにデフォーカス処理を施す例について説明してきたが、搭乗者であるユーザが複数人数である場合に、それぞれのユーザ視聴位置に応じたデフォーカス処理を施して、ユーザそれぞれに最適なデフォーカス処理された画像を視聴できるようにしてもよい。
<<3-1.第3の実施の形態の概要>>
以上においては、搭乗者であるユーザが1人である場合にユーザ視点位置からの距離差分値に応じて情報重畳適切フレーム上のコンテンツにデフォーカス処理を施す例について説明してきたが、搭乗者であるユーザが複数人数である場合に、それぞれのユーザ視聴位置に応じたデフォーカス処理を施して、ユーザそれぞれに最適なデフォーカス処理された画像を視聴できるようにしてもよい。
図52は、車両に搭乗する複数のユーザのそれぞれの視点位置(視線方向)に応じて、情報重畳適切フレームに重畳するコンテンツにデフォーカスを加えて、それぞれのユーザに対して適切に視聴できるように表示する車両制御システム100の第3の実施の形態の概要を説明する図である。尚、図52において、図42における構成と、同一の機能を備えた構成については、適宜説明を省略する。
すなわち、図51において、図42と異なる点は、搭乗者であるユーザがユーザ273-1乃至273-3の3人であり、対応してカメラ272がカメラ272-1乃至272-3の3台であり、投影ユニット106Aに代えて、表示部351が設けられている点である。
カメラ272-1乃至272-3は、搭乗者であるユーザ273-1乃至273-3のそれぞれを撮影するように車内を撮影し、撮影した車内画像を出力制御部105に供給する。この場合、出力制御部105は、搭乗者が1人であるときと同様に、カメラ272-1により撮影された画像からユーザ273-1のユーザ視点位置EP1を特定し、カメラ272-2により撮影された画像からユーザ273-2のユーザ視点位置EP2を特定し、カメラ272-3により撮影された画像からユーザ273-3のユーザ視点位置EP3を特定する。尚、カメラ272は、1台のみの構成とし、車内全体を撮影できるようにすることで、1枚の画像から複数のユーザを検出し、それぞれのユーザ視点位置EP1乃至EP3を検出するようにしてもよい。
また、出力制御部105は、ユーザ273-1乃至273-3のそれぞれのユーザ視点位置EP1乃至EP3の情報に基づいて、ユーザ273-1乃至273-3のそれぞれが視聴に際して自然に、情報重畳適切フレーム上にコンテンツが重畳された状態で視聴可能な風景画像をそれぞれに生成し、それらを時系列に1本の画像に統合する。
そして、出力制御部105は、時系列に一本に統合された風景画像を時系列に変化させながら表示部351に出力する。
表示部351は、上述した投影ユニット106Aに加えて、液晶偏光シャッタ361が設けられており、出力制御部105は、時系列に1本の風景画像にされた画像を表示する際、ユーザ273-1乃至273-3のそれぞれのユーザが視聴すべき画像が表示されるタイミングに合わせて、液晶偏光シャッタ361により透過する光の偏光方向を切り替えるようにする。これにより、ユーザ273-1乃至273-3のそれぞれが、それぞれに適切な画像のみを視聴できる状態の風景画像が表示される。
ここで、図53を参照して、表示部351の構成について説明する。図53は、表示部351を構成する投影ユニット106Aが、例えば、透過型ディスプレイから構成される場合の構成であって、表示部351の表示面に対して垂直上方からみるときの上面図となる。
図53の場合、図中下部のユーザ273-1乃至273-3は、進行方向前方となる図中上部の風景を、投影ユニット106A越しに見ることになるので、投影ユニット106A上の、情報重畳適切フレーム上にコンテンツが重畳された状態で、進行方向前方を視聴することで、自然に風景に溶け込むようにコンテンツを視聴することができる。
ところで、複数の人数のそれぞれに生成された情報重畳適切フレーム上に、それぞれに適したコンテンツが重畳された画像が、時系列に1本に統合されると、図53の上部で示されるように表示される。すなわち、例えば、時刻t1において、Video_01で示されるユーザ273-1用の画像が表示され、時刻t2において、Video_02で示されるユーザ273-2用の画像が表示され、時刻t3において、Video_03で示されるユーザ273-3用の画像が表示されるといった表示が繰り返されることになる。
このため、液晶偏光シャッタ361が設けられていない状態で、時系列に統合された1本の画像が表示されると、ユーザ273-1乃至273-3は、それぞれ視聴に適していない画像を3回に2回ずつ視聴することになる。
そこで、出力制御部105は、液晶偏光シャッタ361を投影ユニット106Aの前段に設け、統合した画像を表示するタイミングに合わせて制御して、偏光方向を切り替える。
すなわち、出力制御部105は、時刻t1のタイミングにおいて、ユーザ273-1用の画像を投影ユニット106Aで表示させて、液晶偏光シャッタ361を点線で示されるように制御して、点線の矢印で示されるように、ユーザ273-1のみが視聴できる方向に偏光させる。
また、出力制御部105は、時刻t2のタイミングにおいて、ユーザ273-2用の画像を投影ユニット106Aで表示させて、液晶偏光シャッタ361を実線で示されるように制御して、実線の矢印で示されるように、ユーザ273-2のみが視聴できる方向に偏光させる。
さらに、出力制御部105は、時刻t3のタイミングにおいて、ユーザ273-3用の画像を投影ユニット106Aで表示させて、液晶偏光シャッタ361を一点鎖線で示されるように制御して、1点鎖線の矢印で示されるように、ユーザ273-3のみが視聴できる方向に偏光させる。
以降、出力制御部105は、同様の制御を繰り返すことにより、ユーザ273-1乃至273-3のそれぞれに対して、それぞれの視聴に適した画像のみを視聴できるように表示部351を制御する。尚、図53における液晶偏光シャッタ361内の点線、実線、および一点鎖線は、液晶偏光シャッタ361の制御状態を表現したものであり、それぞれ異なるシャッタ等が存在するわけではない。
以上のような構成により、複数のユーザが搭乗していても、ユーザのそれぞれに適した状態で、風景内の最適な場所に、より溶け込んだ形でコンテンツを表示させることが可能となり、各ユーザは、それぞれの位置で、通常の風景を見るのと同様の感覚で、コンテンツを視聴することが可能となる。
<<3-2.車両制御システムの構成例>>
<3-2-1.車両制御システムの全体構成>
図54は、第3の実施の形態における車両制御システム100の構成例を示すブロック図である。尚、図54の車両制御システム100において、図8の車両制御システム100と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
<3-2-1.車両制御システムの全体構成>
図54は、第3の実施の形態における車両制御システム100の構成例を示すブロック図である。尚、図54の車両制御システム100において、図8の車両制御システム100と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図54の車両制御システム100において、図8の車両制御システム100と異なる点は、投影ユニット106Aに代えて、表示部351が設けられている点である。
表示部351は、図53を参照して説明したように、投影ユニット106Aおよび液晶偏光シャッタ361を備えている。
液晶偏光シャッタ361は、複数のユーザ273のそれぞれに適した状態で情報重畳適切フレーム上にコンテンツが重畳されている画像が、時系列に1本の画像として表示されるとき、画像が表示されるタイミングに応じて、視聴に適したユーザ273のみが視聴可能となるように偏光方向を切り替える。
尚、投影ユニット106Aは、透過型ディスプレイでもよいし、非透過型ディスプレイでもよいが、第2の実施の形態において上述したように、それぞれに適した構成と処理が必要となる。すなわち、投影ユニット106Aが透過型ディスプレイである場合には、図46で示されるような表示処理部254の構成で、図47のフローチャートで示されるような表示処理がなされる必要がある。また、投影ユニット106Aが非透過型ディスプレイである場合には、図49で示されるような表示処理部254の構成で、図50のフローチャートで示されるような表示処理がなされる必要がある。
<3-2-2.表示処理部の構成>
次に、図55を参照して、図54の車両制御システム100の出力制御部105における表示処理部254の構成について説明する。尚、図54の表示処理部254において、図46の表示処理部254と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
次に、図55を参照して、図54の車両制御システム100の出力制御部105における表示処理部254の構成について説明する。尚、図54の表示処理部254において、図46の表示処理部254と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図55の表示処理部254において、図46の表示処理部254と異なる点は、新たに、バッファ371、合成部372、タイミング制御部373、シャッタ制御部374、および視点位置検出部324において、ユーザの人数を検出する人数検出部324aを新たに備えている点である。
バッファ371は、擬似3Dモデルワイヤフレーム生成部321乃至デフォーカス度マップ記憶部326の構成により、複数のユーザ273のそれぞれの視聴に対応して生成される、情報重畳適切フレームにコンテンツが重畳され、ユーザ視聴位置に応じたデフォーカス処理がなされた画像をバッファリングする。
合成部372は、バッファ371にバッファリングされた複数のユーザのそれぞれの視聴に適した、情報重畳適切フレームにコンテンツが重畳され、ユーザ視聴位置に応じたデフォーカス処理がなされた画像を時系列に統合して合成しタイミング制御部373に出力する。尚、合成部372は、どのタイミングで表示される画像が、どのユーザ273の視聴に適した画像であるかを識別する情報を含めて、時系列に1本の画像に統合して合成する。
タイミング制御部373は、時系列に統合された画像が順次供給されてくるとき、いずれのユーザ273の視聴に適した画像であるかを認識して、その画像を順次投影ユニット106Aにより表示させると共に、シャッタ制御部374を制御して、液晶偏光シャッタ361の偏光方向を対応するユーザ273に対向する方向に制御させる。
人数検出部324aは、車内画像より、例えば、顔検出等で検出される顔画像の数等に基づいて、ユーザが何人存在するのかを検出し、デフォーカス処理部323に通知する。このため、デフォーカス処理部323は、供給されたユーザの人数に応じて、画像に対するデフォーカス処理を施す。
尚、図55においては、投影ユニット106Aが透過型ディスプレイである場合の構成れが示されているが、非透過型ディスプレイである場合は、図49の表示処理部254のようにデフォーカス処理部323に対して、風景画像が入力される。そして、デフォーカス処理部323が、情報重畳適切フレームにコンテンツが重畳された画像を、風景画像に貼りつけた後に、風景画像全体にデフォーカス処理を施す。ここでは、非透過型ディスプレイに対応する表示処理部254の構成図は省略する。
<<3-3.図55の表示処理部による表示処理>>
次に、図56のフローチャートを参照して、図55の表示処理部254による表示処理について説明する。
次に、図56のフローチャートを参照して、図55の表示処理部254による表示処理について説明する。
ステップS291において、デフォーカス処理部323は、ユーザを識別する識別子のカウンタmを1に初期化する。
ステップS292において、人数検出部324aは、カメラ272-1乃至272-3により撮影された画像から搭乗者であるユーザの人数Mを検出して、それぞれのユーザに対して識別子mを設定し、検出結果をデフォーカス処理部323に供給する。
ステップS293において、ユーザ273のうち識別子mで識別されるユーザの表示処理が実行される。
ここで、ユーザmの表示処理とは、例えば、投影ユニット106Aが透過型ディスプレイである場合、ユーザ273-mの視聴に対応する図47におけるステップS201乃至210までの処理であり、投影ユニット106Aが非透過型ディスプレイであれば、ユーザmの視聴に対応する図50におけるステップS241乃至251までの処理である。すなわち、この処理においては、ユーザ273-mの視聴に対応する情報重畳適切フレームにコンテンツが重畳された状態で、ユーザ273-mのユーザ視点位置に応じたデフォーカス処理がなされた画像が生成される。
ステップS294において、デフォーカス処理部323は、ユーザmの表示処理により生成された画像を識別子mと対応付けてバッファ371にバッファリングさせる。
ステップS295において、デフォーカス処理部323は、カウンタmが人数Mと一致するか否か、すなわち、全ユーザ分の画像が生成されたか否かを判定する。
ステップS295において、カウンタmがMと一致しない場合、すなわち、全ユーザ分の画像が生成されていない場合、処理は、ステップS296に進む。
ステップS296において、デフォーカス処理部323は、カウンタmを1インクリメントして、処理は、ステップS293に戻る。
すなわち、全ユーザ分の表示処理がなされて、画像が生成され、バッファ371にバッファリングされるまで、ステップS293乃至S296の処理が繰り返される。
そして、ステップS295において、全ユーザ分の画像が生成されて、カウンタmがMと一致した場合、すなわち、全ユーザ分の表示処理がなされたとみなされた場合、処理は、ステップS297に進む。
ステップS297において、合成部372は、バッファ371にバッファリングされている全ユーザ分の情報重畳適切フレーム上にコンテンツが重畳されて、ユーザ視聴位置に応じたデフォーカス度に応じたデフォーカス処理がなされた画像を、時系列に1本の画像に統合する。
ステップS298において、タイミング制御部373は、統合された画像を順次投影ユニット106Aに供給して表示させると共に、対応するタイミングにおいて、シャッタ制御部374を制御して、表示する画像の対象となるユーザ273により視聴できる方向に偏光させるように液晶偏光シャッタ361を制御させる。
以上の処理により、複数のユーザが搭乗していても、ユーザのそれぞれに適した状態で、風景内の最適な場所に、より溶け込んだ形でコンテンツを表示させることが可能となり、各ユーザは、それぞれの位置で、通常の風景を見るのと同様の感覚で、コンテンツを視聴することが可能となる。
<<3-4.変形例>>
以上においては、投影ユニット106Aに投影された画像を液晶偏光シャッタ361により偏光方向を切り替えるようにすることで、複数のユーザによる視聴を実現してきたが、液晶偏光シャッタ361に代えて、複数のユーザのそれぞれの視聴に適した画像をフレーム内において、ピクセルオーダで列分割して1枚の画像として合成し、レンチキュラレンズを介して表示することにより複数のユーザのそれぞれが視聴できるようにしてもよい。
以上においては、投影ユニット106Aに投影された画像を液晶偏光シャッタ361により偏光方向を切り替えるようにすることで、複数のユーザによる視聴を実現してきたが、液晶偏光シャッタ361に代えて、複数のユーザのそれぞれの視聴に適した画像をフレーム内において、ピクセルオーダで列分割して1枚の画像として合成し、レンチキュラレンズを介して表示することにより複数のユーザのそれぞれが視聴できるようにしてもよい。
図57は、変形例における表示部351の構成例を示す図である。尚、図53における表示部351と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図57の表示部351において、図53の表示部351と異なる点は、液晶偏光シャッタ361に代えて、レンチキュラレンズ381が設けられている点である。
さらに、図57の右上部で示されるように、投影ユニット106Aにおいては、ユーザ273-1用の画像Video_01、ユーザ273-2用の画像Video_02、およびユーザ273-3用の画像Video_03が、それぞれピクセルオーダで形成される列単位で分割された領域C1,C2,C3のそれぞれに分割された状態で繰り返し配置されることにより、1枚の画像として合成された画像が表示される。
レンチキュラレンズ381は、このように投影ユニット106Aに表示される画像のうち、画像Video_01をユーザ273-1において視聴できる方向に選択的に透過させ、画像Video_02をユーザ273-2において視聴できる方向に選択的に透過させ、画像Video_03をユーザ273-3において視聴できる方向に選択的に透過させる。
以上のような構成により、複数のユーザが搭乗していても、ユーザのそれぞれに適した状態で、風景内の最適な場所に、より溶け込んだ形でコンテンツを表示させることが可能となり、各ユーザは、それぞれの位置で、通常の風景を見るのと同様の感覚で、コンテンツを視聴することが可能となる。
<3-4-1.表示処理部の構成>
次に、図58を参照して、図52の車両制御システム100における出力制御部105における表示処理部254の構成について説明する。尚、図57の表示処理部254において、図55の表示処理部254と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
次に、図58を参照して、図52の車両制御システム100における出力制御部105における表示処理部254の構成について説明する。尚、図57の表示処理部254において、図55の表示処理部254と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図58の表示処理部254において、図55の表示処理部254と異なる点は、合成部372、タイミング制御部373、およびシャッタ制御部374に代えて、合成部391が設けられている点である。
合成部391は、バッファ371にバッファリングされた複数のユーザのそれぞれの視聴に適した画像をピクセルオーダの列単位で領域分割して合成して1枚の画像に統合して、表示部351の投影ユニット106Aに出力する。
投影ユニット106Aは、ピクセルオーダの列単位で領域分割されて複数のユーザのそれぞれの視聴に適した画像が1枚に統合された画像を投影することで、レンチキュラレンズ381を介して、それぞれのユーザ273において適切に視聴可能な状態で画像を投影する。
尚、投影ユニット106Aは、透過型ディスプレイでもよいし、非透過型ディスプレイでもよいが、第2の実施の形態において上述したように、それぞれに適した構成と処理が必要となる。すなわち、投影ユニット106Aが透過型ディスプレイである場合には、図46で示されるような表示処理部254の構成で、図47のフローチャートで示されるような表示処理がなされる必要がある。また、投影ユニット106Aが非透過型ディスプレイである場合には、図49で示されるような表示処理部254の構成で、図50のフローチャートで示されるような表示処理がなされる必要がある。
<3-4-2.図57の表示処理部による表示処理>
次に、図59のフローチャートを参照して、図58の表示処理部254による表示処理について説明する。
次に、図59のフローチャートを参照して、図58の表示処理部254による表示処理について説明する。
図59のフローチャートにおけるステップS311乃至S316の処理は、図56のフローチャートにおけるステップS291乃至S296の処理と同様であるので、その説明は省略する。
すなわち、ステップS311乃至S316の処理により、全ユーザ分の表示処理がなされて、全ユーザ分の情報重畳適切フレームにコンテンツが重畳されて、それぞれのユーザ視点位置からの距離に応じてデフォーカス処理が施された画像が生成され、バッファ371にバッファリングされると、処理は、ステップS317に進む。
ステップS317において、合成部391は、バッファ371にバッファリングされている全ユーザ分の情報重畳適切フレーム上にコンテンツが重畳されて、ユーザ視聴位置からの距離に応じたデフォーカス度でデフォーカス処理がなされた画像を、所定のピクセルオーダの列単位で領域分割し、図57を参照して説明したように1枚の画像に統合して合成する。
ステップS318において、合成部391は、投影ユニット106Aに、複数のユーザ分のデフォーカス処理された画像が1枚に統合された画像を投影させ、レンチキュラレンズ381を介して選択的に偏光して投影させることにより、複数のユーザのそれぞれに適した画像を視聴させる。
以上の処理により、複数のユーザが搭乗していても、ユーザのそれぞれに適した状態で、風景画像内の最適な場所に、より溶け込んだ形でコンテンツを表示させることが可能となり、各ユーザは、それぞれの位置で、通常の風景を見るのと同様の感覚で、コンテンツを視聴することが可能となる。
尚、以降において、第2の実施の形態のように、ユーザが1人である場合の処理をシングルモード処理と称し、第3の実施の形態のように、ユーザが複数である場合の処理をマルチモード処理と称する。
上述したように、車内画像を撮影するカメラ272は、1台であってもマルチモードを実現することができるため、1台のカメラ272を用いた状態で、シングルモード処理とマルチモード処理とを切り替えて使用できるようにしてもよい。
また、以上においては、進行方向の風景に自然な状態で溶け込むように表示することを主眼とした処理について説明してきたが、特定の物体に対する視聴を促すための演出に使用するようにしてもよい。
すなわち、複数のユーザが存在している状態で、マルチモード処理が実行されている状態であっても、特定のユーザの視点位置に合わせて、全員が同一の画像を視聴できるように制御してもよい。
例えば、観光バスなどのバスガイドが、特定の旧所や名跡を案内するような場面で、特定のユーザとしてのバスガイドのユーザ視点位置に合わせて、情報重畳適切フレーム上に重畳されたコンテンツをデフォーカス処理した画像を、特定のユーザ以外のユーザであるバスの乗客全員で視聴できるようにしてもよい。
このようにすることで、バスガイドが今案内している旧所や名跡へと自然に視線が向かうような演出が可能となり、バスガイドの案内を理解し易くすることが可能となる。
また、舞台演出などにおいて、舞台演出家が特に見て欲しいものに視線を送ると、そのユーザ視点位置となる、特に視聴してもらいたいものについては、シャープに視聴できるようにデフォーカスし、その他のものについては、より大きくデフォーカスしてぼんやると見えるようにして、舞台の観衆全員が視聴できるよにすることで、舞台演出などに使用することもできる。
すなわち、この場合、視聴させたいものに対しては、デフォーカス度は、小さく設定されることで、より焦点があったシャープな画像として認識することができ、逆に、視聴させたくないものについてはデフォーカス度が大きく設定されて、よりぼんやりと視聴させるようにすることができる。結果として、舞台演出の効果を高めることが可能となる。
尚、以上においては、複数のユーザが3人である場合について説明してきたが、それ以外の人数であってもよい。
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のコンピュータなどに、プログラム記録媒体からインストールされる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のコンピュータなどに、プログラム記録媒体からインストールされる。
図60は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。図8,図54に示す自動運転制御部112を含む各部の機能が、図60に示すコンピュータにより所定のプログラムが実行されることによって実現される。
CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブル記録媒体1011を駆動するドライブ1010が接続される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005およびバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
CPU1001が実行するプログラムは、例えばリムーバブル記録媒体1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
本技術は、以下のような構成をとることもできる。
<1> 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部とを備え、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
情報処理装置。
<2> デフォーカス度を設定するデフォーカス度設定部を更に備え、
前記表示制御部は、設定された前記デフォーカス度に応じて、前記視覚情報に対してデフォーカス処理する
<1>に記載の情報処理装置。
<3> 前記デフォーカス度設定部は、前記フレームに対応する領域の各位置と、前記移動体に乗るユーザの視点位置との距離が近い程、前記デフォーカス度を小さく設定し、前記フレームに対応する領域の各位置と、前記ユーザの視点位置との距離が遠い程、前記デフォーカス度を大きく設定し、
前記表示制御部は、前記ユーザの視点位置に基づいて、設定された前記フレームに対応する領域に生成された、前記コンテンツを表示させるための視覚情報を、前記デフォーカス度が小さい程、よりフォーカスが合った状態にデフォーカス処理し、前記デフォーカス度が大きい程、よりフォーカスが合っていない状態にデフォーカス処理する
<2>に記載の情報処理装置。
<4> 前記移動体に乗る前記ユーザを撮影する撮影部をさらに含み、
前記デフォーカス度設定部は、前記撮影部により撮影された画像に基づいて、特定された前記ユーザの視点位置と、前記フレームに対応する領域の各位置との距離に応じて、前記デフォーカス度を設定する
<3>に記載の情報処理装置。
<5> 前記設定部は、前記オブジェクトの表面に対応する領域に、前記コンテンツが表示されるように、前記コンテンツを含む前記フレームを、前記移動体に乗る複数のユーザのそれぞれに設定し、
前記表示制御部は、複数の前記ユーザのそれぞれに設定された、前記フレームに対応する領域に生成された、前記コンテンツを表示させるための視覚情報を、それぞれにデフォーカス処理する
<1>に記載の情報処理装置。
<6> 進行方向の風景を撮影することによって得られた画像を解析し、前記オブジェクトを検出する検出部をさらに備える
<1>に記載の情報処理装置。
<7> 前記設定部は、移動経路上の第1の位置と所定時間経過後の第2の位置のそれぞれの位置における、前記オブジェクトの表面に向かう角度に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<8> 前記設定部は、前記オブジェクトの表面の、進行方向に対する対面角度に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<9> 前記設定部は、前記オブジェクトの表面が、手前にある他のオブジェクトによって遮られる場合、前記オブジェクトの表面の露出面積に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<10> 前記設定部は、前記オブジェクトの表面が、前記移動体に乗るユーザの視界内に含まれる時間に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<11> 前記オブジェクトの表面の光の状態を検出する光状態検出部をさらに備え、
前記設定部は、前記光の状態に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<12> 前記コンテンツの表示に要する仕様に関する情報に基づいて、前記コンテンツ毎の、それぞれの前記フレームとの適合度を算出する算出部をさらに備え、
前記表示制御部は、それぞれの前記コンテンツを、前記適合度に基づいて選択された前記フレームに対応する領域に表示させるための前記視覚情報を生成する
<1>に記載の情報処理装置。
<13> 前記算出部は、前記コンテンツの種別に応じて異なる要素を基準として前記適合度を算出する
<12>に記載の情報処理装置。
<14> 前記算出部は、前記コンテンツが画像である場合、前記画像の縦横比と、前記フレームの縦横比との関係に基づいて前記適合度を算出する
<13>に記載の情報処理装置。
<15> 前記算出部は、前記コンテンツが動画である場合、さらに、前記動画の再生時間と、前記フレームが前記移動体に乗るユーザの視界内に含まれる時間との関係に基づいて前記適合度を算出する
<14>に記載の情報処理装置。
<16> 前記算出部は、前記コンテンツが文字を含む場合、前記文字の表示範囲の縦横比と前記フレームの縦横比との関係、および、文字数により規定される閲覧時間と前記フレームが前記移動体に乗るユーザの視界内に含まれる時間との関係のうちの少なくともいずれかに基づいて前記適合度を算出する
<13>に記載の情報処理装置。
<17> 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定し、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成するステップを含み、
前記視覚情報に対してデフォーカス処理がなされる
情報処理方法。
<18> 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部としてコンピュータを機能させ、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
プログラム。
<19> 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部と、
前記視覚情報を表示する出力部とを備え、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
移動体。
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部とを備え、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
情報処理装置。
<2> デフォーカス度を設定するデフォーカス度設定部を更に備え、
前記表示制御部は、設定された前記デフォーカス度に応じて、前記視覚情報に対してデフォーカス処理する
<1>に記載の情報処理装置。
<3> 前記デフォーカス度設定部は、前記フレームに対応する領域の各位置と、前記移動体に乗るユーザの視点位置との距離が近い程、前記デフォーカス度を小さく設定し、前記フレームに対応する領域の各位置と、前記ユーザの視点位置との距離が遠い程、前記デフォーカス度を大きく設定し、
前記表示制御部は、前記ユーザの視点位置に基づいて、設定された前記フレームに対応する領域に生成された、前記コンテンツを表示させるための視覚情報を、前記デフォーカス度が小さい程、よりフォーカスが合った状態にデフォーカス処理し、前記デフォーカス度が大きい程、よりフォーカスが合っていない状態にデフォーカス処理する
<2>に記載の情報処理装置。
<4> 前記移動体に乗る前記ユーザを撮影する撮影部をさらに含み、
前記デフォーカス度設定部は、前記撮影部により撮影された画像に基づいて、特定された前記ユーザの視点位置と、前記フレームに対応する領域の各位置との距離に応じて、前記デフォーカス度を設定する
<3>に記載の情報処理装置。
<5> 前記設定部は、前記オブジェクトの表面に対応する領域に、前記コンテンツが表示されるように、前記コンテンツを含む前記フレームを、前記移動体に乗る複数のユーザのそれぞれに設定し、
前記表示制御部は、複数の前記ユーザのそれぞれに設定された、前記フレームに対応する領域に生成された、前記コンテンツを表示させるための視覚情報を、それぞれにデフォーカス処理する
<1>に記載の情報処理装置。
<6> 進行方向の風景を撮影することによって得られた画像を解析し、前記オブジェクトを検出する検出部をさらに備える
<1>に記載の情報処理装置。
<7> 前記設定部は、移動経路上の第1の位置と所定時間経過後の第2の位置のそれぞれの位置における、前記オブジェクトの表面に向かう角度に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<8> 前記設定部は、前記オブジェクトの表面の、進行方向に対する対面角度に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<9> 前記設定部は、前記オブジェクトの表面が、手前にある他のオブジェクトによって遮られる場合、前記オブジェクトの表面の露出面積に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<10> 前記設定部は、前記オブジェクトの表面が、前記移動体に乗るユーザの視界内に含まれる時間に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<11> 前記オブジェクトの表面の光の状態を検出する光状態検出部をさらに備え、
前記設定部は、前記光の状態に基づいて前記フレームを設定する
<1>に記載の情報処理装置。
<12> 前記コンテンツの表示に要する仕様に関する情報に基づいて、前記コンテンツ毎の、それぞれの前記フレームとの適合度を算出する算出部をさらに備え、
前記表示制御部は、それぞれの前記コンテンツを、前記適合度に基づいて選択された前記フレームに対応する領域に表示させるための前記視覚情報を生成する
<1>に記載の情報処理装置。
<13> 前記算出部は、前記コンテンツの種別に応じて異なる要素を基準として前記適合度を算出する
<12>に記載の情報処理装置。
<14> 前記算出部は、前記コンテンツが画像である場合、前記画像の縦横比と、前記フレームの縦横比との関係に基づいて前記適合度を算出する
<13>に記載の情報処理装置。
<15> 前記算出部は、前記コンテンツが動画である場合、さらに、前記動画の再生時間と、前記フレームが前記移動体に乗るユーザの視界内に含まれる時間との関係に基づいて前記適合度を算出する
<14>に記載の情報処理装置。
<16> 前記算出部は、前記コンテンツが文字を含む場合、前記文字の表示範囲の縦横比と前記フレームの縦横比との関係、および、文字数により規定される閲覧時間と前記フレームが前記移動体に乗るユーザの視界内に含まれる時間との関係のうちの少なくともいずれかに基づいて前記適合度を算出する
<13>に記載の情報処理装置。
<17> 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定し、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成するステップを含み、
前記視覚情報に対してデフォーカス処理がなされる
情報処理方法。
<18> 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部としてコンピュータを機能させ、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
プログラム。
<19> 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部と、
前記視覚情報を表示する出力部とを備え、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
移動体。
105 出力制御部, 201 情報重畳適切視界設定部, 202 重畳対象フレーム選択部, 203 表示制御部, 204 コンテンツ取得部, 211 画像解析部, 212 光状態モード設定部, 213 オブジェクト検出部, 214 フレーム設定部, 215 適切視界設定部, 231 事前解析部, 232 適合度算出部, 233 重畳先設定部, 251 適応コントラスト算出部, 252 コントラスト調整部, 253 マスク処理部, 254 表示処理部, 271,272,272-1乃至272-3 カメラ, 321 擬似3Dモデルワイヤフレーム生成部, 322 コンテンツ重畳部, 323 デフォーカス処理部, 324 視点位置検出部, 324a 人数検出部, 325 デフォーカス度設定部, 326 デフォーカス度マップ記憶部, 361 液晶偏光シャッタ, 371 バッファ, 372 合成部, 373 タイミング制御部, 374 シャッタ制御部, 381 レンチキュラレンズ, 391 合成部
Claims (19)
- 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部とを備え、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
情報処理装置。 - デフォーカス度を設定するデフォーカス度設定部を更に備え、
前記表示制御部は、設定された前記デフォーカス度に応じて、前記視覚情報に対してデフォーカス処理する
請求項1に記載の情報処理装置。 - 前記デフォーカス度設定部は、前記フレームに対応する領域の各位置と、前記移動体に乗るユーザの視点位置との距離が近い程、前記デフォーカス度を小さく設定し、前記フレームに対応する領域の各位置と、前記ユーザの視点位置との距離が遠い程、前記デフォーカス度を大きく設定し、
前記表示制御部は、前記ユーザの視点位置に基づいて、設定された前記フレームに対応する領域に生成された、前記コンテンツを表示させるための視覚情報を、前記デフォーカス度が小さい程、よりフォーカスが合った状態にデフォーカス処理し、前記デフォーカス度が大きい程、よりフォーカスが合っていない状態にデフォーカス処理する
請求項2に記載の情報処理装置。 - 前記移動体に乗る前記ユーザを撮影する撮影部をさらに含み、
前記デフォーカス度設定部は、前記撮影部により撮影された画像に基づいて、特定された前記ユーザの視点位置と、前記フレームに対応する領域の各位置との距離に応じて、前記デフォーカス度を設定する
請求項3に記載の情報処理装置。 - 前記設定部は、前記オブジェクトの表面に対応する領域に、前記コンテンツが表示されるように、前記コンテンツを含む前記フレームを、前記移動体に乗る複数のユーザのそれぞれに設定し、
前記表示制御部は、複数の前記ユーザのそれぞれに設定された、前記フレームに対応する領域に生成された、前記コンテンツを表示させるための視覚情報を、それぞれにデフォーカス処理する
請求項1に記載の情報処理装置。 - 進行方向の風景を撮影することによって得られた画像を解析し、前記オブジェクトを検出する検出部をさらに備える
請求項1に記載の情報処理装置。 - 前記設定部は、移動経路上の第1の位置と所定時間経過後の第2の位置のそれぞれの位置における、前記オブジェクトの表面に向かう角度に基づいて前記フレームを設定する
請求項1に記載の情報処理装置。 - 前記設定部は、前記オブジェクトの表面の、進行方向に対する対面角度に基づいて前記フレームを設定する
請求項1に記載の情報処理装置。 - 前記設定部は、前記オブジェクトの表面が、手前にある他のオブジェクトによって遮られる場合、前記オブジェクトの表面の露出面積に基づいて前記フレームを設定する
請求項1に記載の情報処理装置。 - 前記設定部は、前記オブジェクトの表面が、前記移動体に乗るユーザの視界内に含まれる時間に基づいて前記フレームを設定する
請求項1に記載の情報処理装置。 - 前記オブジェクトの表面の光の状態を検出する光状態検出部をさらに備え、
前記設定部は、前記光の状態に基づいて前記フレームを設定する
請求項1に記載の情報処理装置。 - 前記コンテンツの表示に要する仕様に関する情報に基づいて、前記コンテンツ毎の、それぞれの前記フレームとの適合度を算出する算出部をさらに備え、
前記表示制御部は、それぞれの前記コンテンツを、前記適合度に基づいて選択された前記フレームに対応する領域に表示させるための前記視覚情報を生成する
請求項1に記載の情報処理装置。 - 前記算出部は、前記コンテンツの種別に応じて異なる要素を基準として前記適合度を算出する
請求項12に記載の情報処理装置。 - 前記算出部は、前記コンテンツが画像である場合、前記画像の縦横比と、前記フレームの縦横比との関係に基づいて前記適合度を算出する
請求項13に記載の情報処理装置。 - 前記算出部は、前記コンテンツが動画である場合、さらに、前記動画の再生時間と、前記フレームが前記移動体に乗るユーザの視界内に含まれる時間との関係に基づいて前記適合度を算出する
請求項14に記載の情報処理装置。 - 前記算出部は、前記コンテンツが文字を含む場合、前記文字の表示範囲の縦横比と前記フレームの縦横比との関係、および、文字数により規定される閲覧時間と前記フレームが前記移動体に乗るユーザの視界内に含まれる時間との関係のうちの少なくともいずれかに基づいて前記適合度を算出する
請求項13に記載の情報処理装置。 - 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定し、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成するステップを含み、
前記視覚情報に対してデフォーカス処理がなされる
情報処理方法。 - 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部としてコンピュータを機能させ、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
プログラム。 - 移動体の外部に存在するオブジェクトの表面に対応する領域にコンテンツが表示されるように、前記コンテンツを含むフレームを設定する設定部と、
前記フレームに対して、前記領域に前記コンテンツを表示させるための視覚情報を生成する表示制御部と、
前記視覚情報を表示する出力部とを備え、
前記表示制御部は、前記視覚情報に対してデフォーカス処理する
移動体。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166871 | 2017-08-31 | ||
JP2017166871 | 2017-08-31 | ||
JP2018069055 | 2018-03-30 | ||
JP2018069055 | 2018-03-30 | ||
PCT/JP2018/030489 WO2019044536A1 (ja) | 2017-08-31 | 2018-08-17 | 情報処理装置、情報処理方法、プログラム、および移動体 |
JP2019539362A JP7331696B2 (ja) | 2017-08-31 | 2018-08-17 | 情報処理装置、情報処理方法、プログラム、および移動体 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019539362A Division JP7331696B2 (ja) | 2017-08-31 | 2018-08-17 | 情報処理装置、情報処理方法、プログラム、および移動体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023159121A true JP2023159121A (ja) | 2023-10-31 |
JP7571829B2 JP7571829B2 (ja) | 2024-10-23 |
Family
ID=
Also Published As
Publication number | Publication date |
---|---|
US11645840B2 (en) | 2023-05-09 |
JP7331696B2 (ja) | 2023-08-23 |
DE112018004847B4 (de) | 2024-02-08 |
US20200184219A1 (en) | 2020-06-11 |
DE112018004847T5 (de) | 2020-06-18 |
JPWO2019044536A1 (ja) | 2020-11-19 |
WO2019044536A1 (ja) | 2019-03-07 |
US20230237799A1 (en) | 2023-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7331696B2 (ja) | 情報処理装置、情報処理方法、プログラム、および移動体 | |
EP3106838B1 (en) | Display apparatus for vehicle | |
EP3112810B1 (en) | Advanced driver assistance apparatus, display apparatus for vehicle and vehicle | |
WO2020110580A1 (ja) | ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法 | |
WO2021006060A1 (ja) | 表示制御装置および表示制御プログラム | |
WO2019097763A1 (ja) | 重畳画像表示装置及びコンピュータプログラム | |
JP6939283B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
CN218198110U (zh) | 移动装置 | |
US11525694B2 (en) | Superimposed-image display device and computer program | |
WO2018146961A1 (ja) | 車両用表示制御装置 | |
JP2022179574A (ja) | 表示制御装置及び表示制御プログラム | |
WO2019116784A1 (ja) | 情報処理装置、移動体、制御システム、情報処理方法及びプログラム | |
WO2020054240A1 (ja) | 情報処理装置及び情報処理方法、撮像装置、移動体装置、並びにコンピュータプログラム | |
WO2020116205A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
KR20150051671A (ko) | 차량 및 사용자 동작 인식에 따른 화면 제어 장치 및 그 운영방법 | |
US20230017486A1 (en) | Display device, display method, and vehicle | |
JP2020033003A (ja) | 表示制御装置、及び表示制御プログラム | |
JPWO2020105685A1 (ja) | 表示制御装置、方法、及びコンピュータ・プログラム | |
JP7127565B2 (ja) | 表示制御装置及び表示制御プログラム | |
JP2021049968A (ja) | 表示制御装置および表示制御プログラム | |
JP7571829B2 (ja) | 情報処理装置、情報処理方法、プログラム、および移動体 | |
JP2020190942A (ja) | 表示制御装置 | |
WO2020008876A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
WO2020036057A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び移動体 | |
WO2021200913A1 (ja) | 表示制御装置、画像表示装置、及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240826 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240910 |