JP2021111374A - Vehicle design support system - Google Patents

Vehicle design support system Download PDF

Info

Publication number
JP2021111374A
JP2021111374A JP2020210848A JP2020210848A JP2021111374A JP 2021111374 A JP2021111374 A JP 2021111374A JP 2020210848 A JP2020210848 A JP 2020210848A JP 2020210848 A JP2020210848 A JP 2020210848A JP 2021111374 A JP2021111374 A JP 2021111374A
Authority
JP
Japan
Prior art keywords
image
unit
data
operator
interior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020210848A
Other languages
Japanese (ja)
Other versions
JP7150354B2 (en
Inventor
三統 椛島
Mitsunori Kabashima
三統 椛島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Digital Design Studio Ltd
Original Assignee
Digital Design Studio Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Design Studio Ltd filed Critical Digital Design Studio Ltd
Publication of JP2021111374A publication Critical patent/JP2021111374A/en
Priority to JP2022000355A priority Critical patent/JP2022044627A/en
Application granted granted Critical
Publication of JP7150354B2 publication Critical patent/JP7150354B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)

Abstract

To provide a vehicle design support system for supporting design works for vehicles and a computer program therefor.SOLUTION: A vehicle design support system 1 has a computer 50, a VR headset 10, and an operation input unit 120. The computer has an interior data recording unit, an image adjusting unit, and an image rendering unit. The interior data recording unit stores structure data of a vehicle interior and attribute candidate data. An operator 2 selects or adjusts at least a part of attributes of vehicle interiors using the operation input unit 120 with viewing display of a display 102 of the VR headset. The image adjusting unit selects or adjusts the attribute candidate data in response to an operation input to generate attribute data. The image rendering unit generates an interior image from the structure data and the attribute data in response to instruction contents of the operation input. The interior image is output to the display.SELECTED DRAWING: Figure 1

Description

本開示は車両デザイン支援システムに関する。さらに詳細には本開示は、コンピューター上の仮想空間を用いて車両のデザイン作業を効率化するための車両デザイン支援システムおよびそのためのコンピュータープログラムに関する。 This disclosure relates to a vehicle design support system. More specifically, the present disclosure relates to a vehicle design support system for streamlining vehicle design work using virtual space on a computer and a computer program for that purpose.

自動車産業のデザインにおいてコンピューター技術の助けを借りてコンピューター支援設計(CAD)システムで3次元プロトタイピングを行うことが一般的となっている。また、運転支援、自動運転その他の目的でもコンピューターが活用されている。特許文献1(特開2017−59213号公報)にはオブジェクトのモデルの設計変更を管理する技術的課題を克服する方法と装置が開示されている。特許文献2(特開2017−182560号公報)には、車両の内装の選択画像を順次組み合せて内装全体の3次元画像を表示しながら段階的に確認して最終的な内装イメージを得ることができる車両内装シミュレーション装置及び方法が開示されている。特許文献3(特開2018−129732号公報)にはヘッドマウントディスプレイ装置を頭部に装着した状態で、ヘッドマウントディスプレイ装置に表示される映像を容易且つスムーズに切替えることができる車両用映像表示装置が開示されている。特許文献4(特開2019−43496号公報)には、ユーザーの嗜好に合った自動運転を可能とする自動運転調整装置が開示されている。特許文献5(特開2019−148677号公報)には、目的地までの運転を仮想現実上でトレーニングして、ドライバーの不安を軽減する仮想現実トレーニングシステム及びそれを備える車両が開示されている。 In the design of the automobile industry, it is common to perform 3D prototyping with a computer-aided design (CAD) system with the help of computer technology. Computers are also used for driving assistance, autonomous driving, and other purposes. Patent Document 1 (Japanese Unexamined Patent Publication No. 2017-59213) discloses a method and an apparatus for overcoming a technical problem of managing a design change of an object model. In Patent Document 2 (Japanese Unexamined Patent Publication No. 2017-182560), it is possible to obtain a final interior image by sequentially combining selected images of the interior of a vehicle and checking them step by step while displaying a three-dimensional image of the entire interior. Vehicle interior simulation devices and methods that can be used are disclosed. According to Patent Document 3 (Japanese Unexamined Patent Publication No. 2018-129732), a vehicle image display device capable of easily and smoothly switching the image displayed on the head-mounted display device while the head-mounted display device is attached to the head. Is disclosed. Patent Document 4 (Japanese Unexamined Patent Publication No. 2019-43496) discloses an automatic operation adjusting device that enables automatic operation according to a user's taste. Patent Document 5 (Japanese Unexamined Patent Publication No. 2019-148677) discloses a virtual reality training system that trains driving to a destination in virtual reality to reduce driver's anxiety and a vehicle provided with the virtual reality training system.

これらに示されるように、コンピューター技術の進歩と歩調を合わせ、自動車産業でも仮想現実(VR)システムが利用されつつある。 As shown in these, virtual reality (VR) systems are being used in the automobile industry in step with the progress of computer technology.

特開2017− 59213号公報JP-A-2017-59213 特開2017−182560号公報Japanese Unexamined Patent Publication No. 2017-182560 特開2018−129732号公報JP-A-2018-129732 特開2019− 43496号公報Japanese Unexamined Patent Publication No. 2019-43496 特開2019−148677号公報JP-A-2019-148677

自動車を含む車両を具体的にデザインするためには多岐にわたる要素が考慮される。特に車両の内装デザインは、ドライバー、同乗者(本出願において「搭乗者」と総称する)にとっては自身の周囲環境を決定するものであるとともに、ドライバーにとっては運転操作にも影響する。車両の内装は、搭乗者が視覚を通じ感知しうる属性だけを取り上げてみても種々の観点から評価され、審美的側面のみならず、運転操作への適合性まで吟味されなくてはならない。このため、車両出荷先である仕向地の四季にわたる気候条件から、1日の24時間における光環境の違いまで含めて、多様な環境を想定して多岐にわたる評価や検証を効率良く行うことが求められている。 A wide variety of factors are considered in order to specifically design a vehicle including an automobile. In particular, the interior design of the vehicle determines the surrounding environment of the driver and passengers (collectively referred to as "passengers" in this application), and also affects the driving operation for the driver. The interior of the vehicle must be evaluated from various points of view, even if only the attributes that can be visually perceived by the passenger are taken up, and not only the aesthetic aspect but also the suitability for driving operations must be examined. For this reason, it is necessary to efficiently carry out a wide range of evaluations and verifications assuming various environments, including the climatic conditions of the destination where the vehicle is shipped over the four seasons and the difference in the light environment 24 hours a day. Has been done.

しかしながら、試作プロセスは手間が掛かり、さらに多様で複雑な状況で多くの情報を統合した判断も必要となるため、内装デザインの業務は負担が大きい。さらには、近年の車両では搭乗者に多様な情報がメーター類の表示装置を通じて提供されており、内装での補助照明も多用されつつある。内装デザインの業務はこの増大する複雑さを克服しなくてはならない。 However, the trial production process is time-consuming, and it is also necessary to make a judgment by integrating a lot of information in various and complicated situations, so that the work of interior design is burdensome. Furthermore, in recent vehicles, various information is provided to passengers through display devices such as meters, and auxiliary lighting in the interior is also being frequently used. Interior design work must overcome this increasing complexity.

本開示は、上記問題の少なくともいくつかを解決することを課題とし、車両のデザイン作業を支援する効率的なシステムやコンピュータープログラムを提供することにより、車両デザインの高度化に寄与するものである。 The present disclosure aims to solve at least some of the above problems, and contributes to the sophistication of vehicle design by providing an efficient system and computer program that support the vehicle design work.

本発明者が着目したのは、例えば車両をデザインする段階において、製造された車両の搭乗者が視覚を通じて取得することとなる情報を仮想現実技術により再現性よく提示することができれば、内装の各部の属性の決定が仮想空間で行えてデザイン作業の効率が向上することである。本開示は、車両の搭乗者が視認する視覚的刺激を、仮想空間上に再現された車両データに基づいて、仮想現実技術を利用してオペレーターに提供し、さらにオペレーターがデザインされる車両内装の属性を選択したり調整したりすることを可能にする。本開示では、車内装の各部にあたえる属性を決定するデザイン作業を支援するこのような車両デザイン支援システムが提供される。本開示はまた、仮想空間に再現された内装を提示されたオペレーターが視線を向ける注視点の観察を容易にすることにより、内装の各部にあたえる属性のデザイン作業を支援する車両デザイン支援システムを提供する。 The present inventor paid attention to each part of the interior, for example, at the stage of designing a vehicle, if the information to be visually acquired by the passengers of the manufactured vehicle can be presented with good reproducibility by the virtual reality technology. It is possible to determine the attributes of the above in the virtual space and improve the efficiency of the design work. The present disclosure provides the operator with visual stimuli visually recognized by the passengers of the vehicle using virtual reality technology based on the vehicle data reproduced in the virtual space, and further, the interior of the vehicle designed by the operator. Allows you to select and adjust attributes. The present disclosure provides such a vehicle design support system that supports the design work of determining the attributes given to each part of the vehicle interior. The present disclosure also provides a vehicle design support system that supports the design work of attributes given to each part of the interior by facilitating the observation of the gaze point of the operator who is presented with the interior reproduced in the virtual space. do.

すなわち、本開示のある態様においては、仮想空間において車両内装の構造を決定するための構造データと前記車両内装の少なくとも一部についての属性を選択または調節するための属性候補データとを格納する内装データ記録部と、前記オペレーターが頭部に装着する少なくとも一つの仮想現実(VR)ヘッドセットであって、オペレーターの頭部の姿勢を検出しうる姿勢センサーと提示画像を表示しうるディスプレイとを備えるVRヘッドセットと、前記車両内装の前記少なくとも一部についての前記属性の選択または調節のための操作入力を前記オペレーターから受け付ける少なくとも一つの操作入力部と、前記操作入力部が受け付けた前記操作入力の指示内容に応じて前記車両内装の少なくとも一部についての属性のための前記属性候補データを選択または調節して属性データを生成する画像調節部と、前記内装データ記録部から呼び出した前記構造データと前記画像調節部からの前記属性データとから、前記操作入力の前記指示内容に対応し前記オペレーターの頭部の前記仮想空間における方向に対応した内装画像を生成し、前記提示画像のための画像信号として出力する画像レンダリング部とを備える車両デザイン支援システムが提供される。 That is, in some aspects of the present disclosure, an interior that stores structural data for determining the structure of the vehicle interior in a virtual space and attribute candidate data for selecting or adjusting attributes for at least a portion of the vehicle interior. It includes a data recording unit, at least one virtual reality (VR) headset worn by the operator on the head, a posture sensor capable of detecting the posture of the operator's head, and a display capable of displaying a presented image. A VR headset, at least one operation input unit that receives operation input for selecting or adjusting the attribute for at least a part of the vehicle interior from the operator, and the operation input unit received by the operation input unit. An image adjustment unit that selects or adjusts the attribute candidate data for attributes for at least a part of the vehicle interior according to the instruction content to generate attribute data, and the structural data called from the interior data recording unit. From the attribute data from the image adjustment unit, an interior image corresponding to the instruction content of the operation input and corresponding to the direction of the operator's head in the virtual space is generated, and an image signal for the presented image is generated. A vehicle design support system including an image rendering unit that outputs as is provided.

また、本開示のある態様においては、仮想空間において車両内装の構造を決定するための構造データと前記車両内装の少なくとも一部についての属性を決定するための属性データとを格納する内装データ記録部と、前記オペレーターが頭部に装着する少なくとも一つの仮想現実(VR)ヘッドセットであって、オペレーターの頭部の姿勢を検出しうる姿勢センサーと提示画像を表示しうるディスプレイと前記オペレーターの少なくとも1つの眼球による視線を特定しうるアイトラッキング信号を出力するアイトラッキング検出部とを備えるVRヘッドセットと、前記構造データと前記アイトラッキング信号とから、前記視線が前記構造と交わる前記仮想空間での位置を注視点として決定し注視点位置データとして出力する注視点判定部と、前記注視点位置データを格納する注視点位置記録部と、前記内装データ記録部から呼び出した前記構造データと前記属性データとから、前記オペレーターの頭部の前記仮想空間における方向に対応した内装画像を生成し、当該内装画像の画像信号を生成する画像レンダリング部とを備える車両デザイン支援システムも提供される。 Further, in a certain aspect of the present disclosure, an interior data recording unit that stores structural data for determining the structure of the vehicle interior in a virtual space and attribute data for determining attributes for at least a part of the vehicle interior. And at least one virtual reality (VR) headset worn by the operator on the head, a posture sensor capable of detecting the posture of the operator's head, a display capable of displaying a presented image, and at least one of the operators. A VR headset including an eye tracking detector that outputs an eye tracking signal capable of identifying the line of sight of one eyeball, and a position in the virtual space where the line of sight intersects the structure from the structural data and the eye tracking signal. The gaze point determination unit that determines the gaze point and outputs it as the gaze point position data, the gaze point position recording unit that stores the gaze point position data, and the structural data and the attribute data called from the interior data recording unit. Therefore, a vehicle design support system including an image rendering unit that generates an interior image corresponding to the direction of the operator's head in the virtual space and generates an image signal of the interior image is also provided.

さらに本開示においては上述した車両デザイン支援システムのためのコンピュータープログラムも提供される。 Further, in the present disclosure, a computer program for the vehicle design support system described above is also provided.

本出願において、特に断りのない記載は、通常の車両である自動車およびコンピューターの分野において用いられる技術用語にて記す。仮想空間は、コンピューター上にて定義される3次元空間である。車両内装とは、インテリアなどとも呼ばれ、車両において搭乗者が通常車内と認識するような外界とは区別される空間において、その空間に存在したり、その空間を取り囲んだりしている物体や装備を示している。本出願における車両内装は、自動車におけるシート、ハンドル、メータークラスターパネル、センターコンソール、ウインドシールドなどの窓、モール、ハンドル、シフトレバー、付属品(フロアマットなど)を含んでいる。VRヘッドセットとは、仮想現実技術においてオペレーターの頭部に固定することによりオペレーターの少なくとも視覚に画像を提示しうる装置である。ヘッドマウントディスプレイ(HMD)は、VRヘッドセットの典型例である。オペレーターとは、本出願においては車両デザイン支援システムを利用する使用者を一般的に示している。デザインやデザイン作業は、必ずしも審美的観点のみに着目した物に限られず、構造設計、GUIなどのインターフェース設計、UX(ユーザーエクスペリエンス)などの体感情報設計、照明設計などを含む広範な創造作業を含む。本開示において画像には静止画と動画を含む。また、映像には動画が含まれているが、部分または全部が静止画となっても映像と呼ぶことがある。 In this application, unless otherwise specified, the description is given in technical terms used in the fields of automobiles and computers, which are ordinary vehicles. The virtual space is a three-dimensional space defined on a computer. Vehicle interior is also called interior, and is an object or equipment that exists in or surrounds the space in a space that is distinguished from the outside world, which passengers usually recognize as inside the vehicle. Is shown. The vehicle interior in this application includes windows such as seats, handles, meter cluster panels, center consoles, windshields, moldings, handles, shift levers, and accessories (floor mats, etc.) in automobiles. A VR headset is a device that can present an image at least visually to the operator by fixing it to the operator's head in virtual reality technology. A head-mounted display (HMD) is a typical example of a VR headset. The operator generally refers to the user who uses the vehicle design support system in this application. Design and design work are not necessarily limited to those focusing only on aesthetic viewpoints, but include a wide range of creative work including structural design, interface design such as GUI, experience information design such as UX (user experience), lighting design, etc. .. In the present disclosure, images include still images and moving images. Further, although the video includes a moving image, it may be called a video even if a part or the whole is a still image.

本開示のいずれかの態様では車両のデザイン作業を効率化する車両デザイン支援システムまたはコンピュータープログラムが提供される。 In any aspect of the present disclosure, a vehicle design support system or computer program that streamlines vehicle design work is provided.

図1は、本開示の実施形態の車両デザイン支援システムのハードウエア構成を例示する説明図である。FIG. 1 is an explanatory diagram illustrating a hardware configuration of the vehicle design support system according to the embodiment of the present disclosure. 図2は、本開示の実施形態の車両デザイン支援システムによって提示される表示内容を示す画像表示例である。FIG. 2 is an image display example showing the display contents presented by the vehicle design support system of the embodiment of the present disclosure. 図3は、本開示の実施形態における車両デザイン支援システムの機能を示すブロック図である。FIG. 3 is a block diagram showing a function of the vehicle design support system according to the embodiment of the present disclosure. 図4は、本開示の実施形態の複数のオペレーターにより同時に動作しうる車両デザイン支援システムの説明図である。FIG. 4 is an explanatory diagram of a vehicle design support system that can be operated simultaneously by a plurality of operators according to the embodiment of the present disclosure. 図5は、本開示の実施形態の複数のオペレーターがネットワーク経由で協働作業する状況での一例の構成を示す説明図である。FIG. 5 is an explanatory diagram showing an example configuration in a situation where a plurality of operators according to the embodiment of the present disclosure work together via a network. 図6AおよびBは、本開示の実施形態の車両デザイン支援システムにおいて、オペレーターに提示される画像例である。6A and 6B are image examples presented to the operator in the vehicle design support system of the embodiment of the present disclosure. 図7は、本開示の実施形態において注視点の検出および記録のために採用するアイトラッキング検出部を備える車両デザイン支援システムの説明図である。FIG. 7 is an explanatory diagram of a vehicle design support system including an eye tracking detection unit adopted for detecting and recording a gazing point in the embodiment of the present disclosure. 図8は、本開示の実施形態においてアイトラッキング検出部をもつVRヘッドセットを採用する車両デザイン支援システムのブロックダイヤグラムである。FIG. 8 is a block diagram of a vehicle design support system that employs a VR headset with an eye tracking detector in the embodiments of the present disclosure. 図9A〜図9Cは、本開示の実施形態の車両デザイン支援システムにおいて取得される例示のヒートマップ画像(図9A)、ゲイズ・トレース画像(図9B)、ゲイズ・クラスター画像(図9C)である。9A-9C are exemplary heatmap images (FIG. 9A), gaze trace images (FIG. 9B), and gaze cluster images (FIG. 9C) acquired in the vehicle design support system of the embodiments of the present disclosure. .. 図10A、図10Bは、本開示の実施形態の車両デザイン支援システムにおいて取得される注視点が位置していた累積時間を集計したグラフであり、それぞれ、図9Bの特徴ポイント別および図9Cのエリア別のものから集計した例である。10A and 10B are graphs summarizing the cumulative time at which the gazing point acquired in the vehicle design support system of the embodiment of the present disclosure was located, respectively, according to the feature points of FIG. 9B and the area of FIG. 9C, respectively. This is an example of totaling from another. 図11は、本開示の実施形態の車両デザイン支援システムにおいて、視点移動をサポートするためにコントローラーを利用したトランスポーテーション機能を作動させている表示例である。FIG. 11 is a display example in which the transportation function using the controller is operated to support the viewpoint movement in the vehicle design support system of the embodiment of the present disclosure. 図12は、本開示の実施形態の車両デザイン支援システムにおいて、カメラによりプレゼンターを撮影しトラッカー処理部により特徴点を設定している様子を示す説明図である。FIG. 12 is an explanatory diagram showing a state in which a presenter is photographed by a camera and feature points are set by a tracker processing unit in the vehicle design support system of the embodiment of the present disclosure.

以下図面を参照し、本開示に係る車両デザイン支援システムの実施形態を説明する。全図を通じ当該説明に際し特に言及がない限り、共通する部分または要素には共通する参照符号が付される。また、図中、各実施形態の要素のそれぞれは、必ずしも互いの縮尺比を保って示されてはいない。 An embodiment of the vehicle design support system according to the present disclosure will be described with reference to the drawings below. Unless otherwise specified in the description throughout the figure, common parts or elements are given a common reference code. Further, in the figure, each of the elements of each embodiment is not necessarily shown while maintaining a scale ratio of each other.

図1は車両デザイン支援システム1のハードウエア構成を例示する説明図であり、図2は車両デザイン支援システムによって提示される表示内容を示す画像表示例である。図1のVRヘッドセット10を頭部22に装着したオペレーター2は、図2の仮想空間の風景を視認する。VRヘッドセット10のディスプレイ102は、オペレーター2の視野の全部または一部の範囲を覆う表示領域をもつ。姿勢センサー移動子104は、必要に応じて姿勢センサー固定子106の助けを借りてVRヘッドセット10の姿勢つまりオペレーター2の頭部22の姿勢を検出するために利用される。コントローラー(操作入力部)120は、オペレーター2が手に持って入力操作可能な、VR技術において利用されるコントローラーである。生体状態センサー(生体状態検知装置)140は、心拍、皮膚電位その他のオペレーター2の生体信号(生体バイタル信号)を取得することができる。なお、車両の運転操作を模擬する装置(アクセルペダル、ブレーキペダル、ハンドル、シフトレバーなど)を任意選択として採用することもできる。コンピューター50は、適当なOS、記憶装置、演算装置、グラフィック装置を備えており、VRヘッドセット10、コントローラー120、生体状態センサー140と直接または間接的に接続されている。その接続は有線または無線など任意の通信手段のものを含む。 FIG. 1 is an explanatory diagram illustrating a hardware configuration of the vehicle design support system 1, and FIG. 2 is an image display example showing display contents presented by the vehicle design support system. The operator 2 wearing the VR headset 10 of FIG. 1 on the head 22 visually recognizes the scenery of the virtual space of FIG. The display 102 of the VR headset 10 has a display area that covers the entire or part of the field of view of the operator 2. The posture sensor mover 104 is used to detect the posture of the VR headset 10, that is, the posture of the operator 2's head 22 with the help of the posture sensor stator 106, if necessary. The controller (operation input unit) 120 is a controller used in VR technology that can be held by the operator 2 for input operation. The biological condition sensor (biological condition detecting device) 140 can acquire a heartbeat, a skin potential, and other biological signals (biological vital signals) of the operator 2. A device (accelerator pedal, brake pedal, handle, shift lever, etc.) that simulates the driving operation of the vehicle can also be adopted as an optional selection. The computer 50 includes an appropriate OS, storage device, arithmetic unit, and graphic device, and is directly or indirectly connected to the VR headset 10, the controller 120, and the biological condition sensor 140. The connections include those of any means of communication, such as wired or wireless.

図2の提示画像542は、ディスプレイ102によりオペレーター2に向けて表示されるものであり、内装画像302と背景画像402とを含んでいる。これらの画像は、ディスプレイ102に表示されることによって視覚情報を提供する画像を一般に指しており、静止画、動画の双方を含む。表示される画像は、オペレーター2が頭部22を固定していて、内装画像302と背景画像402がともに時間的な変化を示さなければ静止画となる。内装画像302や背景画像402が時間的な変化を示したり、頭部22の姿勢が動いたりした場合には、それに応じた動画が表示される。頭部22の姿勢が変化すると、姿勢センサー移動子104、姿勢センサー固定子106がその現実空間での姿勢の動きを検出し、ディスプレイ102に表示する提示画像542の方向や傾きがその動きに追随する。姿勢センサー移動子104の例は、例えばジャイロスコープなどの角速度センサーである。図2には、提示画像542の表示範囲の例を例示しており、オペレーター2が顎を上げる場合のシフト方向U、顎を下げる場合のシフト方向D、左および右に頭を向ける場合のシフト方向LおよびRも示している。頭部22の傾斜による回転には、提示画像542の表示範囲を回転させる。結果、オペレーター2の視界は、あたかも仮想空間中に自身を置いているかのようなものとなる。例えば、オペレーター2がハンドルを正面にしたドライバーズシートに着座した位置から大きく右方向を向く場合、内装画像302は助手席や右側ドア内装を含んでおり、背景画像402は右側サイドウインドウ(側方窓)を通した車両外部の風景画像を含んでいることとなる。このように、オペレーター2は、あたかも車内で着座しているかのような視界を見ることとなる。ディスプレイ102は、必要に応じて左右の眼による立体視のために、仮想空間での方向をずらした各画像を両眼に別々に提示してもよい。 The presented image 542 of FIG. 2 is displayed by the display 102 toward the operator 2, and includes an interior image 302 and a background image 402. These images generally refer to images that provide visual information by being displayed on the display 102, and include both still images and moving images. The displayed image is a still image unless the operator 2 fixes the head 22 and both the interior image 302 and the background image 402 show a temporal change. When the interior image 302 and the background image 402 show a temporal change or the posture of the head 22 moves, a moving image corresponding to the change is displayed. When the posture of the head 22 changes, the posture sensor mover 104 and the posture sensor stator 106 detect the movement of the posture in the real space, and the direction and inclination of the presented image 542 displayed on the display 102 follow the movement. do. An example of the attitude sensor mover 104 is an angular velocity sensor such as a gyroscope. FIG. 2 illustrates an example of the display range of the presented image 542, which is the shift direction U when the operator 2 raises the jaw, the shift direction D when the operator lowers the jaw, and the shift when the head is turned to the left and right. The directions L and R are also shown. The display range of the presented image 542 is rotated for rotation due to the inclination of the head 22. As a result, the view of the operator 2 becomes as if he / she is placed in the virtual space. For example, when the operator 2 faces greatly to the right from the position where the operator 2 is seated on the driver's seat with the handle facing the front, the interior image 302 includes the passenger seat and the right door interior, and the background image 402 is the right side window (side). It will include a landscape image of the outside of the vehicle through the window). In this way, the operator 2 sees the view as if he / she is seated in the vehicle. If necessary, the display 102 may separately present to both eyes each image shifted in the direction in the virtual space for stereoscopic viewing by the left and right eyes.

図2の車両内装300は、デザイン作業の主要な対象物である。このため、シート、ハンドル、メータークラスターパネル、センターコンソール、ウインドシールドなどの窓、モール、ハンドル、シフトレバー、付属品(フロアマットなど)が視界に応じて表示される。 The vehicle interior 300 of FIG. 2 is the main object of the design work. Therefore, windows such as seats, handles, meter cluster panels, center consoles, windshields, moldings, handles, shift levers, and accessories (floor mats, etc.) are displayed according to the visibility.

車両内装300は、構造データと属性データを組み合わせて仮想空間内に3次元オブジェクトとして再現されうる。その際、属性として指定される表面の色、質感、表面反射特性なども再現される。なお、属性とはデザイン作業において選択または調節を受ける対象となる性質である。このため、形状変更を伴うデザイン変更がデザイン作業の目的である場合には、形状を特定するための構造も属性の一つの典型例となりうる。また、表示装置領域310のグラフィック表示の内容や、明度、車内照明の照明デザインにおける光色や光度、これらの時間的変化といった性質も本願における属性の別の典型例である。 The vehicle interior 300 can be reproduced as a three-dimensional object in a virtual space by combining structural data and attribute data. At that time, the surface color, texture, surface reflection characteristics, etc. specified as attributes are also reproduced. The attribute is a property to be selected or adjusted in the design work. Therefore, when a design change accompanied by a shape change is the purpose of the design work, the structure for specifying the shape can be a typical example of the attribute. Further, the content of the graphic display of the display device area 310, the brightness, the light color and the light intensity in the lighting design of the vehicle interior lighting, and the temporal changes thereof are also typical examples of the attributes in the present application.

コントローラー(操作入力部)120は、オペレーター2が例えば手に保持しており、ディスプレイ102を装着した状態でもオペレーター2が手の届く範囲で操作可能な機器である。コントローラー120からの信号は、必要に応じて信号処理部122でコンピューター50への入力に適する信号に変換等される。オペレーター2は、コントローラー120を操作することにより、車両内装300の少なくとも一部の属性を変更するために、候補となるいくつかの選択肢から選択したり、連続的に変化させられるパラメータなどを調節したりすることができる。必要に応じてディスプレイ102にはコントローラーによる選択を補助するためのメニューが表示される(図示しない)。 The controller (operation input unit) 120 is a device that the operator 2 holds in his / her hand, for example, and can be operated within the reach of the operator 2 even when the display 102 is attached. The signal from the controller 120 is converted into a signal suitable for input to the computer 50 by the signal processing unit 122, if necessary. By operating the controller 120, the operator 2 selects from several candidate options or adjusts parameters that can be continuously changed in order to change at least a part of the attributes of the vehicle interior 300. Can be done. If necessary, the display 102 displays a menu for assisting the selection by the controller (not shown).

背景400は、車両が置かれた環境であると搭乗者が認識する風景となるものを一般にさしており、背景画像402はそれを画像化したものである。背景400は、例えば車両が存在する現実空間であり、そのための背景画像402は、典型的には現実空間で撮影された画像(すなわち静止画または動画)である。これ以外にも背景400を3次元オブジェクトが配置された仮想空間とすることもできる。背景画像402は、典型的には周囲全方向(全天球)を撮影可能なカメラ(図示しない)により予め撮影され蓄積されている映像を仮想空間に対応させたものとすることができる。図2の例示では高速道路上の風景をそのようなカメラで撮影したものを利用している。なお、用途によっては、背景画像402は必ずしも奥行き情報や3次元的な形状情報を持たない2次元画像としてもよく、仮想空間で有限の半径を持つ球の内面(例えば、おおむね半天を覆う半天球)と地面を表す底面にマップされていてもよい。背景画像402のために適する画像は、車両の運転を想定しうる任意の風景画像であるため、デザイン作業の目的に合せて取得し選択される。人為的に準備する合成画像やコンピューター生成画像が適する画像であることもありうる。 The background 400 generally refers to a landscape that the passenger recognizes as the environment in which the vehicle is placed, and the background image 402 is an image of this. The background 400 is, for example, a real space in which a vehicle exists, and the background image 402 for that purpose is typically an image (that is, a still image or a moving image) taken in the real space. In addition to this, the background 400 can be a virtual space in which a three-dimensional object is arranged. The background image 402 can typically correspond to a virtual space with an image previously captured and stored by a camera (not shown) capable of capturing all directions (all celestial spheres) around it. In the example of FIG. 2, a landscape on a highway taken by such a camera is used. Depending on the application, the background image 402 may be a two-dimensional image that does not necessarily have depth information or three-dimensional shape information, and is an inner surface of a sphere having a finite radius in a virtual space (for example, a hemisphere that generally covers a half heaven). ) And the bottom surface representing the ground. Since the image suitable for the background image 402 is an arbitrary landscape image that can be assumed to drive a vehicle, it is acquired and selected according to the purpose of the design work. An artificially prepared composite image or a computer-generated image may be a suitable image.

背景画像402は、車両内装300の画像である内装画像302に、例えばZバッファリングなどの手法で合成される。その合成処理により、車両内装300のうち車外が見える位置や、車外が素通しで観察される位置に合せて背景画像402が描画される。ここで、車外が見える位置とは、ウインドシールドやサイドウインドウ、リアウインドウ、グラスサンルーフ(「窓」)などの光透過性物質(以下単に「ガラス」と呼ぶ)が配置された位置が典型である。また、車外が素通しで観察される位置は、ドアを開放した際のドアオープニング部分、オープンカーの場合の頭部周囲などが典型である。なお、本実施形態では窓部分も車両内装300の部分と取り扱うことがある。ガラスを通じて背景400を観察する際に、車両内装300の一部となるように設けられる光源(例えば車内灯や表示装置)からの光がガラス表面の反射のために像となって視認される写り込みが問題となる場合がある。窓部分を車両内装300の部分として扱えば、写り込みも考慮した上でそういった光源も車両内装のデザイン対象とすることができる。 The background image 402 is combined with the interior image 302, which is an image of the vehicle interior 300, by a method such as Z buffering. By the synthesizing process, the background image 402 is drawn according to the position where the outside of the vehicle can be seen in the vehicle interior 300 and the position where the outside of the vehicle can be observed through. Here, the position where the outside of the vehicle can be seen is typically the position where a light-transmitting substance (hereinafter, simply referred to as "glass") such as a windshield, a side window, a rear window, and a glass sunroof ("window") is placed. .. In addition, the position where the outside of the vehicle is observed through is typically the door opening portion when the door is opened, the circumference of the head in the case of an open car, and the like. In the present embodiment, the window portion may also be treated as the portion of the vehicle interior 300. When observing the background 400 through the glass, the light from a light source (for example, an interior light or a display device) provided so as to be a part of the vehicle interior 300 is visually recognized as an image due to the reflection on the glass surface. Inclusiveness can be a problem. If the window portion is treated as a portion of the vehicle interior 300, such a light source can also be a design target of the vehicle interior in consideration of reflection.

図2において、オペレーター2には、ドライバーズシートに着座した状態のときは左シートを中心にした視点を持つように、また助手席に着座した状態のときは右シートを中心にした視点を持つように、提示画像542が表示される。後席などその他の席に着座したり、車内空間にて何らかの体勢をとったりしている状態でのオペレーター2はそれらの視点を持つように提示画像542が表示される。これらの視点切替えは、姿勢センサー移動子104や姿勢センサー固定子106によるVRヘッドセット10の位置に応じて切替えることもでき、また仮想空間内での視点位置を意図的に変更するには、現実空間と仮想空間の間での対応させる座標をずらす手段により容易に変更することができる。 In FIG. 2, the operator 2 has a viewpoint centered on the left seat when seated in the driver's seat, and has a viewpoint centered on the right seat when seated in the passenger seat. As such, the presentation image 542 is displayed. The presented image 542 is displayed so that the operator 2 in a state of being seated in another seat such as the rear seat or taking some posture in the vehicle interior space has those viewpoints. These viewpoints can be switched according to the position of the VR headset 10 by the attitude sensor mover 104 and the attitude sensor stator 106, and in order to intentionally change the viewpoint position in the virtual space, it is a reality. It can be easily changed by means of shifting the corresponding coordinates between the space and the virtual space.

図3は、車両デザイン支援システム1の機能を示すブロック図である。コンピューター50には、CPU、グラフィックボード、メインメモリー(主記憶装置)、ストレージ(補助記憶装置)、入出力、その他の装置が備わっており、適切なインターフェースを通じて、VRヘッドセット10、コントローラー120が接続されている。車両デザイン支援システム1を構成するコンピューター50には、内装データ記録部510、環境データ記録部520、画像調節部530、画像レンダリング部540が備わっている。 FIG. 3 is a block diagram showing the functions of the vehicle design support system 1. The computer 50 is equipped with a CPU, a graphic board, a main memory (main storage device), a storage (auxiliary storage device), input / output, and other devices, and a VR headset 10 and a controller 120 are connected through an appropriate interface. Has been done. The computer 50 constituting the vehicle design support system 1 includes an interior data recording unit 510, an environmental data recording unit 520, an image adjustment unit 530, and an image rendering unit 540.

内装データ記録部510は、内装画像302(図2)の元となる車両内装300の構造を決定するための構造データ512と、その車両内装300の少なくとも一部についての属性を選択または調節するための属性候補データ514とを含んでいる。環境データ記録部520には、背景画像402(図2)のための背景データ522が含まれている。背景データ522は背景画像402を生成しうる任意のデータであり、典型的には、半天球または全天球撮影された画像データである。コントローラー120は、オペレーター2から車両内装300の関心のある属性を選択したり調節したりするための操作入力を受け付ける。 The interior data recording unit 510 selects or adjusts the structural data 512 for determining the structure of the vehicle interior 300 which is the basis of the interior image 302 (FIG. 2) and the attributes of at least a part of the vehicle interior 300. Attribute candidate data 514 and. The environmental data recording unit 520 includes background data 522 for the background image 402 (FIG. 2). The background data 522 is arbitrary data that can generate the background image 402, and is typically image data taken in a hemisphere or a whole celestial sphere. The controller 120 receives an operation input from the operator 2 for selecting or adjusting an attribute of interest in the vehicle interior 300.

画像調節部530は、コントローラー120、信号処理部122を通じてオペレーター2から受け付けた操作入力に応じて属性候補データ514を選択または調節し、属性データ516を生成する。 The image adjustment unit 530 selects or adjusts the attribute candidate data 514 according to the operation input received from the operator 2 through the controller 120 and the signal processing unit 122, and generates the attribute data 516.

画像レンダリング部540は、構造データ512と属性データ516とから、車両内装300を表す内装画像302を生成する。また、画像レンダリング部540は、環境データ記録部520から背景データ522を呼び出すことにより、背景データ522による背景画像402を内装画像302に合成してディスプレイ102に表示するための提示画像542を生成することができる。属性候補データ514から画像調節部530が属性データ516を生成する処理や、画像レンダリング部540が対応する提示画像542を生成する処理は、極めて迅速に行うことができる。このためオペレーター2は自らの選択や調整の結果を現実感の高い表示で瞬時に切替えながら確認することができる。このような切り替えでの対比は、現実感の高い視覚表現を仮想空間で行いうる車両デザイン支援システム1の利点を生かしたものである。このように車両デザイン支援システム1を利用すれば本実施形態のデザイン作業の効率を大幅に高めることができる。 The image rendering unit 540 generates an interior image 302 representing the vehicle interior 300 from the structural data 512 and the attribute data 516. Further, the image rendering unit 540 calls the background data 522 from the environment data recording unit 520 to generate a presentation image 542 for synthesizing the background image 402 based on the background data 522 with the interior image 302 and displaying it on the display 102. be able to. The process of the image adjusting unit 530 generating the attribute data 516 from the attribute candidate data 514 and the process of generating the corresponding presented image 542 by the image rendering unit 540 can be performed extremely quickly. Therefore, the operator 2 can check the result of his / her selection and adjustment while instantly switching the display with a high sense of reality. The contrast in such switching takes advantage of the vehicle design support system 1 that can perform a highly realistic visual expression in a virtual space. By using the vehicle design support system 1 in this way, the efficiency of the design work of the present embodiment can be significantly improved.

この動作のために、車両デザイン支援システム1のためのソフトウエアは、コンピューター50が備えるハードウエア資源を活用して、内装データ記録部510、環境データ記録部520、画像調節部530、画像レンダリング部540としての機能を果たす。特に、画像レンダリング部540で提示画像542を生成させるためのデータフォーマット変換のための処理モジュールを予め準備しておけば、車両デザイン支援システム1の動作には特段の負担は生じない。そのような処理モジュールでは、例えば属性候補データ514を選択または調節するオペレーター2の作業を補助するためのインターフェースに対し、その結果得られる属性データ516と構造データ512とを組み合わせて関連付けすることにより、提示画像542のためのデータが生成される。 For this operation, the software for the vehicle design support system 1 utilizes the hardware resources of the computer 50 to include the interior data recording unit 510, the environmental data recording unit 520, the image adjustment unit 530, and the image rendering unit. It functions as 540. In particular, if the image rendering unit 540 prepares in advance a processing module for data format conversion for generating the presented image 542, no particular burden is generated on the operation of the vehicle design support system 1. In such a processing module, for example, by associating the resulting attribute data 516 and the structural data 512 in combination with an interface for assisting the operation of the operator 2 for selecting or adjusting the attribute candidate data 514. Data for the presentation image 542 is generated.

本実施形態の車両デザイン支援システム1は、複数のオペレーターにより同時に使用することを想定した車両デザイン支援システム1Mとしても実施することができる。図4は車両デザイン支援システム1Mの構成を示す説明図である。車両デザイン支援システム1Mは、各オペレーターに対応させてVRヘッドセット10、ディスプレイ102、コンピューター50がセットとなって備わっており、必要な人数分だけそのセットが接続されている。各セットはスタンドアローンでも動作可能である。他方、複数のオペレーターによる協働作業を支援する場合、車両デザイン支援システム1Mでは、例えば、上述した内装データ記録部510、環境データ記録部520を各コンピューター50と通信可能なデータサーバー50Sに保存しておいて、画像調節部530、画像レンダリング部540は各コンピューター50にて分散させる、といった実装を行うことができる。これにより、各オペレーターの頭部が別々の姿勢をとっているときにも適切な提示画像を各オペレーターに示しつつ、共通したモデルを対象としてデザイン検討を行うことができる。さらに、コントローラー120による操作入力は各オペレーターが各自で行ってもよく、また、いずれかのオペレーターによる操作入力に従った提示画像を他のオペレーターに提示することもできる。特に複数のオペレーターによる協働作業を行う場合には、あるオペレーターが他のオペレーターに説明を行うために注目すべき部分を特定して示したり、強調したり、といった作業を行う場合がある。そのような目的のためには、仮想空間内でのライティングにおいて、ポインターやフラッシュライト(懐中電灯)に対応する局所照明を、指示するオペレーターが操作できるようにすることも好ましい。例えば、オペレーター2が持つコントローラー120には、ポインターのように方向を検出する機能を持たせることができる。このように、車両デザイン支援システム1、1Mでは任意の位置を指し示す機能や、局所照明の操作機能を実装することが好ましい。図4には、他のデータである注視点位置記録部560、注視点位置のデータ562、被験者情報記録部590、生体情報データ592も記載している。これらについて後述する実施形態の内容も、複数のオペレーターにより同時に動作させる車両デザイン支援システム1Mを実施するために採用することができる。 The vehicle design support system 1 of the present embodiment can also be implemented as a vehicle design support system 1M that is assumed to be used by a plurality of operators at the same time. FIG. 4 is an explanatory diagram showing the configuration of the vehicle design support system 1M. The vehicle design support system 1M is provided with a VR headset 10, a display 102, and a computer 50 as a set corresponding to each operator, and the set is connected to the required number of people. Each set can also operate standalone. On the other hand, when supporting collaborative work by a plurality of operators, in the vehicle design support system 1M, for example, the above-mentioned interior data recording unit 510 and environmental data recording unit 520 are stored in a data server 50S capable of communicating with each computer 50. The image adjusting unit 530 and the image rendering unit 540 can be distributed by each computer 50. As a result, even when the heads of each operator are in different postures, it is possible to study the design for a common model while showing each operator an appropriate presentation image. Further, each operator may perform the operation input by the controller 120 by himself / herself, and the presentation image according to the operation input by any operator can be presented to another operator. In particular, when a plurality of operators collaborate with each other, one operator may identify and emphasize or emphasize a part of interest in order to explain to another operator. For such an purpose, it is also preferable to allow the instructing operator to operate the local lighting corresponding to the pointer or the flash light (flashlight) in the lighting in the virtual space. For example, the controller 120 of the operator 2 can be provided with a function of detecting a direction like a pointer. As described above, it is preferable to implement the function of pointing to an arbitrary position and the operation function of local lighting in the vehicle design support systems 1 and 1M. FIG. 4 also shows other data such as the gazing point position recording unit 560, the gazing point position data 562, the subject information recording unit 590, and the biological information data 592. The contents of the embodiments described later can also be adopted for implementing the vehicle design support system 1M which is operated by a plurality of operators at the same time.

本実施形態の車両デザイン支援システムは、本発明者が遠隔地ネットワーク機能と呼ぶ、地理的に離れた複数のオペータの協働作業を支援するために採用することができる。図5は、複数のオペレーターがネットワーク経由で協働作業する状況での本実施形態の車両デザイン支援システム1Nの一例の構成を示す説明図であり、図6A、6Bは、複数のオペレーターが協働作業している状況での、各オペレーターのVRヘッドセット10に提示される画面の表示例である。車両デザイン支援システム1Nは、パーソナルコンピュータ(PC)などのコンピューター機器のプログラムとして実装して機能させるために、各オペレーターは、自らのPCに実現するための実行プログラムを作動させる。従って、各PC50A〜50Cは、ネットワーク68を通じて車両デザイン支援システム1Nの一部となる。具体的には、オペレーターAは、自ら操作するPC50Aにおいて演算装置における実行プログラムであってよいサーバー実行部60を作動させる。同様に、オペレーターB、Cは、自ら操作するPC50B、50Cにおいて演算装置における実行プログラムであってよいクライアント実行部66を作動させる。各オペレーターのPC50A〜50Cは、例えばインターネット等の公開回線や、専用回線を通じて、互いに適切なプロトコル(例えばTCP−IP)により相互に通信可能である。 The vehicle design support system of the present embodiment can be adopted to support the collaborative work of a plurality of geographically separated operators, which the present inventor calls a remote network function. FIG. 5 is an explanatory diagram showing an example configuration of the vehicle design support system 1N of the present embodiment in a situation where a plurality of operators collaborate via a network, and FIGS. 6A and 6B show a plurality of operators collaborating. This is a display example of a screen presented on the VR headset 10 of each operator in a working situation. In order to implement and function the vehicle design support system 1N as a program of a computer device such as a personal computer (PC), each operator operates an execution program to be realized on his / her own PC. Therefore, each of the PCs 50A to 50C becomes a part of the vehicle design support system 1N through the network 68. Specifically, the operator A operates the server execution unit 60, which may be an execution program in the arithmetic unit, on the PC 50A operated by the operator A. Similarly, the operators B and C operate the client execution unit 66, which may be an execution program in the arithmetic unit, on the PCs 50B and 50C operated by themselves. The PCs 50A to 50C of each operator can communicate with each other by an appropriate protocol (for example, TCP-IP) with each other through a public line such as the Internet or a dedicated line.

クライアント実行部66は、オペレーターA〜Cが使用するPC50A〜50Cを、デザインレビューネットワークコミュニティによる特定のデザインレビューセッション(以下「セッション」と呼ぶ)におけるクライアント端末として動作させる。これに対し、サーバー実行部60は、オペレーターAが使用するPC50Aをセッションにおけるサーバー装置として動作させる。サーバー装置としての機能は、アカウント管理部602とセッション管理部604を実装することにより実現される。サーバー実行部60は、典型的にはサーバー実行プログラムの機能として実装され、アカウント管理部602、セッション管理部604はその機能として実装される。オペレーターAが管理者として車両デザイン支援システム1Nの機能を設定するためにサーバー実行部60を実行させる。 The client execution unit 66 operates the PCs 50A to 50C used by the operators A to C as client terminals in a specific design review session (hereinafter referred to as "session") by the design review network community. On the other hand, the server execution unit 60 operates the PC 50A used by the operator A as a server device in the session. The function as a server device is realized by implementing the account management unit 602 and the session management unit 604. The server execution unit 60 is typically implemented as a function of the server execution program, and the account management unit 602 and the session management unit 604 are implemented as the functions. Operator A executes the server execution unit 60 as an administrator to set the functions of the vehicle design support system 1N.

アカウント管理部602は、車両デザイン支援システム1Nの必要な資源にアクセスしうるユーザーのアカウントを管理する機能を実装している。アカウント管理部602は、例えば、車両デザイン支援システム1Nの当該資源は、典型的には車両デザイン支援システム1Nに用いられる機能とデータファイルとであり、アカウントを管理する機能は、これら資源についての使用権限やアクセス権の設定(パーミッション)を含みうる。パーミッションテーブル(図示しない)はユーザーのアカウントごとに各資源のパーミッションのレベルを記録したものであり、アカウント管理部602はそのパーミッションテーブルを参照して、例えばログインするオペレーターが車両デザイン支援システム1Nにアカウントをもつユーザーであるかを判定する。具体的には、クライアント端末として機能する自らのPC50B、Cを操作するオペレーターB、Cは自らのアカウントでパスワード認証等の手段によりログインし、さらに、予め設定された機能やファイルのパーミッションにより許容された範囲の資源にアクセスすることができる。ファイルは、例えばデータサーバー50Sに格納されている。アカウント管理部602は、パーミッションテーブルを参照して、このようなログイン管理や、機能およびデータファイルについてのパーミッション管理を実行する。例えば、オペレーターA〜Cには、固有のユーザーIDが与えられ、ユーザーIDごとに、機能およびデータファイルについてのパーミッションがパーミッションテーブルにて管理される。 The account management unit 602 implements a function of managing the accounts of users who can access the necessary resources of the vehicle design support system 1N. The account management unit 602, for example, said that the resources of the vehicle design support system 1N are functions and data files typically used for the vehicle design support system 1N, and the function of managing the account is the use of these resources. It may include the setting of authority and access right (permission). The permission table (not shown) records the permission level of each resource for each user's account, and the account management unit 602 refers to the permission table, for example, an operator who logs in accounts for the vehicle design support system 1N. Determine if the user has. Specifically, operators B and C who operate their own PCs 50B and C that function as client terminals log in with their own accounts by means such as password authentication, and are further allowed by preset functions and file permissions. You can access a wide range of resources. The file is stored in, for example, the data server 50S. The account management unit 602 refers to the permission table and executes such login management and permission management for functions and data files. For example, operators A to C are given unique user IDs, and permissions for functions and data files are managed in the permission table for each user ID.

セッション管理部604は、セッションにユーザーが参加するかどうかを制御する。セッションごとにどのユーザーが参加するかを記録しているリストであるセッションテーブル(図示しない)を参照することにより、セッション管理部604は、クライアント実行部66からの接続リクエストや、その後の通信において、正当な接続であるかを判定してセッションへの参加を制御する。こうしてオペレーターA〜Cはセッションにおける正当なユーザーであるときには、あらかじめメンバーが決定されたデザインレビューネットワークコミュニティによるセッションに参加できる。 The session management unit 604 controls whether or not a user participates in the session. By referring to the session table (not shown), which is a list of which users participate in each session, the session management unit 604 can make a connection request from the client execution unit 66 and subsequent communication. Determine if the connection is legitimate and control participation in the session. Thus, when operators A to C are legitimate users in a session, they can participate in a session by a pre-determined design review network community.

アカウント管理部602、セッション管理部604が実行するユーザーの識別は、典型的には、アカウントに対応させたユーザーIDにより行なわれ、セキュリティーのためにパスワードなど当業者に利用されるセキュリティー手段も併せて採用される。 The identification of the user executed by the account management unit 602 and the session management unit 604 is typically performed by the user ID corresponding to the account, and also includes security means used by those skilled in the art such as a password for security. Will be adopted.

コンピューター50A〜50C、データサーバー50Sには、オペレーターA〜Cが車両デザイン支援システム1Nの機能やファイルについての設定を管理する機能を実装することができる。この機能やファイルについての設定には、例えば、協働作業において他者から自己を区別するための色やアバターが含まれている。色やアバターは、必要に応じてユーザーIDと対応付けて適切な状況で表示に利用される。これにより、オペレーターA〜CはVRヘッドセット10を装着して、例えばユーザーIDにより他者の仮想空間における活動を視認可能となる。例えば、オペレーターA〜Cが装着する各自のVRヘッドセット10のディスプレイ102には、自己および他のオペレーターの持つポインターやフラッシュライトの表示やそれによる指示先を、色による区別に加え、誰がその表示を制御しているかを理解可能な状態で区別して視認することができる。図6AおよびBは、それぞれ、オペレーターAとオペレーターBのディスプレイ102に提示される画像例であり、オペレーターAが「Server」と、オペレーターBが「Client 01」とユーザーIDにより区別されている。両オペレーターは、グラフィクス表現されたコントローラーから発する異なる色のレーザーポインター表示により自らの指示先を照明している。このため、オペレーターAは、「Client 01」とのラベル付されたポインターがオペレーターBによるものと理解する。逆も同様である。オペレーターAが見る画面は図6Aであり、オペレーターBが見る画面が図6Bである。なお、図6AおよびBにおけるColor A, Color Bは、互いに区別しうる表示色であり、これを手掛かりに他者の指示先を容易に特定することもできる。アバターを採用する場合には、ポインター付近にオペレーターを特定できるグラフィクスマークによるアバター表示を添えて表示することが有用である。オペレーターAは、図6Aの他者のレーザーポインターに「Client 01」と付されていることをみて、自分以外の参加者がオペレーターBであることを認識しうる。オペレーターBも図6Bを見て同様に認識しうる。図6A、Bともに、2人のオペレーターが同時に運転席に着座した状態での画面であるが、仮想空間を利用したデザインレビューでは、現実には同時には実現し得ない視点設定も設定することができる。 The computers 50A to 50C and the data server 50S can be equipped with a function in which operators A to C manage the functions of the vehicle design support system 1N and the settings for files. Settings for this feature or file include, for example, colors and avatars to distinguish oneself from others in collaborative work. Colors and avatars are used for display in appropriate situations in association with user IDs as needed. As a result, the operators A to C can wear the VR headset 10 and can visually recognize the activity in the virtual space of another person by, for example, the user ID. For example, on the display 102 of each VR headset 10 worn by operators A to C, the display of pointers and flashlights possessed by the operator and other operators and the indication destinations by the display are added to the color distinction, and who displays the display. It is possible to distinguish and visually recognize whether or not the control is performed in an understandable state. 6A and 6B are image examples presented on the displays 102 of the operator A and the operator B, respectively, and the operator A is distinguished from "Server" and the operator B from "Client 01" by the user ID. Both operators illuminate their destinations with different colored laser pointer displays from the graphics-expressed controller. Therefore, the operator A understands that the pointer labeled "Client 01" is due to the operator B. The reverse is also true. The screen viewed by operator A is FIG. 6A, and the screen viewed by operator B is FIG. 6B. Note that Color A and Color B in FIGS. 6A and 6B are display colors that can be distinguished from each other, and it is possible to easily identify the instruction destination of another person by using this as a clue. When adopting an avatar, it is useful to display an avatar display with a graphics mark that can identify the operator near the pointer. Operator A can recognize that a participant other than himself is Operator B by seeing that "Client 01" is attached to the laser pointer of another person in FIG. 6A. Operator B can also recognize by looking at FIG. 6B. Both A and B are screens in which two operators are seated in the driver's seat at the same time, but in a design review using a virtual space, it is possible to set viewpoint settings that cannot be realized at the same time in reality. can.

デザインプロセスデータが高い秘匿性で管理されるべき点や、同種のシステムを別のグループが別のデザインレビューネットワークコミュニティのために利用しているものと区別する必要性から、オペレーターBの使用するコンピューター50Bのクライアント実行部66が、サーバー実行部60を実行しているPC50A(以下、「サーバー装置」)に対して接続リクエストを送信すると、サーバー実行部60はクライアント実行部66を通じて、ログインのための前提となる接続先を、オペレーターBに入力させることも有用である。例えば、サーバー装置を特定するための任意の情報(典型的には、IPアドレス)をプロンプトを通じて入力させて接続を確立することができる。別の例としては、接続リクエストに応じてデザインレビューネットワークコミュニティのための招待メールをサーバー実行部60が送信し、そのメール文中のリンクのオペレーターBによるクリック操作に応じてサーバー実行部60がコンピューター50Bのクライアント実行部66との接続を確立することができる。 Computers used by Operator B due to the need for highly confidential management of design process data and the need to distinguish similar systems from those used by different groups for different design review network communities. When the client execution unit 66 of the 50B sends a connection request to the PC 50A (hereinafter, "server device") executing the server execution unit 60, the server execution unit 60 is used for login through the client execution unit 66. It is also useful to have the operator B input the prerequisite connection destination. For example, any information (typically an IP address) for identifying a server device can be entered through a prompt to establish a connection. As another example, the server execution unit 60 sends an invitation mail for the design review network community in response to a connection request, and the server execution unit 60 responds to a click operation by the operator B of the link in the mail text to the computer 50B. The connection with the client execution unit 66 can be established.

サーバー実行部60およびクライアント実行部66では、任意の入力を受け付けることにより各種コマンドの実行が可能で、そのコマンドが反映された映像がリアルタイムにコミュニティのセッション参加者全てに反映される。このような機能により、図5に示した車両デザイン支援システム1Nを実施することにより、双方向機能がネットワークを通じて実現されるため、地理的に離れたデザイン拠点を複数結んでのデザインレビューを支援することができる。 The server execution unit 60 and the client execution unit 66 can execute various commands by accepting arbitrary inputs, and the video reflecting the commands is reflected in real time to all the session participants in the community. By implementing the vehicle design support system 1N shown in FIG. 5 with such a function, a bidirectional function is realized through a network, so that design review by connecting a plurality of geographically distant design bases is supported. be able to.

上記説明は、オペレーターA〜CのうちオペレーターAが車両デザイン支援システム1Nの管理者およびセッションのホストとして自らのPC50Aをサーバー端末として機能させている場合を前提としている。その際、オペレーターB、Cは車両デザイン支援システム1Nの正当なユーザーであり、かつセッション参加者であれば、自らのPC50B、50Cをクライアント端末として機能させデザインレビューネットワークコミュニティの当該セッションに参加することができる。車両デザイン支援システム1Nの管理者やセッションのホストは、自らがユーザーであることもできるし、そうでない場合もある。また、デザインレビューネットワークコミュニティにおいて、セッションを確立するために、オペレーターがネットワーク上のどのようなコンピューター装置をサーバー装置とするか、データサーバーを独立させるか、といったネットワーク構成を含むシステム構成は、種々の実装形態を採用可能である。 The above description is based on the premise that the operator A among the operators A to C is operating his / her own PC50A as a server terminal as an administrator of the vehicle design support system 1N and a host of the session. At that time, if the operators B and C are legitimate users of the vehicle design support system 1N and are session participants, they should make their PCs 50B and 50C function as client terminals and participate in the session of the design review network community. Can be done. The administrator of the vehicle design support system 1N and the host of the session may or may not be the user. In addition, in the design review network community, there are various system configurations including network configurations such as what kind of computer device on the network the operator uses as a server device and whether the data server is independent in order to establish a session. The mounting form can be adopted.

本実施形態の車両デザイン支援システム1、1M、1Nでは、さらにオペレーターが意識下でまたは無意識で視覚によって確認する目的物や特徴を視線の検出により調査することができる。車両のデザインでは、具体的な内装デザインが運転操作に及ぼす影響を調査したいというニーズがある。また、自動運転を部分的に採用しつつ手動運転にも切り替えを行うような運転方法において、自動運転と手動運転の間での切り替えが必要な車両をデザインする実施形態では、その切り替えのための表示を評価することによって、どのような切替え手法が好ましいかを調査したいというニーズがある。車両デザイン支援システム1、1Mをこれらの目的で動作させて、オペレーターの視線からその注視点を調査すれば、より効率的に車両の内装デザインを決定することができる。 In the vehicle design support systems 1, 1M, and 1N of the present embodiment, the target object and features that the operator visually confirms consciously or unconsciously can be further investigated by detecting the line of sight. In vehicle design, there is a need to investigate the effect of specific interior design on driving operations. Further, in an embodiment in which a vehicle that requires switching between automatic driving and manual driving is designed in a driving method in which automatic driving is partially adopted and switching is also performed to manual driving, the switching is performed. There is a need to investigate what kind of switching method is preferable by evaluating the display. If the vehicle design support systems 1 and 1M are operated for these purposes and the gaze point is investigated from the operator's line of sight, the interior design of the vehicle can be determined more efficiently.

図7は、注視点の検出および記録のために採用するアイトラッキング検出部110を備えるVRヘッドセット10Aの説明図であり、図8は、VRヘッドセット10Aを採用する車両デザイン支援システム1Aのブロックダイヤグラムである。VRヘッドセット10A、車両デザイン支援システム1Aについては、同じ符号で示した要素はVRヘッドセット10、車両デザイン支援システム1のための説明と同様である。VRヘッドセット10Aでは、オペレーター2の少なくともいずれかの眼球の視線を特定するためのアイトラッキング検出部110を備えている。アイトラッキング検出部110は、例えば赤外線カメラと赤外線光源の組み合わせによって実現され、オペレーター2の眼球による視線つまり注視している注視点と眼球とを結ぶ直線を、角膜反射法や明瞳孔法、暗瞳孔法といった手法により特定する。このようなアイトラッキング検出部110は、さらにまぶたの瞬きや開閉も検出することができる。まぶたの瞬きや開閉からは、ドライバーの覚醒状況や集中度など、意識に関する状態の判別が可能となりうる。アイトラッキング検出部110からの出力であるアイトラッキング信号112は、適当なインターフェースを経由してコンピューター50に受信され、注視点判定部550に入力される。注視点判定部550は、アイトラッキング信号112と、必要に応じて姿勢センサー(図8には図示しない)からの頭部の姿勢を示す信号とを利用して仮想空間におけるオペレーター2の視線を決定する。注視点判定部550では、その視線を利用して、構造データ512や、必要に応じて環境データ記録部からの背景データ(図8には図示しない)によって定まる視認される物体の3次元オブジェクト表面に対する注視点を決定する。この注視点は、例えば、いわゆるコリジョン判定のアルゴリズムなどによって決定することができる。 FIG. 7 is an explanatory view of a VR headset 10A including an eye tracking detection unit 110 adopted for detecting and recording a gazing point, and FIG. 8 is a block of a vehicle design support system 1A adopting the VR headset 10A. It is a diagram. Regarding the VR headset 10A and the vehicle design support system 1A, the elements indicated by the same reference numerals are the same as the description for the VR headset 10 and the vehicle design support system 1. The VR headset 10A includes an eye tracking detection unit 110 for identifying the line of sight of at least one of the eyes of the operator 2. The eye tracking detection unit 110 is realized by, for example, a combination of an infrared camera and an infrared light source, and the line of sight of the operator 2's eyeball, that is, a straight line connecting the gazing point of view and the eyeball, is formed by the corneal reflection method, the bright pupil method, or the dark pupil. Specify by a method such as law. Such an eye tracking detection unit 110 can further detect blinking and opening / closing of the eyelids. From the blinking and opening and closing of the eyelids, it may be possible to determine the state of consciousness such as the driver's arousal status and concentration. The eye tracking signal 112, which is an output from the eye tracking detection unit 110, is received by the computer 50 via an appropriate interface and input to the gazing point determination unit 550. The gazing point determination unit 550 determines the line of sight of the operator 2 in the virtual space by using the eye tracking signal 112 and, if necessary, a signal indicating the posture of the head from an attitude sensor (not shown in FIG. 8). do. The gazing point determination unit 550 uses the line of sight to determine the surface of the three-dimensional object to be visually recognized, which is determined by the structural data 512 and, if necessary, the background data (not shown in FIG. 8) from the environmental data recording unit. Determine the point of view for. This gaze point can be determined by, for example, a so-called collision determination algorithm.

物体とのコリジョンによる注視点判定法に加えて注視点判定部550での処理のために採用可能な他の注視点決定方法の一つが、左右視線方向が収束する交点を決定する視線交差法である。オペレーター2が注視する際には、両眼によって仮想空間内で3次元形状を持つ内装各部の表面やメーター表示といった車両内装や、車両外の背景を視認する。その際の両眼の視線はともに共通した注視点に向かう。これに応じ、視線交差法では、アイトラッキング検出部110が左右両眼の視線を別々に検出して両眼アイトラッキング信号を出力する。両眼の視線の収束位置を三角測量の原理により特定できれば、それが注視点についての手掛かりとなる。視線交差法がとりわけ役立つのは、コリジョン判定法のみで判定しにくい場合や、注視点が安定しない場合である。例えば、ドライバーズシートに着座している状態のオペレーター2の注視点をコリジョン判定のみで決定しようとすると、注視点がハンドル表面にあるのか、ハンドルを通したメーター上にあるのか判定がつきにくいという事態が生じる。検知された注視点が誤判定によるものか、オペレーター2の実際の注視点がそうなっていて正しく判定されているのかを事後的なデータからは特定しにくいため、注視点の判定を正確に安定して行うことは極めて有用である。視線交差法では実際のオペレーター2の両眼の視線の向きに基づいて注視点が決定されるため、より正確に注視点位置を決定することができる。なお、視線交差法を実装するためには、注視点判定部550に、両眼アイトラッキング信号(図示しない)から、両眼の視線の交差位置を決定させ、視線交差点位置データ(図示しない)として出力させることができる。この視線交差点位置データは、それ自体を注視点のデータとして用いることができる。さらに、注視点判定部550のためにコリジョン判定法と視線交差法を選択したり組み合わせたりできるプログラムを実装することも実用的である。 In addition to the gaze point determination method based on collision with an object, one of the other gaze point determination methods that can be adopted for processing in the gaze point determination unit 550 is the line-of-sight intersection method that determines the intersection where the left and right line-of-sight directions converge. be. When the operator 2 gazes, both eyes visually recognize the vehicle interior such as the surface of each interior part having a three-dimensional shape and the meter display in the virtual space, and the background outside the vehicle. At that time, the eyes of both eyes head toward a common gaze point. In response to this, in the line-of-sight crossing method, the eye tracking detection unit 110 separately detects the lines of sight of the left and right eyes and outputs a binocular eye tracking signal. If the convergence position of the line of sight of both eyes can be specified by the principle of triangulation, it will be a clue about the gazing point. The line-of-sight crossing method is particularly useful when it is difficult to make a judgment using only the collision judgment method or when the gazing point is not stable. For example, if the operator 2 sitting on the driver's seat is trying to determine the gazing point only by collision judgment, it is difficult to determine whether the gazing point is on the surface of the handle or on the meter through the handle. Things happen. Since it is difficult to identify from the ex post facto whether the detected gaze point is due to an erroneous judgment or whether the actual gaze point of operator 2 is so and is correctly judged, the gaze point judgment is accurately stabilized. It is extremely useful to do this. In the line-of-sight crossing method, the gazing point is determined based on the direction of the line of sight of both eyes of the actual operator 2, so that the gazing point position can be determined more accurately. In order to implement the line-of-sight crossing method, the gazing point determination unit 550 is made to determine the crossing position of the line of sight of both eyes from the binocular eye tracking signal (not shown), and is used as the line-of-sight crossing position data (not shown). It can be output. The line-of-sight intersection position data itself can be used as gaze point data. Further, it is also practical to implement a program capable of selecting or combining the collision determination method and the line-of-sight intersection method for the gaze point determination unit 550.

上述した注視点は、典型的には、仮想空間内での3次元座標をもつことによって、提示画像542における奥行き方向の情報をもつことができる。このような注視点位置のデータ562は、一例としては、適切なタイムスタンプと対応付けるなどした経時的データの形態で注視点位置記録部560に格納される。注視点位置のデータ562は、例えば仮想空間内での3次元座標により示される。 The above-mentioned gazing point can typically have information in the depth direction in the presented image 542 by having three-dimensional coordinates in the virtual space. As an example, the gazing point position data 562 is stored in the gazing point position recording unit 560 in the form of temporal data such as being associated with an appropriate time stamp. The gazing point position data 562 is indicated by, for example, three-dimensional coordinates in the virtual space.

注視点位置記録部560に格納された注視点位置のデータ562からはオペレーターが意識下でまたは無意識に視認した注視点の客観的な情報を引き出すことも有用である。画像レンダリング部540を利用すれば、その注視点をグラフィカルに提示する画像を、提示画像542に重ねて示すことができる。例えば、注視点位置記録部560の注視点位置のデータ562を呼び出して、ヒートマップ画像、ゲイズ・トレース画像、ゲイズ・クラスター画像を生成することができる。 It is also useful to extract objective information of the gazing point visually recognized by the operator consciously or unconsciously from the gazing point position data 562 stored in the gazing point position recording unit 560. If the image rendering unit 540 is used, an image that graphically presents the gazing point can be shown superimposed on the presented image 542. For example, the gaze point position data 562 of the gaze point position recording unit 560 can be called to generate a heat map image, a gaze trace image, and a gaze cluster image.

図9A〜Cは、例示のヒートマップ画像、ゲイズ・トレース画像、ゲイズ・クラスター画像である。ヒートマップ画像は、より長時間視線を受けていた注視点を重み付けして着色などにより表示する画像であり、視線が向けられていた時間に応じた高温部を持つ熱の分布であるかのような分布画像を提示画像542に重ねたものである。図9Aにおいては、主要な注視点として重み付けされるヒート表示部702、704、706、708は、それぞれ、センターコンソールの表示装置領域310上、メータークラスターパネルの表示装置領域310上、背景画像の左車線車両上、および背景画像の案内標識上に位置しており、画像上で識別可能となるよう着色等して提示画像542に重ねて表示される。現実のヒートマップ画像は、連続的に変化する重み付けを反映した画像とすることができる。ゲイズ・トレース画像は、注視点が時々刻々描く軌跡を順に追いかける線書きのトレース画像である。図9Bにおいては、1〜5の番号が振られた画像上の特徴ポイントに渡り、注視点が推移していることが線書きトレースにより示されている。線書きトレースは仮想空間内での3次元での各時間での注視点の位置をつないで作成される。線書きトレース上に描かれる多数の微小な円は、一定の時間刻みのタイミングにおける注視点の各位置にプロットされる。ゲイズ・クラスター画像は、メッシュなどでエリアに区分した個別の領域において、注視点が存在した蓄積時間順や、注視点が遷移した順序を表示で示す画像である。なお、ゲイズ・クラスター画像では、図9Cのように、エリアを3次元メッシュで区分することにより、立体的な車両内装の表面に対応した判定を行うことができて有利である。 9A-C are exemplary heatmap images, gaze trace images, and gaze cluster images. The heat map image is an image in which the gazing point that has been in the line of sight for a longer period of time is weighted and displayed by coloring or the like, and it is as if the heat distribution has a high temperature portion according to the time in which the line of sight was directed. The distribution image is superimposed on the presentation image 542. In FIG. 9A, the heat display units 702, 704, 706, and 708, which are weighted as the main gazing points, are on the display device area 310 of the center console, on the display device area 310 of the meter cluster panel, and on the left of the background image, respectively. It is located on the vehicle in the lane and on the guide sign of the background image, and is colored or the like so as to be identifiable on the image and displayed on the presented image 542. The actual heat map image can be an image that reflects continuously changing weighting. The gaze trace image is a line-drawn trace image that follows the trajectory that the gazing point draws from moment to moment. In FIG. 9B, a line drawing trace shows that the gazing point changes over the feature points on the image numbered 1 to 5. The line drawing trace is created by connecting the positions of the gazing points at each time in three dimensions in the virtual space. A large number of tiny circles drawn on the line drawing trace are plotted at each position of the gazing point at a fixed time step timing. The gaze cluster image is an image showing the order of accumulation time in which the gazing points existed and the order in which the gazing points transitioned in individual areas divided into areas by a mesh or the like. In the gaze cluster image, as shown in FIG. 9C, by dividing the area by a three-dimensional mesh, it is possible to make a determination corresponding to the three-dimensional surface of the vehicle interior, which is advantageous.

本実施形態において注視点の客観的な情報は、解析者の好みに応じた表示スタイルに従って注視点位置のデータ562と重ねて表示することができる。例えば、図9Bの特徴ポイント別に注視点が滞在した時間を円のサイズにより表示する、といったグラフィカルな視覚表現は特徴ポイントが搭乗者の視覚に与える影響を視覚的に表現できる点で有用である。 In the present embodiment, the objective information of the gazing point can be displayed superimposed on the gazing point position data 562 according to the display style according to the preference of the analyst. For example, a graphical visual representation such as displaying the time spent by the gazing point for each feature point in FIG. 9B by the size of a circle is useful in that the influence of the feature points on the passenger's vision can be visually expressed.

また、図8に示した注視点集計部580を利用して、車両内装の構造の特徴ポイント別または仮想空間を区切ったエリア別に注視点位置データが示す注視点の頻度または時間を集計することにより、関心位置についての統計を求めることも有用である。 Further, by using the gaze point totaling unit 580 shown in FIG. 8, the frequency or time of the gaze point indicated by the gaze point position data is totaled for each feature point of the structure of the vehicle interior or for each area divided by the virtual space. It is also useful to obtain statistics on the position of interest.

図10A、10Bは、それぞれ、図9Bの特徴ポイント別および図9Cのエリア別に、注視点が位置していた累積時間を集計したグラフである。このようなグラフは、車両デザイン支援システム1Mを利用する場合には、VRヘッドセット10またはオペレーターのいずれかごとに注視点位置記録部560の注視点位置のデータ562を格納することが有用である。 10A and 10B are graphs summarizing the cumulative time at which the gazing point was located for each feature point in FIG. 9B and for each area in FIG. 9C, respectively. When using the vehicle design support system 1M, it is useful for such a graph to store the gazing point position data 562 of the gazing point position recording unit 560 for each of the VR headset 10 and the operator. ..

図1、図3に示したように、車両デザイン支援システム1には、生体状態センサー140を追加することができる。生体状態センサー140からの信号は、オペレーター2の身体状態を反映しており、信号処理部142を通じてコンピューター50に伝達される。コンピューター50は、生体状態センサー140からの信号に対応する生体情報データ592を、例えば適切なタイムスタンプと対応付けるなどした経時的データの形態で被験者情報記録部590に格納する。この生体情報データ592は、脳波、心電図、筋電位などを含むことができる。これらの信号から、覚醒状態、睡眠状態、健康状態の取得が可能となって、安全性研究に役立てることができる。特に覚醒状態は、自動運転における手動運転への切り替え手法について、およびどのような車両デザインや通知、刺激が適するかについての知見を蓄積するためにも本実施形態の車両デザイン支援システム1を役立てることができる。これは、自動運転の際にもドライバーを対象に確認される可能性があるためである。覚醒状態はまた、誤発進抑制のための警告音などによって、特に高齢者による誤操作につながりうる意識状態を警告したり、誤操作につながりうる意識状態の検知確率を検証したりするためにも有効である。なお、生体状態センサー140は、例えばマイクロフォンなどの音声センサーなどの身体に装着しないものも採用することができる。また、そのような音声情報は、オペレーターの状態の確認のほか、オペレーターによる音声入力のために用いることもできる。 As shown in FIGS. 1 and 3, the biological condition sensor 140 can be added to the vehicle design support system 1. The signal from the biological condition sensor 140 reflects the physical condition of the operator 2, and is transmitted to the computer 50 through the signal processing unit 142. The computer 50 stores the biological information data 592 corresponding to the signal from the biological condition sensor 140 in the subject information recording unit 590 in the form of temporal data such as associating with an appropriate time stamp. The biological information data 592 can include an electroencephalogram, an electrocardiogram, a myoelectric potential, and the like. From these signals, it becomes possible to acquire the wakefulness state, the sleep state, and the health state, which can be useful for safety research. In particular, in the awake state, the vehicle design support system 1 of the present embodiment is useful for accumulating knowledge about the method of switching to manual driving in automatic driving and what kind of vehicle design, notification, and stimulus are suitable. Can be done. This is because there is a possibility that the driver will be confirmed even during automatic driving. The awake state is also effective for warning the conscious state that may lead to erroneous operation by the elderly, and for verifying the detection probability of the conscious state that may lead to erroneous operation, by a warning sound for suppressing erroneous start. be. As the biological state sensor 140, a sensor that is not worn on the body, such as a voice sensor such as a microphone, can also be adopted. Further, such voice information can be used not only for checking the state of the operator but also for voice input by the operator.

本実施形態の車両デザイン支援システム1には、仮想空間内でのオペレーターの視点移動を支援するためのツールを採用することも有用である。図11は、本実施形態の車両デザイン支援システム1において、視点移動をサポートするためにコントローラー120を利用したトランスポーテーション機能を作動させている表示例を示している。オペレーター2(図1)の頭部22の空間における位置や方向は、現実空間のものと仮想空間のものとが対応付けされている。しかし、車両デザイン支援システム1の利用中に何らかの理由により、その対応付を調整しなくてはならない場面が生じる。その典型例が、現実空間においてオペレーター2が位置も方向も動かさないまま、仮想空間での位置すなわち視点や方向すなわち視線方向を動かす場面である。視点移動の操作に手間取ると、仮想空間であるがゆえに、しばしば、オペレーター2は自らが見たいデザインモデルを見失ったり、デザイン評価で重要となる適切な立ち位置へ移動できなくなったりする。逆に、直観的な操作で視点移動できる機能が装備されていれば、視点移動が容易になるばかりか、オペレーター2は自らの意識を評価対象からそらす時間が短くなるため、車両デザイン支援システム1の実用性が大幅に向上する。視点移動を容易にするには、移動距離と視線方向の調節とを可能な限り少ない操作で直観的に調整できることがさらに好ましい。なお、視点移動が必要となる場面は、例えば、車両内での着座位置の変更、車両の乗降、車両外における観察位置の変更を含む。 It is also useful to adopt a tool for supporting the operator's viewpoint movement in the virtual space in the vehicle design support system 1 of the present embodiment. FIG. 11 shows a display example in which the transportation function using the controller 120 is operated in order to support the movement of the viewpoint in the vehicle design support system 1 of the present embodiment. The positions and directions of the head 22 of the operator 2 (FIG. 1) in the space are associated with those in the real space and those in the virtual space. However, while using the vehicle design support system 1, there may be a situation where the correspondence must be adjusted for some reason. A typical example is a scene in which the operator 2 moves a position, that is, a viewpoint or a direction, that is, a line-of-sight direction in a virtual space without moving a position or a direction in a real space. If it takes time to move the viewpoint, the operator 2 often loses sight of the design model he / she wants to see or cannot move to an appropriate standing position, which is important in design evaluation, because it is a virtual space. On the contrary, if the function that can move the viewpoint by intuitive operation is equipped, not only the viewpoint movement becomes easy, but also the time for the operator 2 to distract his / her own consciousness from the evaluation target is shortened. Therefore, the vehicle design support system 1 Practicality is greatly improved. In order to facilitate the movement of the viewpoint, it is more preferable that the movement distance and the adjustment of the line-of-sight direction can be intuitively adjusted with as few operations as possible. The scenes in which the viewpoint needs to be moved include, for example, changing the seating position inside the vehicle, getting on and off the vehicle, and changing the observation position outside the vehicle.

本実施形態の車両デザイン支援システム1においては、仮想空間内での視点移動を支援するために、コントローラー120を巧みに利用した移動ツールが提供される。コントローラー120の現実空間での姿勢は姿勢センサー移動子104、姿勢センサー固定子106と同様のセンサー(図示しない)により検知されている。メニュー選択などの任意の手法により適切なコマンドの指示を受け付けると、車両デザイン支援システム1の動作は視点移動モードに切り替わる。視点移動モードでのコントローラー120による操作では、仮想空間では、例えばコントローラーからの放物線アーチの曲線シンボル82(図11)などの適切な指標をグラフィック表示する。放物線アーチを用いる場合、コントローラー120では、その検知された姿勢を仮想空間内の方向に反映させれば、その放物線アーチの届く仮想空間における地面などの基準となる到着点84の調整を容易にすることができる。放物線アーチに与えるパラメータを設定することも有用である。このパラメータの一例は、ホースで散水する水の勢いに相当するような、放物線アーチの届く範囲を決定するものである。到着点84は、視点移動の移動先の目安となる。このような放物線アーチを用いれば、移動先とそこまでの距離とを直観的操作で操作することができる。その操作は、移動したい方向にその水平方向を合せ仰角をつけるようにコントローラーを向け、あたかもホースで散水するようその仰角を変更して距離を調整したり、必要に応じて上記パラメータを変更したりすることを含む。着地点84は、例えば視点移動の移動先(移動先位置)がその直上のある高さの位置になることをオペレーター2に理解させる目安である。ここでの高さは、例えばオペレーター2が立位を取る場合の視点の高さと同じ距離に設定されたり、オペレーター2が座位を取る場合の視点の高さと同じ距離に設定されたりする。立位か座位かは、移動先が車外かシート上かなどで判定することができる。また、オペレーター2が現実空間で立っているか座っているかに一致させてその高さを設定することもできる。車両デザイン支援システム1では、好ましくは、移動後にオペレーターが視認する仮想空間での前方方向もさらに設定することができる。例えば、放物線アーチの曲線シンボル82の着地点84に、方向表示シンボル86をグラフィック表示する。この方向表示シンボル86の示す方向は例えばコントローラー120のボタンやダイヤル操作(方向入力部)などにより変更することができる。曲線シンボル82による着地点84と方向表示シンボル86とを何らかの操作やボタン操作(方向決定部)などによりオペレーター2が決定すると、コントローラー120は決定指示を送信する。すると、その仮想空間において設定した位置に対応させて、立ったり着座したりした場合の頭部の位置に視点が定まり、決定した水平成分を視線の正面とする水平成分とするようにして、現実空間と仮想空間との対応関係が再設定される。これで視点移動が完了する。 In the vehicle design support system 1 of the present embodiment, a movement tool skillfully using the controller 120 is provided in order to support the movement of the viewpoint in the virtual space. The posture of the controller 120 in the real space is detected by the same sensors (not shown) as the posture sensor mover 104 and the posture sensor stator 106. When an appropriate command instruction is received by an arbitrary method such as menu selection, the operation of the vehicle design support system 1 is switched to the viewpoint movement mode. In the operation by the controller 120 in the viewpoint movement mode, an appropriate index such as the curve symbol 82 (FIG. 11) of the parabolic arch from the controller is graphically displayed in the virtual space. When the parabolic arch is used, the controller 120 facilitates the adjustment of the reference arrival point 84 such as the ground in the virtual space where the parabolic arch reaches by reflecting the detected posture in the direction in the virtual space. be able to. It is also useful to set the parameters given to the parabolic arch. An example of this parameter determines the reach of the parabolic arch, which corresponds to the momentum of the water sprinkled by the hose. The arrival point 84 serves as a guide for the destination of the viewpoint movement. By using such a parabolic arch, it is possible to intuitively operate the destination and the distance to the destination. The operation is to align the horizontal direction with the direction you want to move, point the controller so that it has an elevation angle, change the elevation angle as if sprinkling water with a hose, adjust the distance, and change the above parameters as necessary. Including to do. The landing point 84 is a guideline for the operator 2 to understand that, for example, the movement destination (movement destination position) of the viewpoint movement is a position at a certain height directly above the movement destination (movement destination position). The height here is set to, for example, the same distance as the height of the viewpoint when the operator 2 takes a standing position, or is set to the same distance as the height of the viewpoint when the operator 2 takes a sitting position. Whether it is standing or sitting can be determined by whether the destination is outside the vehicle or on the seat. Further, the height can be set according to whether the operator 2 is standing or sitting in the real space. In the vehicle design support system 1, preferably, the forward direction in the virtual space that the operator sees after moving can be further set. For example, the direction display symbol 86 is graphically displayed at the landing point 84 of the curve symbol 82 of the parabolic arch. The direction indicated by the direction display symbol 86 can be changed, for example, by a button or dial operation (direction input unit) of the controller 120. When the operator 2 determines the landing point 84 by the curve symbol 82 and the direction display symbol 86 by some operation or button operation (direction determination unit), the controller 120 transmits a determination instruction. Then, the viewpoint is determined by the position of the head when standing or sitting according to the position set in the virtual space, and the determined horizontal component is set as the horizontal component that is the front of the line of sight. The correspondence between the space and the virtual space is reset. This completes the viewpoint movement.

被験者情報記録部590に格納する生体情報データ592には、身体状態を取得する目的の生体情報センサー140以外の検出装置から取得したデータを含めることができる。そのようなデータの一つが、アイトラッキング検出部110により検知されるまぶたの瞬きや開閉のイベントデータである。これにより、目やまぶたから取得できる意識に関する状態の経時的変化を記録することができる。生体情報センサー140および生体情報センサー140以外の検出装置から得られたドライバーの意識の状態の経時変化データを利用すれば、例えば車両の内装デザインやメーター表示、車内照明の具体的デザインがドライバーの意識状態とどのような関わりを持つかの調査を、現実の試作プロセスを経ることなく行うことができる。 The biometric information data 592 stored in the subject information recording unit 590 can include data acquired from a detection device other than the biometric information sensor 140 for acquiring the physical condition. One such data is event data of blinking or opening / closing of the eyelid detected by the eye tracking detection unit 110. This makes it possible to record changes in the state of consciousness that can be obtained from the eyes and eyelids over time. By using the time-dependent change data of the driver's consciousness state obtained from the detection device other than the biological information sensor 140 and the biological information sensor 140, for example, the interior design of the vehicle, the meter display, and the concrete design of the interior lighting can be the driver's consciousness. It is possible to investigate how it relates to the state without going through the actual trial production process.

また、車両デザイン支援システム1には、仮想空間内に現実空間の外部映像を合成する機能を採用することが好ましい。デザイン評価の場面において、プレゼンターとしての人物が仮想空間内に表示されることにより、リアルタイムでプレゼンテーションを行なうことができ、オペレーターに対し、身振りや音声などでの解説などの付随情報を提供できる。プレゼンター等の人物がレビューに参加する場合、クロマキー合成のための着色スクリーンにて撮影した当該人物の現実空間での映像を、その着色スクリーンを特定する色信号成分を除去して取り込みリアルタイム表示する。その際、現実空間において撮影するカメラの位置や方向とカメラの撮影像中の特徴点の位置とを抽出するために、カメラにトラッカーをマウントすることが好ましい。図12は、カメラ90によりプレゼンター(人物)を撮影し、そのプレゼンターにトラッカー処理部94により特徴点98を設定している様子を示す説明図である。クロマキー処理のための着色スクリーン93を背景にしているプレゼンター92がカメラ90により撮影される。カメラ90で撮影された通常の映像データは、既存の伝送規格(HDMI(登録商標)やHD−SDI)により出力され、必要に応じてインターネットプロトコルもしくはUSB等の汎用通信規格または入出力バス規格に変換され、PC(図12には図示しない)に伝送される。その際に、トラッカー処理部94は、カメラ90の位置データと、撮影した映像中における特徴点98を示す位置データとを決定して同様に伝送する。このトラッカー処理部94は、独立した機器であっても、当該PCにおいて動作するプログラムにより機能する当該PCの演算処理による機能手段であっても良い。カメラ90の姿勢は必要に応じてトラッカーのカメラ姿勢センサー91を使い、相対位置が決定される。特徴点98は、プレゼンター92の特徴点を連続して抽出する映像上のポイントである。この特徴点98は、まず画像面をxy平面とするxy座標により特定され、その座標には、必要に応じ、z座標(奥行き方向)を含めることができる。例えばカメラ90のフォーカスまたはズームのエンコーディングデータと、カメラ姿勢センサー91や、カメラの雲台やズームレンズ(いずれも図示しない)のエンコーディングデータとを利用して、特徴点98の画像面のxyz座標を決定することができる。この場合、カメラ姿勢センサー91、雲台やズームレンズのエンコーダー(図示しない)もトラッカー処理部94とともにトラッカーの一部をなしている。注目点98の映像のxyz座標は、現実空間の空間座標に変換することができる。カメラ90の姿勢が上記二つのエンコーダーからのデータと、カメラ姿勢センサー91から割り出されるカメラの位置や向きのデータから、各特徴点98の位置データは、現実空間での座標を決定できる。 Further, it is preferable that the vehicle design support system 1 adopts a function of synthesizing an external image of a real space in a virtual space. By displaying a person as a presenter in the virtual space in the design evaluation scene, it is possible to give a presentation in real time and provide the operator with accompanying information such as gestures and explanations by voice. When a person such as a presenter participates in the review, the image of the person in the real space taken by the colored screen for chroma key composition is captured by removing the color signal component that identifies the colored screen and displayed in real time. At that time, it is preferable to mount a tracker on the camera in order to extract the position and direction of the camera to be photographed in the real space and the position of the feature point in the photographed image of the camera. FIG. 12 is an explanatory diagram showing a state in which a presenter (person) is photographed by a camera 90 and a feature point 98 is set in the presenter by a tracker processing unit 94. The presenter 92 against the background of the colored screen 93 for chroma key processing is photographed by the camera 90. Normal video data taken by the camera 90 is output according to existing transmission standards (HDMI (registered trademark) and HD-SDI), and if necessary, can be converted to general-purpose communication standards such as Internet protocol or USB, or input / output bus standards. It is converted and transmitted to a PC (not shown in FIG. 12). At that time, the tracker processing unit 94 determines the position data of the camera 90 and the position data indicating the feature point 98 in the captured image and transmits the position data in the same manner. The tracker processing unit 94 may be an independent device or a functional means by arithmetic processing of the PC that functions by a program running on the PC. The posture of the camera 90 is determined relative to each other by using the camera posture sensor 91 of the tracker as needed. The feature point 98 is a point on the image that continuously extracts the feature points of the presenter 92. The feature point 98 is first specified by xy coordinates with the image plane as the xy plane, and the z coordinates (depth direction) can be included in the coordinates, if necessary. For example, using the focus or zoom encoding data of the camera 90 and the encoding data of the camera attitude sensor 91, the camera platform and the zoom lens (neither shown), the xyz coordinates of the image plane of the feature point 98 can be obtained. Can be decided. In this case, the camera attitude sensor 91, the pan head, and the encoder of the zoom lens (not shown) also form a part of the tracker together with the tracker processing unit 94. The xyz coordinates of the image of the point of interest 98 can be converted into the spatial coordinates of the real space. The position data of each feature point 98 can determine the coordinates in the real space from the data of the posture of the camera 90 from the above two encoders and the data of the position and orientation of the camera calculated from the camera posture sensor 91.

映像データとトラッカーからのカメラの位置データおよび特徴点位置データとから、オペレーターのコンピューター50における画像レンダリング部540にてVRヘッドセット10に提供する画像が映像を合成して生成される。撮影されたカメラ90からの映像信号は、クロマキー処理により背景を含まないプレゼンター92のみのものである。この映像信号を仮想空間の画像に合成してリアルタイム表示素材とするには、現実空間での各特徴点98の位置データを、仮想空間の位置に換算する。この換算は、任意のコンピューター機器の位置換算手段97により実行される。そして、各特徴点98の仮想空間の位置データを利用して、映像合成される。この映像合成は任意のコンピューター機器の映像合成手段99により実行される。画像レンダリング部540が映像合成手段99として機能することもできる。トラッカー処理部94でカメラ90の位置および特徴点98を特定することにより、デザインレビューに合わせた位置にカメラ90を移動し、プレゼンター92が自らの立ち位置を移動しても適切に合成されるため、プレゼンター92によるデザインの付随情報の提供が高品質で行える。特にトラッカー処理部94でカメラ90の位置と特徴点98位置を特定ができる場合には、例えばレビューの題材となっている仮想空間内の物体(例えば自動車)の奥側に立つようにプレゼンター92のリアルタイム映像を合成して付随情報を提供することが可能となる。なお、カメラ90の位置および特徴点98位置を利用しないクロマキー合成では、仮想空間において例えば車両内装と背景のように奥行きのあるものであっても、表示できるのが一番手前に限られてしまうなどの制約を伴ってしまい、仮想空間における物体の前後を反映した表示は困難である。これに対し、トラッカー処理部94でカメラ90の位置と特徴点98位置を特定できる場合には、プレゼンター92の位置が移動などにより変化しても、仮想空間における物体の配置に対して手前にプレゼンター92を表示すべきか背景側にプレゼンター92を表示するべきかを計算により容易に決定できるため、自然な表示を実現することができる。プレゼンター92のクロマキー合成が自然となると、オペレーターのレビュー作業への意識の集中を妨げにくい。なお、本開示におけるトラッカーは、特徴点位置データを取得しうる任意の方式により実施することができ、上述したカメラ90との関係や使用するハードウエア機器の選択や、その機器やソフトウエアにおける特徴点位置データの取得のための具体的処理は、当業者が実施段階において変形することができる。 From the video data, the camera position data from the tracker, and the feature point position data, an image to be provided to the VR headset 10 by the image rendering unit 540 in the operator's computer 50 is generated by synthesizing the video. The captured video signal from the camera 90 is only for the presenter 92, which does not include a background due to chroma key processing. In order to synthesize this video signal with an image in the virtual space and use it as a real-time display material, the position data of each feature point 98 in the real space is converted into the position in the virtual space. This conversion is performed by the position conversion means 97 of any computer device. Then, the image is synthesized using the position data of the virtual space of each feature point 98. This video composition is executed by the video composition means 99 of any computer device. The image rendering unit 540 can also function as the video compositing means 99. By specifying the position of the camera 90 and the feature point 98 in the tracker processing unit 94, the camera 90 is moved to a position according to the design review, and even if the presenter 92 moves its own standing position, it is properly synthesized. , Presenter 92 can provide high quality accompanying information on the design. In particular, when the tracker processing unit 94 can specify the position of the camera 90 and the position of the feature point 98, for example, the presenter 92 stands behind an object (for example, an automobile) in the virtual space which is the subject of the review. It is possible to synthesize real-time video and provide accompanying information. In the chroma key composition that does not use the position of the camera 90 and the position of the feature point 98, even if there is a depth such as the interior of the vehicle and the background in the virtual space, the display is limited to the front. It is difficult to display the front and back of an object in the virtual space due to such restrictions. On the other hand, when the tracker processing unit 94 can specify the position of the camera 90 and the position of the feature point 98, even if the position of the presenter 92 changes due to movement or the like, the presenter is in front of the arrangement of the object in the virtual space. Since it can be easily determined by calculation whether the 92 should be displayed or the presenter 92 should be displayed on the background side, a natural display can be realized. When the chroma key composition of the presenter 92 becomes natural, it does not hinder the operator's concentration on the review work. The tracker in the present disclosure can be implemented by any method capable of acquiring feature point position data, and the relationship with the camera 90 described above, selection of the hardware device to be used, features in the device and software, and features in the device and software. The specific process for acquiring the point position data can be modified by a person skilled in the art at the implementation stage.

以上に示した車両デザイン支援システム1、1M、1N、1Aを用いることにより、車両の内装のデザイン作業は大幅に効率化される。例えば、デザイナーやデザインの評価者が車両デザイン支援システム1、1M、1N、1Aのオペレーターとなることにより、試作を必ずしも伴わずに高い精度で車両の内装の仕上がりを予測したり評価したりすることができる。また、車両を運転するだけの立場の搭乗者が車両デザイン支援システム1、1M、1N、1Aのオペレーターとなることにより、車両の内装や、車両における任意のインターフェースが搭乗者に与える影響を高い精度で予測することができる。 By using the vehicle design support systems 1, 1M, 1N, and 1A shown above, the design work of the interior of the vehicle is greatly streamlined. For example, by having a designer or design evaluator act as an operator of vehicle design support systems 1, 1M, 1N, and 1A, it is possible to predict and evaluate the finish of the interior of a vehicle with high accuracy without necessarily involving trial production. Can be done. In addition, since the passenger who only drives the vehicle becomes the operator of the vehicle design support systems 1, 1M, 1N, and 1A, the influence of the interior of the vehicle and any interface on the vehicle on the passenger is highly accurate. Can be predicted with.

次に、上述した車両デザイン支援システム1、1M、1N、1Aを実装するため例示のハードウエア構成およびソフトを説明する。VRヘッドセット10、コントローラー120の例は、例えばVIVE Pro HMD(HTC社)とすることができる。アイトラッキング検出部110のあるVRヘッドセット10Aの例は、VIVE Pro EYE(同社)とすることができる。コンピューター50は、任意のコンピューター機器とすることができ、例えばWINDOWS(登録商標、マイクロソフト社)を搭載するPCで、3次元レンダリング特性を持つグラフィックカードを装備するようなものが適する。生体状態センサー140は、例えばbiosignals plux(PLUX − Wireless Biosignals S.A.社)のものを採用することができる。生体状態センサー140により取得できる情報は多岐にわたるが、例えば脳波、心電図、筋電位などを測定することにより、覚醒状態、睡眠状態、健康状態を判定することができる。構造データ512、属性データ516は、各種CADデータ、バーチャルプロトタイピング用データを採用することができる。VRED(AUTODESK社)など3Dビジュアライゼーションソフト用データは典型的なものである。特に属性データ516は測定等で決定したテクスチャデータとすることも有用である。なお、VREDは、VIVE Pro EYEと組み合わせてオペレーターの両手像をディスプレイ102に合成することができ、オペレーターの仮想空間での体験に現実的な感覚を付与することができる。また、オペレーターの両手像を利用して、ジェスチャーによる入力を行うこともできる。画像レンダリング部540は、コンピューター50が備えるグラフィックカードをポリゴン処理やレンダリング処理に用いる種々のツールにより実現されるが、典型的には、UNREAL ENGINE(Epic Games社)などのゲームエンジンが適している。背景データ522は、半天球または全天球の画像とすることができ、その場合、例えばINSTA360 Pro(INSTA360社)のようなカメラを利用して静止画または動画を撮影して準備することができる。これ以外にも、各種デジタルカメラを雲台(GIGA PAN社EPIC Proなど)に搭載してより高精細な静止画を撮影することも有用である。 Next, an exemplary hardware configuration and software for implementing the vehicle design support systems 1, 1M, 1N, and 1A described above will be described. An example of the VR headset 10 and the controller 120 can be, for example, VIVE Pro HMD (HTC). An example of a VR headset 10A with an eye tracking detector 110 can be VIVE Pro EYE (the company). The computer 50 can be any computer device, and for example, a PC equipped with WINDOWS (registered trademark, Microsoft Corporation) and equipped with a graphic card having three-dimensional rendering characteristics is suitable. As the biological condition sensor 140, for example, one of biosignals plus (PLUX-Wireless Biosignals SA) can be adopted. The information that can be acquired by the biological condition sensor 140 is diverse, and for example, the wakefulness state, the sleep state, and the health state can be determined by measuring brain waves, an electrocardiogram, a myoelectric potential, and the like. As the structure data 512 and the attribute data 516, various CAD data and virtual prototyping data can be adopted. Data for 3D visualization software such as VRED (AUTODESK) is typical. In particular, it is also useful that the attribute data 516 is texture data determined by measurement or the like. In addition, VRED can synthesize the operator's two-handed image on the display 102 in combination with VIVE Pro EYE, and can give the operator a realistic feeling to the experience in the virtual space. It is also possible to input by gesture using the two-handed image of the operator. The image rendering unit 540 is realized by various tools that use the graphic card included in the computer 50 for polygon processing and rendering processing, and a game engine such as UNREAL ENGINE (Epic Games) is typically suitable. The background data 522 can be an image of a hemisphere or a spherical image, and in that case, a still image or a moving image can be taken and prepared by using a camera such as INSTA360 Pro (INSTA360). .. In addition to this, it is also useful to mount various digital cameras on a pan head (such as EPIC Pro of GIGA PAN) to shoot higher-definition still images.

本実施形態の車両デザイン支援システム1、1M、1N、1Aにより評価しうる特性は、属性データ516を構造データ512に組み合わせて再現され視覚を通じてオペレーターを刺激しうる任意の属性である。指定される表面の色、質感、表面反射特性を持つように再現される。なお、構造も選択または調節されうる属性の一部となりうる。 The characteristics that can be evaluated by the vehicle design support systems 1, 1M, 1N, and 1A of the present embodiment are arbitrary attributes that can be reproduced by combining the attribute data 516 with the structural data 512 and can stimulate the operator visually. Reproduced to have the specified surface color, texture, and surface reflection characteristics. Note that the structure can also be part of the attributes that can be selected or adjusted.

構造データは、典型的には、ポリゴンやワイヤフレームなどの形状を特定しうる任意のデータである。ポリゴンであれば法線(ノーマル)の反転調整などにより適切な表面構造を再現しうるように予め調整されていることが有用である。 The structural data is typically arbitrary data that can identify the shape of a polygon, wire frame, or the like. If it is a polygon, it is useful that it is adjusted in advance so that an appropriate surface structure can be reproduced by inversion adjustment of the normal (normal).

属性データのための表面の色は、反射物体であれば物体色、発光体であれば光源色を特定する任意の属性を調節することができる。表面の質感は、テクスチャマッピングや法線マッピングを利用して調節することができる。表面データは、典型的にはテクスチャやマテリアルと呼ばれるCG分野で用いられるものである。予めUV展開により構造データとの位置が精密に調整された表面データであっても、デザイナーの意図に合わせるためには、さらに調整の余地が残る。テクスチャは、質感に加え、模様、凹凸などを表現する画像やデータを指している。マテリアルは、物体の材質を変更した質感を特定するために用いられる。テクスチャのために調節されるパラメータは、例えば、固有の色を設定するために用いるDiffuse、平滑な表明に凹凸をあたえるために用いるNormal、間接照明をどの程度受けるかを示すためのAmbient Occlusion、光沢を表現するSpecular、細かな表面の平滑性を表すRoughnessを採用することができる。これらを組み合わせることにより、いわゆるシボ加工の表面のような質感を精密に調節してデザイナーが内装を推測することができる。 The surface color for the attribute data can be adjusted to any attribute that specifies the object color for a reflective object and the light source color for a light emitter. The texture of the surface can be adjusted using texture mapping and normal mapping. Surface data is typically used in the field of CG called textures and materials. Even if the surface data is precisely adjusted in position with the structural data by UV development in advance, there is still room for further adjustment in order to match the designer's intention. A texture refers to an image or data that expresses a pattern, unevenness, etc. in addition to the texture. The material is used to identify the texture of the changed material of the object. The parameters adjusted for the texture are, for example, Diffuse used to set a unique color, Normal used to give unevenness to a smooth expression, Ambient Occlusion to indicate how much indirect lighting is received, and gloss. Special, which expresses the smoothness of the surface, and Rohness, which expresses the smoothness of the fine surface, can be adopted. By combining these, the designer can infer the interior by precisely adjusting the texture such as the so-called textured surface.

本実施形態では、例えばメーター表示のデザインや、表示装置のグラフィック情報となる画像や映像、表示サイン(グラフィック表示のみでメーター表示を行う場合も含む)などの表示装置領域310(図2)のための属性も、属性データ516として扱われる。速度などの情報をドライバーに示すメーターや、ナビゲーション装置では表示装置にグラフィック情報を表示してドライバーなどに必要な情報が提示される。そのグラフィック表示も、視認性やデザインが評価対象となるために、属性データとして扱われて選択や調節の対象とされる。 In the present embodiment, for example, because of the display device area 310 (FIG. 2) such as the design of the meter display, the image or video that becomes the graphic information of the display device, and the display sign (including the case where the meter display is performed only by the graphic display). The attribute of is also treated as attribute data 516. Meters that show information such as speed to the driver, and navigation devices display graphic information on the display device to present necessary information to the driver and the like. The graphic display is also treated as attribute data and is subject to selection and adjustment because its visibility and design are subject to evaluation.

車両内装の精密なデザインのためには、仮想空間において内装の視覚表現を可能な限り正確に再現することが重要である。このためライティングも注意が必要である。現実の空間では、光源ばかりではなく反射性を示す物体も反射光を放っているためライティングに影響をあたえる。特に背景400や、車両内装300が、ハイダイナミックレンジイメージ(HDRI)で画像情報を持つ場合には、イメージベーストライティング(IBL)の手法によって、光源部分と反射により間接的に照明作用を持つ各部を統一的に扱えるため、ライティングの再現性を高めることがきる。さらに、外光が直射日光などの高い光度の照明である場合も本実施形態では提示画像にその効果を反映することができる。例えば日光についてはディレクショナルライティングなどの手法により特定方位からの強い光の照射を再現することができる。上述したポインター機能やフラッシュライト機能のために、そのような強い光の照射方向は、オペレーター2がコントローラー120を通じて操作可能にすることも有用である。 For the precise design of the vehicle interior, it is important to reproduce the visual representation of the interior as accurately as possible in the virtual space. Therefore, it is necessary to pay attention to the lighting. In the real space, not only the light source but also the reflective object emits the reflected light, which affects the lighting. In particular, when the background 400 or the vehicle interior 300 has image information in a high dynamic range image (HDR), the light source portion and each portion indirectly illuminating by reflection are used by the image-based triting (IBL) method. Since it can be handled in a unified manner, it is possible to improve the reproducibility of lighting. Further, even when the outside light is illumination having a high luminous intensity such as direct sunlight, the effect can be reflected in the presented image in the present embodiment. For example, for sunlight, strong light irradiation from a specific direction can be reproduced by a method such as directional lighting. Due to the pointer function and flash light function described above, it is also useful to allow the operator 2 to operate such a strong light irradiation direction through the controller 120.

写り込みは、車両内装の再現の点では三つの意味で重要である。第1は、車両特有の問題として、窓やメーターの表面に写り込む光源が視覚的ノイズとなる点の検証のために重要となる。内装の一部に照明を持つ場合や、夜間に強い照明光が外部から入射する場合に、ドライバーにとって過剰な視覚的ノイズが生じることは、内装のデザインで抑制したり回避したりするべきだからである。例えばウインドウスクリーンなどの窓部分はガラスの表面反射による鏡面性の表面反射特性を示すため、窓部分も内装の一部として表面反射を反映して現実的なライティングでの評価が好ましい。特に、車内で光源となる照明光源や発光する表示装置を用いる場合には、その光による写り込みは注意深く検討されなくてはならない。そのような場合、照明光源や表示装置の表示それ自体を決定する数値も属性データ516となって、選択されたり調節されたりする対象となる。第2の理由は、乗車時のウェルカムライトや、夜間の足元での誤操作抑制のためのライティングなど、演出的なライティングが近年多用されており、安全性をこれまで以上に考慮した照明デザインの必要性が高まっているからである。デザインされる照明光源は、室内灯や自発光メーターを含み、それらの光源はドライバーの視覚に及ぼす影響が調査される。これらの光源を特定する属性には、光の強さ、色の他、ポイントライトかスポットライトかなどの配光特性を含んでいる。写り込みが重要となる第3の理由は、内装それ自体の実物感が光沢など映り込みの影響を受けるためである。例えば搭乗者の視界に入る内装の一部(例えばメータークラスターの外周)に光沢を持つ物体がある場合には、その物体の実物感は写り込みが再現されることで内装の実物感についての正確な印象をあたえることができる。このため、その光沢を決定する数値が属性データ516となって、選択されたり調節されたりする。 The reflection is important in three ways in terms of reproducing the interior of the vehicle. The first is important for verifying that the light source reflected on the surface of the window or meter becomes visual noise as a problem peculiar to the vehicle. Excessive visual noise for the driver when part of the interior is illuminated or when strong illumination light is incident from the outside at night should be suppressed or avoided in the interior design. be. For example, since a window portion such as a window screen exhibits a mirror-like surface reflection characteristic due to the surface reflection of glass, it is preferable to evaluate the window portion with realistic lighting by reflecting the surface reflection as a part of the interior. In particular, when using an illumination light source as a light source or a display device that emits light in a vehicle, the reflection by the light must be carefully examined. In such a case, the numerical value that determines the display itself of the illumination light source or the display device also becomes the attribute data 516, and is an object to be selected or adjusted. The second reason is that directing lighting such as welcome light when riding and lighting to prevent erroneous operation at the feet at night has been widely used in recent years, and it is necessary to design the lighting with more consideration for safety than ever before. This is because the sex is increasing. Illumination sources designed include interior lights and self-luminous meters, and their effects on the driver's vision will be investigated. The attributes that identify these light sources include light intensity, color, and light distribution characteristics such as point light or spot light. The third reason why the reflection is important is that the actual feeling of the interior itself is affected by the reflection such as gloss. For example, if there is a glossy object in a part of the interior that is in the passenger's view (for example, the outer circumference of the meter cluster), the actual feeling of the object is accurate by reproducing the reflection. Can give a good impression. Therefore, the numerical value that determines the gloss becomes the attribute data 516 and is selected or adjusted.

画像レンダリング部は、その機能の一部がグラフィックカードなどを利用することにより、レイトレーシングや、レイキャスティングによる画像レンダリングを実行することができる。背景画像402は、天球を模した半球の内面に現実の全周囲画像から半天球の領域を切り出してマッピングするのみでは、ひずみを感じる場合がある。特にビルなどが背景に含まれている場合には、目線付近の高さの遠景にあるビルが弓なりにゆがんで見える場合がある。このような場合には、水平線からある程度の高さまでは、むしろ円筒に対してマッピングし、UV展開の調整を施すことが有用である。 The image rendering unit can execute image rendering by late lacing or ray casting by using a graphic card or the like as a part of its function. In the background image 402, distortion may be felt only by cutting out a region of the hemisphere from the actual omnidirectional image and mapping it on the inner surface of the hemisphere imitating the celestial sphere. In particular, when a building or the like is included in the background, a building in a distant view at a height near the line of sight may appear distorted in a bow shape. In such a case, it is useful to map to the cylinder and adjust the UV development at a certain height from the horizon.

以上、本開示の実施形態を具体的に説明した。上述の実施形態、変形例および実施例は、本出願において開示される発明を説明するために記載されたものであり、本出願の発明の範囲は、特許請求の範囲の記載に基づき定められるべきものである。実施形態の他の組み合わせを含む本開示の範囲内に存在する変形例もまた、特許請求の範囲に含まれるものである。 The embodiments of the present disclosure have been specifically described above. The above-described embodiments, modifications and examples are described for explaining the invention disclosed in the present application, and the scope of the invention of the present application should be determined based on the description of the scope of the patent claim. It is a thing. Modifications that exist within the scope of the present disclosure, including other combinations of embodiments, are also within the scope of the claims.

1、1M、1N、1A 車両デザイン支援システム
10、10A VRヘッドセット
102 ディスプレイ
104 姿勢センサー移動子
106 姿勢センサー固定子
110 アイトラッキング検出部
112 アイトラッキング信号
120 コントローラー(操作入力部)
122 信号処理部
140 生体状態センサー(生体状態検知装置)
142 信号処理部
2 オペレーター
22 頭部
300 車両内装
302 内装画像
310 表示装置領域
400 背景
402 背景画像
50、50A、50B、50C コンピューター
50S データサーバー
510 内装データ記録部
512 構造データ
514 属性候補データ
516 属性データ
520 環境データ記録部
522 背景データ
530 画像調節部
540 画像レンダリング部
542 提示画像
550 注視点判定部
560 注視点位置記録部
562 注視点位置のデータ
580 注視点集計部
590 被験者情報記録部
592 生体情報データ
60 サーバー実行部
602 アカウント管理部
604 セッション管理部
66 クライアント実行部
68 ネットワーク
702、704、706、708 ヒート表示部
82 曲線シンボル
84 着地点
86 方向表示シンボル
90 カメラ
91 カメラ姿勢センサー
92 プレゼンター
94 トラッカー処理部
96 ディスプレイ
97 位置換算手段
98 注目点
99 映像合成手段
1, 1M, 1N, 1A Vehicle design support system 10, 10A VR headset 102 Display 104 Attitude sensor mover 106 Attitude sensor stator 110 Eye tracking detector 112 Eye tracking signal 120 Controller (operation input unit)
122 Signal processing unit 140 Biological condition sensor (biological condition detection device)
142 Signal processing unit 2 Operator 22 Head 300 Vehicle interior 302 Interior image 310 Display device area 400 Background 402 Background image 50, 50A, 50B, 50C Computer 50S Data server 510 Interior data recording unit 512 Structural data 514 Attribute candidate data 516 Attribute data 520 Environmental data recording unit 522 Background data 530 Image adjustment unit 540 Image rendering unit 542 Presented image 550 Gaze point judgment unit 560 Gaze point position recording unit 562 Gaze point position data 580 Gaze point aggregation unit 590 Subject information recording unit 592 Biological information data 60 Server Execution Department 602 Account Management Department 604 Session Management Department 66 Client Execution Department 68 Network 702, 704, 706, 708 Heat Display Unit 82 Curve Symbol 84 Landing Point 86 Direction Display Symbol 90 Camera 91 Camera Attitude Sensor 92 Presenter 94 Tracker Processing Department 96 Display 97 Position conversion means 98 Attention point 99 Video composition means

Claims (21)

仮想空間において車両内装の構造を決定するための構造データと前記車両内装の少なくとも一部についての属性を選択または調節するための属性候補データとを格納する内装データ記録部と、
前記オペレーターが頭部に装着する少なくとも一つの仮想現実(VR)ヘッドセットであって、オペレーターの頭部の姿勢を検出しうる姿勢センサーと提示画像を表示しうるディスプレイとを備えるVRヘッドセットと、
前記車両内装の前記少なくとも一部についての前記属性の選択または調節のための操作入力を前記オペレーターから受け付ける少なくとも一つの操作入力部と、
前記操作入力部が受け付けた前記操作入力の指示内容に応じて前記車両内装の少なくとも一部についての属性のための前記属性候補データを選択または調節して属性データを生成する画像調節部と、
前記内装データ記録部から呼び出した前記構造データと前記画像調節部からの前記属性データとから、前記操作入力の前記指示内容に対応し前記オペレーターの頭部の前記仮想空間における方向に対応した内装画像を生成し、前記提示画像のための画像信号として出力する画像レンダリング部と
を備える車両デザイン支援システム。
An interior data recording unit that stores structural data for determining the structure of the vehicle interior in the virtual space and attribute candidate data for selecting or adjusting attributes for at least a part of the vehicle interior.
A VR headset that is at least one virtual reality (VR) headset worn by the operator on the head and includes a posture sensor capable of detecting the posture of the operator's head and a display capable of displaying a presented image.
At least one operation input unit that receives an operation input for selecting or adjusting the attribute for at least a part of the vehicle interior from the operator.
An image adjustment unit that generates attribute data by selecting or adjusting the attribute candidate data for attributes of at least a part of the vehicle interior according to the instruction content of the operation input received by the operation input unit.
From the structural data called from the interior data recording unit and the attribute data from the image adjustment unit, an interior image corresponding to the instruction content of the operation input and the direction of the operator's head in the virtual space. A vehicle design support system including an image rendering unit that generates an image and outputs the image as an image signal for the presented image.
前記仮想空間において車両が配置される周囲環境の背景のための背景データを格納する環境データ記録部
をさらに備え、
前記画像レンダリング部が、前記環境データ記録部から前記背景データを呼び出して仮想空間内にて前記車両内装の窓部分に対応する方向に、当該方向の背景画像を合成した前記内装画像を生成するものである
請求項1に記載の車両デザイン支援システム。
Further provided with an environment data recording unit for storing background data for the background of the surrounding environment in which the vehicle is arranged in the virtual space.
The image rendering unit calls the background data from the environment data recording unit and generates the interior image by synthesizing the background image in the direction corresponding to the window portion of the vehicle interior in the virtual space. The vehicle design support system according to claim 1.
複数のオペレーターの各々に一つずつ装着される複数の前記VRヘッドセットと、
前記複数のオペレーターの各々のための複数の画像レンダリング部と
備えており、各画像レンダリング部は、各オペレーターの頭部の前記仮想空間における方向に対応した内装画像を生成するものであり、
各オペレーターが装着している前記VRヘッドセットの前記ディスプレイには、各オペレーターのための内装画像が提示画像として表示される
請求項1または請求項2に記載の車両デザイン支援システム。
A plurality of the VR headsets, one for each of the plurality of operators,
It is provided with a plurality of image rendering units for each of the plurality of operators, and each image rendering unit generates an interior image corresponding to the direction of the head of each operator in the virtual space.
The vehicle design support system according to claim 1 or 2, wherein an interior image for each operator is displayed as a presentation image on the display of the VR headset worn by each operator.
仮想空間において車両内装の構造を決定するための構造データと前記車両内装の少なくとも一部についての属性を決定するための属性データとを格納する内装データ記録部と、
前記オペレーターが頭部に装着する少なくとも一つの仮想現実(VR)ヘッドセットであって、オペレーターの頭部の姿勢を検出しうる姿勢センサーと提示画像を表示しうるディスプレイと前記オペレーターの少なくとも1つの眼球による視線を特定しうるアイトラッキング信号を出力するアイトラッキング検出部とを備えるVRヘッドセットと、
前記構造データと前記アイトラッキング信号とから、前記視線が前記構造と交わる前記仮想空間での位置を注視点として決定し注視点位置データとして出力する注視点判定部と、
前記注視点位置データを格納する注視点位置記録部と、
前記内装データ記録部から呼び出した前記構造データと前記属性データとから、前記オペレーターの頭部の前記仮想空間における方向に対応した内装画像を生成し、当該内装画像の画像信号を生成する画像レンダリング部と
を備える車両デザイン支援システム。
An interior data recording unit that stores structural data for determining the structure of the vehicle interior in the virtual space and attribute data for determining the attributes of at least a part of the vehicle interior.
At least one virtual reality (VR) headset worn by the operator on the head, a posture sensor capable of detecting the posture of the operator's head, a display capable of displaying a presented image, and at least one eyeball of the operator. A VR headset equipped with an eye tracking detector that outputs an eye tracking signal that can identify the line of sight by
From the structure data and the eye tracking signal, a gaze point determination unit that determines a position in the virtual space where the line of sight intersects the structure as a gaze point and outputs it as gaze point position data.
A gazing point position recording unit that stores the gazing point position data and
An image rendering unit that generates an interior image corresponding to the direction of the operator's head in the virtual space from the structural data and the attribute data called from the interior data recording unit, and generates an image signal of the interior image. Vehicle design support system with and.
前記アイトラッキング検出部が、前記オペレーターの両眼の視線を別々に特定しうる両眼アイトラッキング信号を出力するものであり、
前記注視点判定部が、前記両眼アイトラッキング信号から、両眼の前記視線の交差位置を決定し視線交差点位置データとして出力するものである、
請求項4に記載の車両デザイン支援システム。
The eye tracking detection unit outputs a binocular eye tracking signal that can separately identify the line of sight of both eyes of the operator.
The gazing point determination unit determines the intersection position of the line of sight of both eyes from the binocular eye tracking signal and outputs it as line-of-sight intersection position data.
The vehicle design support system according to claim 4.
前記画像レンダリング部が、前記注視点位置記録部から呼び出した前記注視点位置データから、ヒートマップ画像、ゲイズ・トレース画像、ゲイズ・クラスター画像からなる可視化画像群より選ばれる少なくともいずれかを生成し、前記内装画像に重ねて表示する画像信号を生成するものである
請求項4または請求項5に記載の車両デザイン支援システム。
The image rendering unit generates at least one selected from a visualization image group consisting of a heat map image, a gaze trace image, and a gaze cluster image from the gaze point position data called from the gaze point position recording unit. The vehicle design support system according to claim 4 or 5, which generates an image signal to be displayed overlaid on the interior image.
前記注視点位置記録部から前記注視点位置データを呼び出して、車両内装の構造の特徴ポイント別または前記仮想空間を区切ったエリア別に前記注視点位置データが示す注視点の頻度または時間を集計する注視点集計部
をさらに備える
請求項4〜請求項6のいずれか1項に記載の車両デザイン支援システム。
The gaze point position data is called from the gaze point position recording unit, and the frequency or time of the gaze point indicated by the gaze point position data is totaled for each feature point of the structure of the vehicle interior or for each area delimited by the virtual space. The vehicle design support system according to any one of claims 4 to 6, further comprising a viewpoint aggregation unit.
前記仮想空間において車両が配置される周囲環境の背景のための背景データを格納する環境データ記録部
をさらに備え、
前記画像レンダリング部が、前記環境データ記録部から前記背景データを呼び出して仮想空間内にて前記車両内装の窓部分に対応する方向に、当該方向の背景画像を合成した前記内装画像を生成するものであり、
前記注視点判定部が、前記仮想空間での前記背景画像における位置を注視点として決定し注視点位置データとして出力するものである
請求項4に記載の車両デザイン支援システム。
Further provided with an environment data recording unit for storing background data for the background of the surrounding environment in which the vehicle is arranged in the virtual space.
The image rendering unit calls the background data from the environment data recording unit and generates the interior image by synthesizing the background image in the direction corresponding to the window portion of the vehicle interior in the virtual space. And
The vehicle design support system according to claim 4, wherein the gazing point determination unit determines a position in the background image in the virtual space as a gazing point and outputs it as gazing point position data.
複数のオペレーターの各々に一つずつ装着される複数の前記VRヘッドセットと、
前記複数のオペレーターの各々のための複数の画像レンダリング部と
を備えており、
各画像レンダリング部は、前記内装データ記録部から呼び出した前記構造データと前記画像調節部からの前記属性データとから、前記複数のオペレーターの少なくとも何れかによる前記操作入力の前記指示内容に対応し、各オペレーターの頭部の前記仮想空間における方向に対応した内装画像を生成するものであり、
各オペレーターが装着している前記VRヘッドセットの前記ディスプレイには、各オペレーターのために生成された前記内装画像が提示画像として表示され、
前記注視点判定部により生成され前記注視点位置記録部に格納される前記注視点位置データが、VRヘッドセットまたはオペレーターのいずれかごとのものである
請求項4〜請求項8のいずれか1項に記載の車両デザイン支援システム。
A plurality of the VR headsets, one for each of the plurality of operators,
It has a plurality of image rendering units for each of the plurality of operators.
Each image rendering unit corresponds to the instruction content of the operation input by at least one of the plurality of operators from the structural data called from the interior data recording unit and the attribute data from the image adjusting unit. It generates an interior image corresponding to the direction of each operator's head in the virtual space.
The interior image generated for each operator is displayed as a presentation image on the display of the VR headset worn by each operator.
Any one of claims 4 to 8, wherein the gaze point position data generated by the gaze point determination unit and stored in the gaze point position recording unit is for either a VR headset or an operator. Vehicle design support system described in.
前記車両内装がその少なくとも一部にグラフィック情報を提示しうる表示装置領域を持つものであり、
前記内装データ記録部が、前記表示装置領域に表示されるべきグラフィック情報を格納しているものであり、
前記画像レンダリング部は、前記グラフィック情報を前記提示画像の当該少なくとも一部に合成して前記内装画像を生成するものである
請求項1または請求項4に記載の車両デザイン支援システム。
The vehicle interior has a display device area capable of presenting graphic information in at least a part thereof.
The interior data recording unit stores graphic information to be displayed in the display device area.
The vehicle design support system according to claim 1 or 4, wherein the image rendering unit synthesizes the graphic information with at least a part of the presented image to generate the interior image.
前記属性が車両内装の少なくとも一部についての表面反射特性を含んでおり、
前記画像レンダリング部は、入射光に応じて前記車両内装の当該少なくとも一部が反射する表面反射を反映した前記内装画像を生成し、前記提示画像のための画像信号として出力するものである
請求項1または請求項4に記載の車両デザイン支援システム。
The attributes include surface reflection properties for at least a portion of the vehicle interior.
The image rendering unit generates the interior image reflecting the surface reflection reflected by at least a part of the vehicle interior in response to the incident light, and outputs it as an image signal for the presented image. 1 or the vehicle design support system according to claim 4.
前記属性が車両内装に配置される光源の位置および発光特性を含んでおり、
前記入射光は前記光源が放つ光を含むものである
請求項11に記載の車両デザイン支援システム。
The attributes include the position and emission characteristics of the light source located in the vehicle interior.
The vehicle design support system according to claim 11, wherein the incident light includes light emitted by the light source.
前記オペレーターのいずれかの身体状態を取得して生体情報信号を出力する生体状態検知装置と、
前記生体情報信号から前記オペレーターの生体情報データを格納する被験者情報記録部と
をさらに備える
請求項1〜請求項12のいずれか1項に記載の車両デザイン支援システム。
A biological condition detection device that acquires the physical condition of any of the operators and outputs a biological information signal,
The vehicle design support system according to any one of claims 1 to 12, further comprising a subject information recording unit that stores the biometric information data of the operator from the biometric information signal.
前記アイトラッキング検出部は、前記オペレーターのまぶたの瞬きまたは開閉のイベントを取得しうるものであり、
前記生体情報データが当該イベントのデータ含むものである
請求項13に記載の車両デザイン支援システム。
The eye tracking detection unit can acquire an event of blinking or opening / closing of the eyelid of the operator.
The vehicle design support system according to claim 13, wherein the biometric information data includes data of the event.
前記複数のオペレーターのうちの一のオペレーターである管理者が使用するコンピューター機器が、アカウント管理部とセッション管理部とを備えており、
前記アカウント管理部は、前記車両デザイン支援システムの機能とデータファイルとについて各ユーザーがアクセスしうるものを決定するパーミッションテーブルを含み、
前記セッション管理部は、セッションに参加しうるユーザーのリストをセッションテーブルとして保持しており、前記複数のオペレーターそれぞれが正当なユーザーであるかを該セッションテーブルを参照して判定し前記複数のオペレーターのうちの正当なユーザーについての前記セッションのための接続を確立するものである
請求項3または請求項9に記載の車両デザイン支援システム。
The computer device used by the administrator who is one of the plurality of operators includes an account management unit and a session management unit.
The account management unit includes a permission table that determines what each user can access about the functions and data files of the vehicle design support system.
The session management unit holds a list of users who can participate in the session as a session table, determines whether each of the plurality of operators is a legitimate user by referring to the session table, and determines whether or not each of the plurality of operators is a legitimate user. The vehicle design support system according to claim 3 or 9, which establishes a connection for the session for our legitimate user.
前記ユーザーが使用するコンピューター機器が、前記一のオペレーターが使用するコンピューター機器をサーバー装置とするときのクライアント端末となってネットワークを通じて通信可能であり、
前記ユーザーを識別するためのユーザーIDが前記ネットワークを通じて前記セッションの確立のために使用される
請求項15に記載の車両デザイン支援システム。
The computer device used by the user serves as a client terminal when the computer device used by the one operator is used as a server device, and can communicate through the network.
The vehicle design support system according to claim 15, wherein a user ID for identifying the user is used to establish the session through the network.
前記コントローラーそれ自体の方向を検知するセンサーをさらに備えており、
前記画像レンダリング部が、前記方向に応じて決定された前記仮想空間における曲線シンボルを、前記センサーの出力により前記コントローラーの方向に応じて更新しながら前記仮想空間に表示するものであり、
前記コントローラーを操作するオペレーターからの、前記曲線シンボルの前記仮想空間における到達位置の決定入力を受け付けると、該オペレーターの視点が該移動先位置に対応させて再設定される
請求項1または請求項4に記載の車両デザイン支援システム。
It also has a sensor that detects the direction of the controller itself.
The image rendering unit displays a curve symbol in the virtual space determined according to the direction in the virtual space while updating it according to the direction of the controller by the output of the sensor.
Claim 1 or claim 4 in which the viewpoint of the operator is reset according to the movement destination position when the determination input of the arrival position of the curve symbol in the virtual space is received from the operator who operates the controller. Vehicle design support system described in.
前記コントローラーが、方向入力部と方向決定部とを備えており、
前記画像レンダリング部が、前記方向入力部が示す方向に応じて、前記移動先位置において移動後方向を示す方向表示シンボルを表示するものであり、
前記方向決定部への入力に応じて決定された前記移動後方向に応じて、前記移動先位置における前記オペレーターの視線方向の少なくともいずれかの成分が再設定される、
請求項17に記載の車両デザイン支援システム。
The controller includes a direction input unit and a direction determination unit.
The image rendering unit displays a direction display symbol indicating the direction after movement at the movement destination position according to the direction indicated by the direction input unit.
At least one component of the line-of-sight direction of the operator at the movement destination position is reset according to the movement post-movement direction determined in response to the input to the direction determination unit.
The vehicle design support system according to claim 17.
映像信号を出力可能なカメラと、
該カメラの撮像対象に対し特徴点位置を決定するトラッカーと、
該特徴点位置を前記仮想空間における位置に換算する位置換算手段と、
映像合成手段と
をさらに備え、前記カメラからの前記映像信号による映像が、前記撮像対象に対し決定された特徴点位置データに基づいて前記位置換算手段により換算された前記仮想空間における位置に存在するように前記映像合成手段により合成される
請求項3または請求項11に記載の車両デザイン支援システム。
A camera that can output video signals and
A tracker that determines the position of the feature point with respect to the imaging target of the camera,
A position conversion means for converting the feature point position into a position in the virtual space,
An image synthesizing means is further provided, and an image obtained by the image signal from the camera exists at a position in the virtual space converted by the position conversion means based on the feature point position data determined for the imaging target. The vehicle design support system according to claim 3 or 11, which is synthesized by the video synthesizing means as described above.
演算装置と記録装置とグラフィック装置を備えるコンピューターと、
前記コンピューターに接続される少なくとも一つの仮想現実(VR)ヘッドセットであって、オペレーターの頭部の姿勢を検出しうる姿勢センサーと提示画像を表示しうるディスプレイとを備える、オペレーターが頭部に装着するVRヘッドセットと、
前記コンピューターに接続され、操作入力を前記オペレーターから受け付ける少なくとも一つの操作入力部と
を備えるコンピューターシステムを動作させて請求項1〜19のいずれか1項に記載の車両デザイン支援システムを実現するコンピュータープログラムであって、
前記コンピューターの前記演算装置と前記記録装置と前記グラフィック装置を、前記内装データ記録部と前記画像調節部と前記画像レンダリング部として機能させる
コンピュータープログラム。
A computer equipped with an arithmetic unit, a recording unit, and a graphic unit,
At least one virtual reality (VR) headset connected to the computer, which is worn by the operator on the head, including a posture sensor capable of detecting the posture of the operator's head and a display capable of displaying a presented image. VR headset and
A computer program that realizes the vehicle design support system according to any one of claims 1 to 19 by operating a computer system that is connected to the computer and includes at least one operation input unit that receives operation input from the operator. And
A computer program that causes the arithmetic unit, the recording device, and the graphic device of the computer to function as the interior data recording unit, the image adjustment unit, and the image rendering unit.
演算装置と記録装置とグラフィック装置を備えるコンピューターと、
前記コンピューターに接続される少なくとも一つの仮想現実(VR)ヘッドセットであって、オペレーターの頭部の姿勢を検出しうる姿勢センサーと提示画像を表示しうるディスプレイとを備える、オペレーターが頭部に装着するVRヘッドセットと、
前記コンピューターに接続され、操作入力を前記オペレーターから受け付ける少なくとも一つの操作入力部と
を備えるコンピューターシステムを動作させて請求項4〜19のいずれか1項に記載の車両デザイン支援システムを実現するコンピュータープログラムであって、
前記コンピューターの前記演算装置と前記記録装置と前記グラフィック装置を、前記内装データ記録部と前記注視点判定部と前記注視点位置記録部と前記画像レンダリング部として機能させる
コンピュータープログラム。
A computer equipped with an arithmetic unit, a recording unit, and a graphic unit,
At least one virtual reality (VR) headset connected to the computer, which is worn by the operator on the head, including a posture sensor capable of detecting the posture of the operator's head and a display capable of displaying a presented image. VR headset and
A computer program that realizes the vehicle design support system according to any one of claims 4 to 19 by operating a computer system that is connected to the computer and includes at least one operation input unit that receives operation input from the operator. And
A computer program that causes the arithmetic unit, the recording device, and the graphic device of the computer to function as the interior data recording unit, the gazing point determination unit, the gazing point position recording unit, and the image rendering unit.
JP2020210848A 2020-01-14 2020-12-18 Vehicle design support system Active JP7150354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022000355A JP2022044627A (en) 2020-01-14 2022-01-05 Vehicle design support system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020003996 2020-01-14
JP2020003996 2020-01-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022000355A Division JP2022044627A (en) 2020-01-14 2022-01-05 Vehicle design support system

Publications (2)

Publication Number Publication Date
JP2021111374A true JP2021111374A (en) 2021-08-02
JP7150354B2 JP7150354B2 (en) 2022-10-11

Family

ID=77060053

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020210848A Active JP7150354B2 (en) 2020-01-14 2020-12-18 Vehicle design support system
JP2022000355A Pending JP2022044627A (en) 2020-01-14 2022-01-05 Vehicle design support system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022000355A Pending JP2022044627A (en) 2020-01-14 2022-01-05 Vehicle design support system

Country Status (1)

Country Link
JP (2) JP7150354B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271289A (en) * 1994-03-30 1995-10-20 Mazda Motor Corp Simulation apparatus
JP2018142090A (en) * 2017-02-27 2018-09-13 Kddi株式会社 Character image generating device, character image generating method, program, recording medium and character image generating system
JP2019087262A (en) * 2018-12-14 2019-06-06 株式会社コロプラ Program, information processing device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271289A (en) * 1994-03-30 1995-10-20 Mazda Motor Corp Simulation apparatus
JP2018142090A (en) * 2017-02-27 2018-09-13 Kddi株式会社 Character image generating device, character image generating method, program, recording medium and character image generating system
JP2019087262A (en) * 2018-12-14 2019-06-06 株式会社コロプラ Program, information processing device and method

Also Published As

Publication number Publication date
JP2022044627A (en) 2022-03-17
JP7150354B2 (en) 2022-10-11

Similar Documents

Publication Publication Date Title
AU2023200677B2 (en) System and method for augmented and virtual reality
US20220101593A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
CN107004279B (en) Natural user interface camera calibration
US9041622B2 (en) Controlling a virtual object with a real controller device
US9268406B2 (en) Virtual spectator experience with a personal audio/visual apparatus
US9122053B2 (en) Realistic occlusion for a head mounted augmented reality display
US11055920B1 (en) Performing operations using a mirror in an artificial reality environment
WO2013155217A1 (en) Realistic occlusion for a head mounted augmented reality display
KR20230062802A (en) Image-based detection of surfaces that provide specular reflections and reflection modification
JPH07311857A (en) Picture compositing and display device and simulation system
US11145126B1 (en) Movement instruction using a mirror in an artificial reality environment
US20230171484A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
US11036987B1 (en) Presenting artificial reality content using a mirror
JP7150354B2 (en) Vehicle design support system
JP6785983B2 (en) Information display devices and methods, as well as programs and recording media
US20240104849A1 (en) User interfaces that include representations of the environment
JP2023038691A (en) Training support system
WO2024054433A2 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
TW202343384A (en) Mobile device holographic calling with front and back camera capture

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20201228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220920

R150 Certificate of patent or registration of utility model

Ref document number: 7150354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150