WO2023190091A1 - 仮想現実会議システム - Google Patents

仮想現実会議システム Download PDF

Info

Publication number
WO2023190091A1
WO2023190091A1 PCT/JP2023/011665 JP2023011665W WO2023190091A1 WO 2023190091 A1 WO2023190091 A1 WO 2023190091A1 JP 2023011665 W JP2023011665 W JP 2023011665W WO 2023190091 A1 WO2023190091 A1 WO 2023190091A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
projection unit
display
bases
data
Prior art date
Application number
PCT/JP2023/011665
Other languages
English (en)
French (fr)
Inventor
猛 石川
勇樹 江幡
依里 森山
Original Assignee
矢崎総業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 矢崎総業株式会社 filed Critical 矢崎総業株式会社
Publication of WO2023190091A1 publication Critical patent/WO2023190091A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Definitions

  • the present disclosure relates to a virtual reality conference system that can be used by companies and the like when developing various products.
  • the collaborative virtual reality online conference platform of Patent Document 1 shows a technology for replacing on-site meetings with meetings in a common virtual space in VR (virtual reality).
  • the platform includes three-dimensional (3D) point cloud data that defines a virtual space and meeting data that includes identifiers of a plurality of meeting participants and positions in the virtual space of a plurality of avatars corresponding to the meeting participants.
  • It also includes a processor for executing instructions for initiating an online conference for a plurality of conference participants.
  • Initiating the online conference also includes providing each conference participant with the address of the 3D point cloud and transmitting the 3D point cloud data and conference data to each conference participant. The current location of each avatar within the virtual space is communicated to all conference participants.
  • online conference platform refers to a conference in which participants located in different geographical locations view the same computer screen while discussing via an audio line. Travel costs can also be reduced by allowing multiple parties to collaboratively and interactively inspect scanning projects, such as construction sites or crime scenes, remotely. Multiple parties can be located in their respective offices and meet at remote locations (represented by scan data) within VR.
  • the vehicle manufacturer decides the wiring route and shape of the wire harness, and then designs the wire harness. Create a diagram. At this time, the vehicle manufacturer needs to consider the ease of assembling the wire harness to the vehicle.
  • the parts manufacturer conducts studies from the perspective of the parts cost and manufacturing cost of the wire harness, as well as the ease of manufacturing the wire harness. Create blueprints for parts manufacturers.
  • the present disclosure has been made in view of the above-mentioned circumstances, and its purpose is to improve the efficiency of meetings held between personnel at multiple locations to determine design specifications and manufacturing specifications for various products.
  • the purpose of the present invention is to provide an easy virtual reality conference system.
  • a projection unit that is placed at a plurality of separate locations and projects a three-dimensional image generated based on product design data into a VR space that can be recognized by users at each location; a display unit connected to the projection unit at each of the plurality of bases and displaying the stereoscopic image recognized by the user on a screen;
  • the display units of the plurality of bases are connected to each other via a communication system, At least each of the display unit and the projection unit includes an input section that allows input of one or more modification instructions indicating changes, additions, and/or deletions to the three-dimensional image;
  • the correction instruction inputted at the input section of one base is transmitted to the display unit of the other base via the communication system, and the correction instruction is reflected on the three-dimensional image projected by each projection unit. be done, Virtual reality conferencing system.
  • the virtual reality conference system of the present disclosure it is possible to improve the efficiency of meetings held between persons in charge at multiple locations to determine design specifications and manufacturing specifications for various products.
  • conference participants can recognize a 3D image in the VR space using the projection unit, so there is no need for conference participants to move and gather in one place, significantly reducing wasted time and costs associated with movement. can.
  • FIG. 1 is a schematic diagram showing the situation of an online conference using the virtual reality conference system of the present disclosure.
  • FIG. 2 is a block diagram showing a configuration example of a VR conference system.
  • FIG. 3 is a block diagram showing a configuration example of a conference management server and a projection unit.
  • FIG. 4 is a flowchart showing the flow of processing in an example of the operation of the VR conference system.
  • FIG. 5 is a state transition diagram showing an example of a work procedure in product development.
  • FIG. 1 is a schematic diagram showing the situation of an online conference using the virtual reality conference system of the present disclosure.
  • the vehicle manufacturer when developing a wire harness product to be installed in a car, the vehicle manufacturer first creates a design drawing, and the manufacturer of wire harnesses and other parts creates a design suitable for manufacturing the wire harness based on the design drawing. Redraw it into a drawing.
  • the information is transmitted to the vehicle manufacturer, and the vehicle manufacturer re-creates the design drawing.
  • parts manufacturers have to re-create their own design drawings based on the design drawings, so each time a problem occurs, the design has to be redone at each site, reducing the efficiency of product development. .
  • the three-dimensional shape of each part of the wire harness must be determined appropriately so that the wiring route will be routed in accordance with the structure of the car body in which it will be mounted and the arrangement of various electrical components. There is a need. Furthermore, it is necessary to appropriately determine the layout of jigs used when manufacturing the wire harness, depending on the three-dimensional shape of each part of the wire harness. In addition, it is necessary to appropriately determine the manufacturing procedure and the like in order to increase the work efficiency of the wire harness manufacturing process. Furthermore, it is necessary to appropriately determine the branching positions and wire lengths of the wire harness so as to reduce the cost of parts such as each electric wire constituting the wire harness.
  • an online conference can be held without the need for the person in charge at each site to move.
  • Bases H1, H2, H3, and H4 are design bases within corporate groups that provide wire harness products, domestic manufacturing bases, overseas manufacturing bases, and automobile companies that manufacture vehicles equipped with manufactured wire harnesses. This corresponds to the design base of the company.
  • FIG. 1 there are one or more examiners P11 and one or more other participants P12 in the venue V1. Similarly, there are one or more examiners P21 and one or more other participants P22 in the venue V2. Further, in the venue V3, there are one or more examiners P31 and one or more other participants P32. There are one or more examiners P41 and one or more other participants P42 in the venue V4.
  • one or more display units 11, one or more projection units 12, and one or more sets of position sensors 13 and 14 are provided as system equipment 10A necessary for the online conference.
  • the venue V2 is equipped with one or more display units 11, one or more projection units 12, and one or more sets of position sensors 13 and 14 as system equipment 10B.
  • the venue V3 includes one or more display units 11, one or more projection units 12, and one or more sets of position sensors 13 and 14 as system equipment 10C.
  • one or more display units 11, one or more projection units 12, and one or more sets of position sensors 13 and 14 are provided as system equipment 10C.
  • the examiner P11 in the venue V1 while wearing the projection unit 12 included in the VR conference system, moves as the avatar A11 in the virtual reality space of the VR examination hall 20, changes the posture of the avatar A11, It becomes possible to visually recognize the stereoscopic image 21 in the visual field at the position of the avatar A11 as an image that actually appears stereoscopically.
  • the VR study area 20 is a three-dimensional space virtually created by computer processing, and is formed as a box-shaped space similar to the interior of a general conference hall, for example.
  • a stereoscopic image 21 generated based on design data of a wire harness to be developed as a product virtually exists in the space of the VR study area 20.
  • the three-dimensional image 21 includes a three-dimensional model of a wire harness and three-dimensional models of a large number of jigs placed on a workbench used to manufacture the wire harness.
  • a three-dimensional image of an avatar A11 which is a character (such as a doll) corresponding to the examiner P11 in the venue V1 is arranged in the space of the VR examination hall 20.
  • three-dimensional images of avatars A21 to A24 corresponding to each of the examiners P21 to P41 in other venues V2 to V4 are also arranged within the space of the VR examination hall 20, respectively.
  • the position sensors 13 and 14 installed within the venue V1 detect the change in position.
  • the actual three-dimensional position change of the examiner P11 detected by the position sensors 13 and 14 is reflected in the three-dimensional position change of the avatar A11 in the virtual space of the VR examination place 20.
  • the actual posture change of the examiner P11 is detected by the projection unit 12 worn by the examiner P11, and the result is reflected in the posture change of the avatar A11 in the VR examination area 20.
  • the display unit 11 arranged in the venue V1 is a computer equipped with a two-dimensional display, such as a laptop computer (PC), and is connected so as to be able to cooperate with the projection unit 12 in the venue V1.
  • the image of the VR study area 20 in approximately the same range as the image reflected in the visual field of the examiner P11 wearing the projection unit 12 in the venue V1 is synchronized with the position and orientation of the projection unit 12. It is displayed on the screen of the display unit 11.
  • the screen of the display unit 11 is a two-dimensional display
  • the three-dimensional image 21 in the VR study area 20 is coordinate-transformed and displayed on the two-dimensional screen of the display unit 11 as a two-dimensional image.
  • the display unit 11 in the venue V2 displays an image of the VR study venue 20 in approximately the same range as the image reflected in the field of view of the examiner P21 who is wearing the projection unit 12 in the venue V2. and can be displayed on the screen of the display unit 11 in synchronization with the posture.
  • the display unit 11 in the venue V3 displays an image of the VR study area 20 in approximately the same range as the image reflected in the field of view of the examiner P31 wearing the projection unit 12 in the venue V3, based on the position and orientation of the projection unit 12. It can be displayed on the screen of the display unit 11 in a synchronized state.
  • the display unit 11 in the venue V4 displays an image of the VR study area 20 in approximately the same range as the image reflected in the field of view of the examiner P41 wearing the projection unit 12 in the venue V4, based on the position and orientation of the projection unit 12. It can be displayed on the screen of the display unit 11 in a synchronized state.
  • the display units 11 in each venue V1 to V4 are arranged, for example, on a desk. Microphones and loudspeakers for collecting sounds from within the venue are also placed on the same desk.
  • the examiner P11 in the venue V1 can move around in the real space of the venue V1 while wearing the projection unit 12, and can also move around in the virtual space of the VR review venue 20 at the same time. That is, the actual movement of the examiner P11 is reflected in changes in the position and posture of the examiner P11 in the VR examination hall 20, and is also reflected in the contents of the visual field of the examiner P11 projected by the projection unit 12. .
  • the examiners P11 to P41 in each venue V1 to V4 can visually grasp in detail the state of the three-dimensional shape of the part of the product or jig that they want to examine in the VR study area 20. can.
  • each examiner P11 to P41 can be viewed by each examiner at another base.
  • the user's position and posture can be immediately grasped by the image projected by the projection unit 12 of the user. Therefore, it is easy for a plurality of reviewers at different locations to simultaneously confirm and review the same part of the product within the VR review site 20.
  • each participant P12 to P42 other than the examiners P11 to P41 in each of the venues V1 to V4 can also grasp the image of the body part being considered by the examiners P11 to P41 from the content displayed by the display unit 11.
  • the projection unit 12 at each base is equipped with a user operation section that accepts input operations from each of the examiners P11 to P41. Furthermore, the display unit 11 at each base also includes a user operation section that accepts input operations from each of the participants P12 to P42.
  • Each examiner P11 to P41 can make modifications such as changes, additions, and deletions to the data of the stereoscopic image 21 in the VR examination area 20 by operating the user operation section of the projection unit 12 that they are wearing. can be added.
  • the correction operations performed by each examiner P11 to P41 are recorded as data by the VR conference system and reflected on the stereoscopic image 21 in real time.
  • the results of the correction operations performed by any of the examiners P11 to P41 are the projection contents of the projection units 12 of all the examiners P11 to P41 and the display contents of the display units 11 of all the participants P12 to P42. reflected in real time.
  • all the examiners P11 to P41 who are located at different bases, can use the common VR examination area 20 to examine the same 3D image 21 in almost the same field of view and at the same time. You can make corrections as necessary to the shape, structure, layout, etc. of products and jigs projected as 21, and check the correction results in real time.
  • participants P12 to P42 other than the examiners P11 to P41 can also check the two-dimensional image corresponding to the stereoscopic image 21 with almost the same field of view as the examiners P11 to P41 by referring to the display screen of the display unit 11. and can be considered at the same time. Therefore, all participants in the online meeting can proceed with the deliberation work efficiently.
  • FIG. 2 is a block diagram showing a configuration example of the VR conference system 100.
  • FIG. 3 is a block diagram showing a configuration example of the conference management server 30 and the projection unit 12.
  • system equipment 10A to 10D located in venues V1 to V4 of different bases H1 to H4 are connected to each other via a communication network 25 so that they can communicate with each other.
  • a conference management server 30 is connected to the communication network 25 in order to enable simultaneous online conferences among multiple locations H1 to H4 using the common VR study site 20.
  • the communication network 25 is assumed to include local networks existing within each of the bases H1 to H4, private communication lines within a company, and public communication lines such as the Internet.
  • the conference management server 30 may be installed at one of the plurality of bases H1 to H4, or may be installed at a data center or the like located at a location other than the bases H1 to H4.
  • the conference management server 30 shown in FIG. 3 includes a communication device 31, a participant management section 32, database management sections 33 and 34, a VR data generation section 35, an avatar control section 36, and a change control section 37.
  • the communication device 31 has a function for safely communicating data via the communication network 25 with the system equipment 10A to 10D in each of the bases H1 to H4.
  • the participant management unit 32 has a function of managing access for each participant who participates in a common online conference as examiners P11 to P41 or participants P12 to P42.
  • the database management unit 33 holds and manages design data corresponding to a wire harness that is currently under development.
  • This design data includes data representing the shape, dimensions, various parts, etc. of each part of the target wire harness, as well as data representing the shape and layout of the various jigs used when manufacturing this wire harness. ing.
  • the database management unit 34 has a function of retaining and managing update data representing a modified portion of the specific version of data held by the database management unit 33. For example, data representing changing the shape of a specific part of the wire harness, data representing adding a new part to a specific part of the wire harness, data representing deleting a part of a specific part of the wire harness, etc. , and are sequentially registered and retained in the database management unit 34 during the online conference.
  • the VR data generation unit 35 generates data of the stereoscopic image 21 placed in the three-dimensional virtual space of the VR study area 20.
  • the data of the stereoscopic image 21 generated by the VR data generation unit 35 includes a stereoscopic image corresponding to the wire harness design data held by the database management unit 33 and each avatar managed by the avatar control unit 36. , and a stereoscopic image corresponding to update data managed by the database management unit 34.
  • the avatar control unit 36 manages the characters in the VR study area 20 corresponding to each of the study participants P11 to P41 at each base H1 to H4 participating in the online conference of the VR conference system 100 as avatars A11 to A41. , has a function of constantly monitoring the position (three-dimensional coordinates) and posture (direction of line of sight) of each examiner P11 to P41 to grasp the latest status.
  • the change control unit 37 controls the input operations performed on the user operation unit of the projection unit 12 by each of the examiners P11 to P41 of the bases H1 to H4 participating in the online conference of the VR conference system 100, and The input operations performed by each of the participants P12 to P42 of H1 to H4 on the user operation section of the display unit 11 are accepted as correction instructions for the 3D image 21 in the VR study room 20, and changes and additions to the 3D image 21 are made. , deletion, etc., in the database management unit 34 as update data.
  • the projection unit 12 shown in FIG. 3 includes a communication device 12a, a user position detection section 12b, a user operation section 12c, an audio transmission section 12d, VR goggles 15, and a headset 16.
  • the VR goggles 15 includes the functions of a VR video generation section 15a, a left eye display 15b, a right eye display 15c, and a user posture detection section 15d.
  • the headset 16 has a built-in microphone and speaker.
  • the communication device 12a is connected to the conference management server 30 via the communication network 25, and can send and receive data to and from the conference management server 30.
  • data of the stereoscopic image 21 in the VR study area 20 is periodically acquired from the conference management server 30.
  • the data of the stereoscopic image 21 that the communication device 12a acquires from the conference management server 30 includes design data such as the three-dimensional shape of the wire harness and the jig layout, and the three-dimensional shape, position, and posture of each avatar A11 to A41. Contains data.
  • the communication device 12a in the projection unit 12 of the base H1 is detected by the three-dimensional position coordinates of the examiner P11 detected by the position sensors 13 and 14 in the base H1, and the VR goggles 15 worn by the examiner P11. Information on the posture (direction of line of sight) of the examiner P11 can be periodically transmitted to the conference management server 30.
  • the communication device 12a in the projection unit 12 of the base H1 is connected to the display unit 11 in the base H1, and is specified based on the three-dimensional position coordinates of the examiner P11 and the orientation of the examiner P11.
  • Information representing the range of the visual field of the examiner P11 in the virtual reality space can be periodically transmitted to the display unit 11.
  • the user position detection unit 12b performs each study based on the detection state of a pair of position sensors 13 and 14 that are placed in positions facing the examiners P11 to P41 wearing VR goggles 15 in each of the bases H1 to H4. It is possible to detect the three-dimensional position coordinates of persons P11 to P41 in real space and their changes.
  • the user operation unit 12c is a device that can accept various button operations and coordinate input operations by the user, such as a mouse, which is a general input device.
  • the user operation section 12c can accept input operations by each of the examiners P11 to P41 wearing the VR goggles 15 of the projection unit 12.
  • the user can use the user operation unit 12c to issue correction instructions such as changes, additions, deletions, etc. to the user-specified portion of the stereoscopic image 21 of the VR study area 20 projected by the VR goggles 15.
  • the audio transmission unit 12d can transmit the information of the examiner's voice captured by the microphone of the headset 16 to another base via the communication device 12a and the communication network 25. Further, the audio transmission unit 12d can receive audio information uttered by examiners at other locations via the communication network 25 and the communication device 12a, and can output the information as audio from the speaker of the headset 16.
  • the VR goggles 15 have a function of projecting three-dimensionally recognizable images onto the left and right eyes of the user wearing the goggles.
  • the VR video generation unit 15a constantly grasps the position and posture (for example, direction of line of sight) of the user (considerers P11 to P41) in the three-dimensional virtual space of the VR study area 20, and determines the range of the user's visual field. Identify. Then, among the data of the stereoscopic image 21 existing in the three-dimensional virtual space of the VR study hall 20, at least data within the range of the field of view of the user is acquired from the conference management server 30, and the respective viewpoints of the left and right eyes of the user are obtained. Two types of two-dimensional image data visible from the position are generated by coordinate transformation of the data of the stereoscopic image 21.
  • the left-eye display 15b receives the two-dimensional image data for the left eye generated by the VR image generating section 15a from the VR image generating section 15a, and projects it as a two-dimensional image at the position of the left eye of the user.
  • the right-eye display 15c receives the two-dimensional image data for the right eye generated by the VR image generation unit 15a from the VR image generation unit 15a, and projects it as a two-dimensional image at the position of the user's right eye.
  • the user posture detection unit 15d detects the direction of the user's line of sight by tracking the position of the iris of the user's eye, which is photographed using a camera, for example.
  • angles in three axes (roll angle, pitch angle, yaw angle) representing the orientation of the user's head are detected using a three-axis acceleration sensor or the like.
  • the posture of the user detected by the user posture detection section 15d and the position information detected by the user position detection section 12b are input to the conference management server 30 via the communication device 12a and the communication network 25. Then, the position and posture of the user are reflected in the positions and postures of the corresponding avatars A11 to A41 in the virtual reality space in the VR study area 20 through processing by the conference management server 30.
  • the display unit 11 shown in FIG. 2 includes a communication device 11a, a two-dimensional video generation section 11b, a two-dimensional display 11c, a user operation section 11d, and an audio transmission section 11e.
  • the communication device 11a is connected to the conference management server 30 via the communication network 25, and can send and receive data to and from the conference management server 30. Specifically, data of the stereoscopic image 21 in the VR study area 20 is periodically acquired from the conference management server 30.
  • the communication device 11a is also connected to the projection unit 12 at the same base, and the communication device 11a is connected to the projection unit 12 at the same base, and the communication device 11a transmits necessary information to the projection unit 12 in order to synchronize the field of view of the examiner wearing the projection unit 12 and the display range of the display unit 11. It can be obtained from
  • the two-dimensional image generation unit 11b specifies the range of the field of view of the examiner who is wearing the projection unit 12 within the same base based on the information transmitted from the projection unit 12, and determines the range equivalent to the field of view of this examiner.
  • the data of the stereoscopic image 21 existing in the three-dimensional virtual space of the VR study hall 20 is acquired from the conference management server 30. Then, two-dimensional image data of the image seen from the examiner's viewpoint position is generated by coordinate transformation of the data of the stereoscopic image 21.
  • the two-dimensional display 11c displays the two-dimensional image data generated by the two-dimensional video generation unit 11b as a two-dimensional image on the screen.
  • the display unit 11 may acquire one of the two types of left and right two-dimensional image data generated by the VR video generation section 15a of the VR goggles 15 from the projection unit 12 and display it on the two-dimensional display 11c.
  • the user operation unit 11d is a device that can accept various button operations and coordinate input operations by the user, such as a mouse or a keyboard that are common input devices.
  • the user operation unit 11d can accept input operations from each of the participants P12 to P42.
  • the user operation unit 11d may be used to issue correction instructions such as changes, additions, deletions, etc. to the user-specified portion of the stereoscopic image 21 of the VR study area 20 displayed on the screen of the two-dimensional display 11c. can.
  • the audio transmission unit 11e can transmit information on the participant's audio captured by the microphone of the headset 17 to another base via the communication device 11a and the communication network 25. Furthermore, the audio transmission unit 11e can receive audio information uttered by examiners and participants at other locations via the communication network 25 and the communication device 11a, and can output the information as audio from the speaker of the headset 17. .
  • FIG. 4 is a flowchart showing the flow of processing in an operation example of the VR conference system 100. The processing shown in FIG. 4 will be explained below.
  • the VR data generation unit 35 on the conference management server 30 generates three-dimensional data of the stereoscopic image 21 in the VR space of the VR study area 20 based on the wire harness design data held by the database management unit 33 (S11 ). Furthermore, for each of the avatars A11 to A41 managed by the avatar control unit 36, the VR data generation unit 35 generates three-dimensional data of the stereoscopic image 21 in the VR space of the VR study area 20. Further, if the database management unit 34 holds update data, the data of the three-dimensional image 21 is corrected by reflecting the contents of the update data.
  • the projection units 12 worn by the examiners P11 to P41 at each site and the display units 11 used by the participants P12 to P42 are connected via the communication network 25. It connects with the conference management server 30 and makes it possible to communicate with each other.
  • the projection unit 12 at each base acquires the data of the stereoscopic image 21 in the VR study area 20 generated by the VR data generation unit 35 of the conference management server 30, and applies this data to the left and right eyes of each study person P11 to P41.
  • the coordinates are converted into a three-dimensional image that appears in each visual field, and the image is projected using the VR goggles 15 so that each examiner P11 to P41 can view it (S12).
  • the display unit 11 at each base acquires the data of the stereoscopic image 21 in the VR study area 20 generated by the VR data generation unit 35 of the conference management server 30, and displays this data on each of the examiners P11 to P40 at the same base.
  • the coordinates are transformed so that they almost match the three-dimensional image seen in the visual field of the image, and are displayed on the screen of the two-dimensional display 11c (S12).
  • each examiner P11 to P41 moves in real space or changes their posture or line of sight while viewing the stereoscopic image projected by the VR goggles 15, this change is detected by the user position detection unit 12b and the user posture detection unit 15d. be done. Then, changes in the posture and line of sight of each examiner P11 to P41 in the real space are reflected in changes in the visual field within the VR examination area 20 of the examiner.
  • the VR video generation unit 15a of the VR goggles 15 updates the stereoscopic image projected on the left-eye display 15b and the right-eye display 15c (S14) in accordance with the change in the visual field of the examiner (S13). Furthermore, the two-dimensional image generation section 11b of the display unit 11 updates the image displayed on the two-dimensional display 11c (S14) so as to follow the change in the visual field of the examiner who is present at the same base (S13).
  • the examiners P11 to P41 at each base can change the part of interest in the stereoscopic image shown in their field of view as necessary (S15). For example, it is possible to change the shape of a portion of interest on the wire harness, move the position of each jig, or add or delete parts or jigs of the wire harness.
  • the correction inputs made by the input operations of the reviewers P11 to P41 at each site are input from the projection unit 12 to the conference management server 30 via the communication network 25.
  • the change control unit 37 of the conference management server 30 receives correction inputs from each of the examiners P11 to P41, and records the contents as updated data in the database management unit 34 (S16).
  • the VR data generation unit 35 of the conference management server 30 detects that new update data has been added to the database management unit 34, the VR data generation unit 35 adds the update data to the stereoscopic image 21 of the VR study area 20 generated by the VR data generation unit 35. Data of a new stereoscopic image 21 is generated by reflecting the modified contents (S17).
  • the communication device 31 of the conference management server 30 transmits data of the corrected stereoscopic image 21 generated by the VR data generation unit 35 to each of the system equipment 10A to 10D of each base H1 to H4 (S18).
  • the projection unit 12 at each base acquires the data of the corrected 3D image 21 sent from the conference management server 30, and converts this data into a 3D image that appears in the respective visual fields of the left and right eyes of each examiner P11 to P41.
  • the coordinates are transformed and projected using the VR goggles 15 so that each of the examiners P11 to P41 can view them (S19).
  • the display unit 11 at each base acquires the data of the corrected 3D image 21 sent from the conference management server 30, and displays this data approximately to the 3D image that appears in the field of view of each examiner P11 to P41 at the same base.
  • the coordinates are transformed so that they match and are displayed on the screen of the two-dimensional display 11c (S19).
  • each examiner P11 to P41 can three-dimensionally recognize the three-dimensional image 21 projected by the VR goggles 15 in the same way as the real thing, and furthermore, each examiner's movement or change of posture can change their field of view in the space of the VR examination area 20. It is easy to check the three-dimensional shape and structure of the part that requires examination in detail.
  • each examiner P11 to P14 can be confirmed by other examiners. It is also possible to recognize the location on the wire harness where the robot is moving and the direction of the line of sight. In other words, each examiner P11 to P14 can easily understand the relative positional relationship of each other even though they are located in different locations, so that all examiners P11 to P14 can confirm the common examination target part on the 3D image 21. , meetings can be conducted as efficiently as in a common real space.
  • examiners P11 to P14 at each base can perform modification operations such as changing, adding, and deleting the three-dimensional image 21 by performing input operations as necessary. Furthermore, since the results of the correction operation are reflected in the contents of the projected three-dimensional image 21, examiners P11 to P14 at each base can easily grasp the three-dimensional shape and structure of the three-dimensional image 21 after correction.
  • the participants P12 to P42 at each base can confirm on the screen display of the display unit 11 a two-dimensional image having approximately the same range as the stereoscopic image 21 shown in the field of view of the examiners P11 to P14 at the same base. Therefore, even if there are no physical models in each of the venues V1 to V4, the participants P12 to P42 can easily grasp the shape and structure of the parts to be examined in the same way as the examiners P11 to P14.
  • Figure 5 shows an example of the work procedure in product development. That is, when a parts manufacturer and its affiliated companies that manufacture wire harnesses installed in automobiles use the above-mentioned VR conference system 100, it is assumed that the development work will be performed in the procedure shown in FIG. 5.
  • the designer After completing the design of the configuration and shape of the wire harness, the designer determines the layout of a large number of jigs used for routing work such as electric wire groups when manufacturing this wire harness (S21).
  • the designer constructs data for the review meeting that includes the wire harness design data determined in advance and the jig layout data determined in S21. This data is registered in the database management section 33.
  • the designer and the person in charge at each site conduct a first review meeting using the VR conference system 100 (S23).
  • the VR review room 20 of the VR conference system 100 is used, so the designer and the person in charge at each location can participate in the online meeting without moving from their respective locations.
  • the designer or the like identifies problems regarding the jig layout, etc. at the first review meeting, and performs correction operations on the three-dimensional image 21 through input operations using the user operation section 12c, etc. (S24). As a result, the projected stereoscopic image 21 is corrected, and update data representing the details of the correction is registered in the database management unit 34.
  • the designer etc. rebuild the design data on the database management unit 33 so as to reflect the contents of all the update data registered in the database management unit 34 (S25).
  • the designer and the person in charge at each site conduct a second review meeting using the VR conference system 100 (S26).
  • the VR review room 20 of the VR conference system 100 is used, so the designer and the person in charge at each location can participate in the online meeting without moving from their respective locations.
  • an online conference is held using the VR conference system 100 to discuss the design of automotive wiring harnesses at multiple locations, but it is not limited to wiring harnesses.
  • Various types of products can be placed as three-dimensional images 21 in the VR study area 20 to be considered.
  • the conference management server 30 can be omitted by installing a function equivalent to the conference management server 30 in any of the system equipment 10A to 10D at a plurality of bases.
  • FIG. 1 Three-dimensional images ( a projection unit (12) that projects 21); a display unit (11) connected to the projection unit at each of the plurality of bases and displaying the stereoscopic image recognized by the user on a screen; Equipped with The display units of the plurality of bases are connected to each other via a communication system, At least each of the display unit and the projection unit includes an input section (user operation section 12c, 11d) that allows input of one or more modification instructions indicating changes, additions, and/or deletions to the three-dimensional image, The correction instruction inputted at the input section of one base is transmitted to the display unit of the other base via the communication system, and the correction instruction is reflected on the three-dimensional image projected by each projection unit. (S15-S19), Virtual reality conference system (VR conference system 100).
  • VR conference system 100 Virtual reality conference system
  • each examiner (user) at a plurality of bases can view the projected image of the projection unit, so that all examiners can view the same 3D image at the same time. It becomes easier to consider. Furthermore, the display on the display unit allows participants other than the examiner to participate in the meeting while recognizing the same image as the examiner. Furthermore, each examiner can enter correction instructions to make changes while checking the 3D image, and these correction instructions will be reflected in the content of the 3D image projected at each site, so all studies and participants can easily see the results of the modifications.
  • the design data includes at least information representing the three-dimensional shape of the wiring route in the wire harness (contents of the database management unit 33); The virtual reality conference system according to [1] above.
  • the virtual reality conferencing system configured in [2] above, even when considering the manufacturing process of a wire harness having a complex three-dimensional shape, the three-dimensional shape of the wire harness and its wiring route can be accurately visualized. A 3D image can be projected in the reproduced state. Therefore, there is no need to prepare an actual model of the wire harness for consideration, and there is no need for examiners from each site to travel and gather at one place.
  • a user state detection section (user position detection section 12b, user posture detection section 15d) that detects the posture and position of a specific user wearing the projection unit at one or more of the bases; a display control unit (VR video generation unit 15a) that reflects changes in the posture and position detected by the user state detection unit in a display form of the stereoscopic image projected by the projection unit;
  • the virtual reality conference system according to [1] or [2] above, further comprising:
  • the examiner (specific user) wearing the projection unit can change the field of view in the VR space by simply moving or changing the posture within the real space. Since the range is changed, there is no need for special input operations to change the field of view, allowing for efficient online meetings.
  • the projection unit includes an avatar control section (36) that projects information on avatars corresponding to the one or more specific users together with the stereoscopic image into the VR space,
  • the avatar control unit reflects at least a change in the position of the specific user on the position of the avatar projected in the VR space.
  • each examiner viewing a stereoscopic image in the VR space can be seen and discussed by other examiners using an avatar that appears in the same VR space.
  • the location can be easily identified. Therefore, it becomes easy for a plurality of examiners to recognize a common examination target region in a stereoscopic image.
  • Each of the plurality of bases includes an audio input/output unit (headset 16, audio transmission unit 12d), Information on the sound emitted by a specific user wearing the projection unit at one or more of the bases is outputted from the audio input/output unit of the other base via the communication system.
  • the virtual reality conference system according to any one of [1] to [4] above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

離隔した複数の拠点にそれぞれ配置され、各拠点の使用者が認識できるVR空間内に製品の設計データに基づく立体像を投影する投影ユニット(12)と、各拠点において投影ユニットと接続され使用者が認識している立体像を画面上に表示する表示ユニット(11)とを備える。複数の拠点の表示ユニット(11)は互いに通信システムを介して接続される。表示ユニット(11)および投影ユニット(12)は立体像に対する変更、追加、及び/又は削除を示す1つ以上の修正指示の入力を許容する入力部を備える。一方の拠点で入力された修正指示は通信システムを介して他方の拠点の表示ユニット(11)に伝達され、各投影ユニット(12)の投影する立体像に修正指示が反映される。

Description

仮想現実会議システム
 本開示は、企業等が様々な製品の開発などを行う際に利用可能な仮想現実会議システムに関する。
 例えば、特許文献1の協調型仮想現実オンライン会議プラットフォームは、オンサイトの会議をVR(仮想現実)内の共通仮想空間での会議で置き換えるための技術を示している。このプラットフォームは、仮想空間を定義する3次元(3D)点群データと、複数の会議参加者の識別子と、会議参加者に対応する複数のアバターの仮想空間内の位置を含む会議データとを含む。また、複数の会議参加者のオンライン会議を開始する命令を実行するプロセッサを含む。また、オンライン会議を開始するステップは、各会議参加者に3D点群のアドレスを提供するステップと、各会議参加者に3D点群データおよび会議データを送信するステップとを含む。仮想空間内の各アバターの現在の場所は、すべての会議参加者に伝達される。
 なお、特許文献1の明細書において「オンライン会議プラットフォーム」は異なる地理的場所にいる参加者らが音声回線を介して話し合いながら同じコンピュータ画面を見ている会議を意味する。また、複数の当事者が、協調的に対話式で工事現場や犯行現場などのスキャンプロジェクトの内容をリモートで検査できるようにすることによって旅費を削減することができる。複数の当事者は、それぞれのオフィスに位置し、VR内の(スキャンデータで表された)離れた場所で会合することができる。
日本国特開2019-82997号公報
 ところで、企業等が様々な製品の開発などを行う際には、同じ企業や関連会社の複数の拠点にそれぞれ存在する複数の担当者が同じ場所に同時に集まって、特定の製品に関する検討を実施することが好ましい場合がある。
 例えば、車両に搭載するワイヤハーネスの製品を新たに開発したり、既存の製品の仕様を変更するような場合には、現状では、車両メーカでワイヤハーネスの配索経路や形状などを決め、設計図を作製する。この際、車両メーカは、車両へのワイヤハーネスの組み付け易さなどの観点から検討を行う必要がある。
 また、部品メーカは、車両メーカから送られてきた設計図に基づき、ワイヤハーネスの部品コストや製造コストなどの観点から検討を行ったり、ワイヤハーネスの製造しやすさなどの観点から検討を行い、部品メーカ用の設計図を作成する。
 上記のように独立している複数の拠点でそれぞれ独自に検討を行う場合には、部品メーカでワイヤハーネスの設計に問題を発見した際に、その問題を車両メーカに伝達し、車両メーカは、その問題を修正した設計図を作成し直す。部品メーカは、修正された設計図を車両メーカから受け取ると、自社用の設計図を作成し直し、ワイヤハーネスを再度試作する。したがって、仕様の変更などを何回も繰り返し、多大な時間のロスが発生する可能性がある。特に、二次元形状の図面の内容を見ながら各企業の担当者がそれぞれ検討を行う場合には、ワイヤハーネス各部の実際の三次元形状を把握しにくいので、問題のある箇所を見つけにくい。
 そこで、車両メーカや部品メーカなど複数の拠点の担当者が同時に同じ場所に集まり、例えば1つの作業テーブル上に配置したワイヤハーネスの実物モデルや冶具の実物を見ながら、全ての拠点の担当者が同時に検討を行うことが考えられる。これにより、ワイヤハーネスの製造仕様の変更などを繰り返す回数が減少し、開発の効率が改善される可能性がある。
 しかしながら、同じ場所に集まる多数の担当者は、互いの距離の離れた様々な拠点からその場所に移動する必要があるので、移動に伴う無駄な時間と交通費などの負担が大きくなる。
 例えば、特許文献1のようなVRシステムを採用した場合には、様々な拠点の担当者が移動して一箇所に集まらなくても、同じ製品の三次元形状をそれぞれ異なるコンピュータの画面上で同時に把握できる可能性がある。しかし、会議の途中で各担当者の意見を反映して製品の仕様などに変更を加えることができないし、変更結果を見ることもできない。そのため、変更が必要になる度に会議を何回も繰り返す必要があり、効率的な会議ができない。
 本開示は、上述した事情に鑑みてなされたものであり、その目的は、様々な製品の設計仕様や製造仕様を決めるための複数拠点の担当者間で行われる会議の効率を改善することが容易な仮想現実会議システムを提供することにある。
 本開示に係る上記目的は、下記構成により達成される。
 離隔した複数の拠点にそれぞれ配置され、各拠点の使用者が認識できるVR空間内に、製品の設計データに基づいて生成された立体像を投影する投影ユニットと、
 前記複数の拠点それぞれにおいて、前記投影ユニットと接続され、前記使用者が認識している前記立体像を画面上に表示する表示ユニットと、を備え、
 前記複数の拠点の前記表示ユニットは、互いに通信システムを介して接続され、
 少なくとも各前記表示ユニットおよび前記投影ユニットは、前記立体像に対する変更、追加、及び/又は削除を示す1つ以上の修正指示の入力を許容する入力部を備え、
 一方の拠点の前記入力部において入力された前記修正指示が、前記通信システムを介して他方の拠点の前記表示ユニットに伝達されるとともに、各投影ユニットにおいて投影される立体像に当該修正指示が反映される、
 仮想現実会議システム。
 本開示の仮想現実会議システムによれば、様々な製品の設計仕様や製造仕様を決めるための複数拠点の担当者間で行われる会議の効率を改善できる。すなわち、会議の参加者は前記投影ユニットによりVR空間内で立体像を認識できるので、会議の参加者が移動して一箇所に集まる必要がなく、移動に伴う無駄な時間と費用を大幅に削減できる。
図1は、本開示の仮想現実会議システムを利用したオンライン会議の状況を示す模式図である。 図2は、VR会議システムの構成例を示すブロック図である。 図3は、会議管理サーバおよび投影ユニットの構成例を示すブロック図である。 図4は、VR会議システムの動作例における処理の流れを示すフローチャートである。 図5は、製品開発における作業手順の例を示す状態遷移図である。
 本開示に関する具体的な実施形態について、各図を参照しながら以下に説明する。
<オンライン会議の状況>
 図1は、本開示の仮想現実会議システムを利用したオンライン会議の状況を示す模式図である。
 例えば、自動車に搭載するワイヤハーネスの製品を開発する場合には、まず、車両メーカが設計図面を作成し、ワイヤハーネスなどの部品メーカは、その設計図面に基づいてワイヤハーネスの製造に適した設計図面に作り直す。しかし、部品メーカで作成した設計図面に基づいて製造したワイヤハーネスを車両に配索する際に問題が発生した場合には、その情報を車両メーカに伝達し、車両メーカが設計図面を作成し直し、部品メーカはその設計図面に基づいて自社用の設計図面を再度作成することにになるので、不具合が発生する度に各拠点で設計のやり直しを行うことになり、製品開発の効率が低下する。
 そこで、製品開発の効率を改善するために、例えばワイヤハーネスの製品を提供する企業グループ内の設計拠点、国内の製造拠点、海外の製造拠点、製造されたワイヤハーネスを搭載する車両を製造する自動車会社の設計拠点などのそれぞれに所属する担当者が同じ会議に参加して同時に検討することになる。
 ここで、ワイヤハーネスの製品を開発する場合には、搭載する車体側の構造や各種電装品の配置状況に合わせて適切な配索経路を通るようにワイヤハーネスの各部の立体形状を適切に決める必要がある。また、ワイヤハーネス各部の立体形状に合わせて、そのワイヤハーネスを製造する際に使用する冶具のレイアウトを適切に決める必要がある。また、ワイヤハーネスの製造工程の作業効率が上がるように配慮して製造の手順等を適切に決める必要がある。更に、ワイヤハーネスを構成する各電線等の部品コストを低減できるようにワイヤハーネスの分岐位置や電線長などを適切に決める必要がある。
 したがって、各拠点の担当者は、設計するワイヤハーネス各部の立体形状を把握しながら、それぞれの担当者が考慮すべき独自の観点から検討を実施する必要がある。そのため、一般的には実物の模型などを用意した上で、全ての拠点の担当者が移動して同じ検討場に集まり、全員が同じ場所で同じ実物の模型などを見ながら検討を実施する。これにより、会議の効率を上げることができる。しかし、それぞれの拠点は海外など互いに距離の離れた場所に存在する場合が多いので、会議を開催するための移動にかかる時間や費用などの負担が非常に大きくなる。
 実施形態のVR会議システムを利用する場合には、例えば図1に示したVR検討場20を利用して会議を行うことで、各拠点の担当者が移動することなくオンライン会議を開催できる。
 図1に示した例では、独立した4箇所の拠点H1、H2、H3、及びH4のそれぞれに存在する複数の担当者が同時に共通のVR検討場20に集まって検討会を開催する場合を想定している。拠点H1、H2、H3、及びH4は、それぞれワイヤハーネスの製品を提供する企業グループ内の設計拠点、国内の製造拠点、海外の製造拠点、製造されたワイヤハーネスを搭載する車両を製造する自動車会社の設計拠点などに相当する。
 拠点H1内の特定の場所には検討会のための実在の会場V1がある。同様に、各拠点H2、H3、及びH4内の特定の場所に、それぞれ検討会のための実在の会場V2、V3、及びV4がある。
 図1に示した例では、会場V1内に一人以上の検討者P11、及びそれ以外の一人以上の参加者P12が存在する。同様に、会場V2内には一人以上の検討者P21、及びそれ以外の一人以上の参加者P22が存在する。また、会場V3内には一人以上の検討者P31、及びそれ以外の一人以上の参加者P32が存在する。会場V4内には一人以上の検討者P41、及びそれ以外の一人以上の参加者P42が存在する。
 また、会場V1内にはオンライン会議のために必要なシステム機材10Aとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備えられている。
 また、会場V2内にはシステム機材10Bとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備わっている。会場V3内にはシステム機材10Cとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備わっている。会場V4内にはシステム機材10Cとして1台以上の表示ユニット11、1台以上の投影ユニット12、1セット以上の位置センサ13、及び14が備えられている。
 会場V1内の検討者P11は、VR会議システムに含まれる投影ユニット12を装着した状態で、VR検討場20の仮想現実空間内でアバターA11として移動したり、アバターA11の姿勢を変更したり、アバターA11の位置での視野における立体像21を、実際に立体的に見える像として視認することが可能になる。他の会場V2~V4内の検討者P21~P41についても同様である。
 実際には、後述するVRゴーグル15などを用いた投影表示により、検討者P11の左目に映る像と右目に映る像との間に視差を持たせることにより、立体的に認識可能な立体像を表示することが可能になる。
 VR検討場20は、コンピュータの処理により仮想的に形成された三次元空間であり、例えば一般的な会議場の室内と同じような箱状の空間として形成される。図1に示した例では、製品として開発するワイヤハーネスの設計データに基づいて生成された立体像21がVR検討場20の空間の中に仮想的に存在している。より具体的には、ワイヤハーネスの立体モデルと、そのワイヤハーネスを製造する際に用いる作業台上に配置された多数の冶具の立体モデルとが立体像21に含まれている。
 また、会場V1内の検討者P11に相当するキャラクター(人形など)であるアバターA11の立体像がVR検討場20の空間内に配置されている。また、他の会場V2~V4内の各検討者P21~P41に相当するアバターA21~A24の立体像もそれぞれVR検討場20の空間内に配置されている。
 会場V1内の現実空間において検討者P11が移動すると、会場V1内に設置されている位置センサ13及び14がその位置変化を検出する。位置センサ13及び14が検出した検討者P11の実際の三次元位置変化は、VR検討場20の仮想空間におけるアバターA11の三次元位置変化に反映される。また、検討者P11の実際の姿勢変化は検討者P11が装着した投影ユニット12により検出され、その結果がVR検討場20内のアバターA11の姿勢変化に反映される。他の会場V2~V4内の各検討者P21~P41及び各アバターA21~A41についても同様である。
 一方、会場V1内に配置されている表示ユニット11は、例えばノートパソコン(PC)のように二次元ディスプレイを備えたコンピュータであり、会場V1内の投影ユニット12と連携できるように接続されている。具体的には、会場V1内で投影ユニット12を装着している検討者P11の視野に映る映像とほぼ同じ範囲のVR検討場20の像が、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示される。勿論、表示ユニット11の画面は二次元ディスプレイなので、VR検討場20内の立体像21は座標変換されて二次元画像として表示ユニット11の二次元画面上に表示される。
 同様に、会場V2内の表示ユニット11は、会場V2内で投影ユニット12を装着している検討者P21の視野に映る映像とほぼ同じ範囲のVR検討場20の像を、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示することができる。会場V3内の表示ユニット11は、会場V3内で投影ユニット12を装着している検討者P31の視野に映る映像とほぼ同じ範囲のVR検討場20の像を、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示することができる。会場V4内の表示ユニット11は、会場V4内で投影ユニット12を装着している検討者P41の視野に映る映像とほぼ同じ範囲のVR検討場20の像を、投影ユニット12の位置及び姿勢と同期した状態で表示ユニット11の画面上に表示することができる。
 各会場V1~V4内の表示ユニット11は例えば机の上に配置されている。また、同じ会場内の音声を集音するマイクや拡声用のスピーカも同じ机の上に配置されている。
 会場V1内の検討者P11は、投影ユニット12を装着した状態で現実空間の会場V1内を動き回ることで、同時にVR検討場20の仮想空間内でも動き回ることができる。すなわち、検討者P11の実際の動きはVR検討場20内で検討者P11が見ている位置や姿勢の変化に反映され、投影ユニット12が投影する検討者P11の視野の内容にも反映される。他の会場V2~V4の検討者P21~P41についても同様である。
 各会場V1~V4内の検討者P11~P41は、それぞれ実際に動き回ることで、VR検討場20内で製品や冶具の検討したい部位における立体形状などの状態を視覚的に詳細に把握することができる。
 また、各会場V1~V4内の検討者P11~P41に相当する各アバターA11~A41がVR検討場20内に存在するので、各検討者P11~P41は他の拠点にいる各検討者が見ている位置や姿勢を、自分の投影ユニット12が投影する像により直ちに把握できる。そのため、異なる拠点の複数の検討者がVR検討場20内で製品の同じ部位を同時に確認し検討することが容易である。
 また、各会場V1~V4内の検討者P11~P41以外の各参加者P12~P42も、表示ユニット11が表示する内容により、検討者P11~P41が検討している部位の映像を把握できる。
 一方、後述するように、各拠点の投影ユニット12は各検討者P11~P41の入力操作を受け付けるユーザ操作部を備えている。また、各拠点の表示ユニット11も各参加者P12~P42の入力操作を受け付けるユーザ操作部を備えている。
 各検討者P11~P41は、自分が装着している投影ユニット12のユーザ操作部を操作することで、VR検討場20内の立体像21のデータに対して変更、追加、削除などの修正を加えることができる。各検討者P11~P41による修正の操作は、VR会議システムによってデータとして記録され、立体像21にリアルタイムで反映される。また、各検討者P11~P41のいずれかが行った修正操作の結果は、全ての検討者P11~P41の投影ユニット12の投影内容、及び全ての参加者P12~P42の表示ユニット11の表示内容にリアルタイムで反映される。
 したがって、それぞれ異なる拠点に存在する全ての検討者P11~P41は、共通のVR検討場20を利用して同じ立体像21をほぼ同じ視野内でそれぞれ確認しながら、同時に検討を行い、且つ立体像21として投影される製品や冶具の形状、構造、レイアウトなどに必要に応じて修正を加え、その修正結果をリアルタイムで確認できる。また、検討者P11~P41以外の参加者P12~P42についても、表示ユニット11の表示画面を参照することで、立体像21に対応する二次元画像を検討者P11~P41とほぼ同じ視野で確認し同時に検討することができる。そのため、オンライン会議の参加者全員が効率よく検討の作業を進めることができる。
<システムの構成>
 図2は、VR会議システム100の構成例を示すブロック図である。図3は、会議管理サーバ30および投影ユニット12の構成例を示すブロック図である。
 図2に示した例では、それぞれ異なる拠点H1~H4の会場V1~V4に存在するシステム機材10A~10Dが、通信ネットワーク25を介して互いに通信できるように接続されている。
 また、共通のVR検討場20を利用して複数の拠点H1~H4の間で同時にオンライン会議を可能にするために、会議管理サーバ30が通信ネットワーク25に接続されている。通信ネットワーク25については、各拠点H1~H4内に存在するローカルネットワークや、企業内の専用通信回線や、インターネットのような公衆通信回線を含むことが想定される。
 なお、会議の通信がインターネットを経由する場合には、データを暗号化することで通信の安全性を確保できる。また、会議管理サーバ30は複数の拠点H1~H4のうちいずれかの場所に設置しても良いし、拠点H1~H4以外の場所にあるデータセンターなどに設置しても良い。
 図3に示した会議管理サーバ30は、通信装置31、参加者管理部32、データベース管理部33、34、VRデータ生成部35、アバター制御部36、及び変更制御部37を備えている。
 通信装置31は、各拠点H1~H4内のシステム機材10A~10Dとの間で通信ネットワーク25を介して安全にデータ通信するための機能を有している。
 参加者管理部32は、検討者P11~P41、又は参加者P12~P42として共通のオンライン会議に参加する各参加者についてアクセスの管理を行う機能を有している。
 データベース管理部33は、開発途中のワイヤハーネスに対応する設計データを保持し管理している。この設計データの中には、対象となるワイヤハーネス各部の形状、寸法、各種部品などを表すデータや、このワイヤハーネスを製造する際に使用する様々な冶具の形状やレイアウトを表すデータが含まれている。
 データベース管理部34は、データベース管理部33が保持している特定バージョンのデータに対する修正部分を表す更新データを保持し管理する機能を有している。例えば、ワイヤハーネスの特定部位の形状を変更することを表すデータ、ワイヤハーネスの特定部位に新たな部品を追加することを表すデータ、ワイヤハーネスの特定部位の部品を削除することを表すデータなどが、オンライン会議中にデータベース管理部34に逐次登録され保持される。
 VRデータ生成部35は、VR検討場20の三次元仮想空間内に配置する立体像21のデータを生成する。VRデータ生成部35が生成する立体像21のデータの中には、データベース管理部33が保持しているワイヤハーネスの設計データに対応する立体像と、アバター制御部36が管理している各アバターに対応する立体像と、データベース管理部34が管理している更新データに対応する立体像とが含まれる。
 アバター制御部36は、VR会議システム100のオンライン会議に参加している各拠点H1~H4の検討者P11~P41のそれぞれに対応するVR検討場20内のキャラクターをアバターA11~A41として管理すると共に、各検討者P11~P41の位置(三次元座標)および姿勢(視線の方向)を常時監視して最新の状態を把握する機能を有している。
 変更制御部37は、VR会議システム100のオンライン会議に参加している各拠点H1~H4の検討者P11~P41のそれぞれが投影ユニット12のユーザ操作部に対して行った入力操作や、各拠点H1~H4の参加者P12~P42のそれぞれが表示ユニット11のユーザ操作部に対して行った入力操作を、VR検討場20内の立体像21に対する修正指示として受け付け、立体像21に対する変更、追加、削除などを表す更新データとしてデータベース管理部34に登録する機能を有している。
 一方、図3に示した投影ユニット12は通信装置12a、ユーザ位置検出部12b、ユーザ操作部12c、音声伝送部12d、VRゴーグル15、及びヘッドセット16を備えている。また、VRゴーグル15はVR映像生成部15a、左目用ディスプレイ15b、右目用ディスプレイ15c、及びユーザ姿勢検出部15dの各機能を含んでいる。また、ヘッドセット16はマイク及びスピーカを内蔵している。
 通信装置12aは、通信ネットワーク25を経由して会議管理サーバ30と接続し、会議管理サーバ30との間でデータの送受信を行うことができる。具体的には、VR検討場20における立体像21のデータを会議管理サーバ30から周期的に取得する。また、通信装置12aが会議管理サーバ30から取得する立体像21のデータには、ワイヤハーネスの三次元形状や冶具レイアウトなどの設計データと、各アバターA11~A41の三次元形状、位置、及び姿勢のデータが含まれる。
 また、例えば拠点H1の投影ユニット12内の通信装置12aは、拠点H1内の位置センサ13、14が検出した検討者P11の三次元位置座標、及び検討者P11が装着したVRゴーグル15により検出された検討者P11の姿勢(視線の方向)の情報を会議管理サーバ30に周期的に送信できる。
 また、例えば拠点H1の投影ユニット12内の通信装置12aは、拠点H1内の表示ユニット11と接続されており、検討者P11の三次元位置座標、及び検討者P11の姿勢に基づいて特定される検討者P11の仮想現実空間内における視野の範囲を表す情報を表示ユニット11に周期的に送信することができる。
 ユーザ位置検出部12bは、各拠点H1~H4内でVRゴーグル15を装着した検討者P11~P41と対向する部位に配置されている1組の位置センサ13及び14の検出状態に基づいて各検討者P11~P41の実空間における三次元位置座標およびその変化を検出することができる。
 ユーザ操作部12cは、例えば一般的な入力装置であるマウスのように、ユーザによる各種ボタン操作や、座標入力操作を受付可能な機器である。本実施形態では、ユーザ操作部12cは投影ユニット12のVRゴーグル15を装着した各検討者P11~P41による入力操作を受け付けることができる。具体的には、VRゴーグル15により投影されているVR検討場20の立体像21におけるユーザ指定部位に対する移動などの変更、追加、削除などの修正指示をユーザ操作部12cで行うことができる。
 音声伝送部12dは、ヘッドセット16のマイクにより取り込んだ検討者の音声の情報を通信装置12a及び通信ネットワーク25を経由して他の拠点に伝送することができる。また、音声伝送部12dは他の各拠点の検討者が発した音声の情報を通信ネットワーク25及び通信装置12aを介して受信し、ヘッドセット16のスピーカから音声として出力することができる。
 VRゴーグル15は、これを装着しているユーザの左右の目に立体的に認識可能な像をそれぞれ投影する機能を有している。
 VR映像生成部15aは、VR検討場20の三次元仮想空間における当該ユーザ(検討者P11~P41)の位置及び姿勢(例えば視線の方向)の状態を常時把握して、当該ユーザの視野の範囲を特定する。そして、VR検討場20の三次元仮想空間に存在する立体像21のデータのうち少なくとも当該ユーザの視野の範囲内のデータを会議管理サーバ30から取得し、当該ユーザの左右の目のそれぞれの視点位置から見える2種類の二次元画像データを立体像21のデータの座標変換により生成する。
 左目用ディスプレイ15bは、VR映像生成部15aが生成した左目用の二次元画像データをVR映像生成部15aから入力し、二次元画像として当該ユーザの左側の目の位置に投影する。
 右目用ディスプレイ15cは、VR映像生成部15aが生成した右目用の二次元画像データをVR映像生成部15aから入力し、二次元画像として当該ユーザの右側の目の位置に投影する。
 ユーザ姿勢検出部15dは、例えばカメラなどで撮影した当該ユーザの黒目の位置の追跡により、当該ユーザの視線の方向を検出する。あるいは、3軸の加速度センサなどを用いて当該ユーザの頭の向きを表す3軸方向の角度(ロール角、ピッチ角、ヨー角)を検出する。
 ユーザ姿勢検出部15dが検出した当該ユーザの姿勢、及びユーザ位置検出部12bが検出した位置の情報は、通信装置12a及び通信ネットワーク25を介して会議管理サーバ30に入力される。そして、当該ユーザの位置および姿勢は、会議管理サーバ30の処理によりVR検討場20内の仮想現実空間における対応する各アバターA11~A41の位置および姿勢に反映される。
 一方、図2に示した表示ユニット11は通信装置11a、二次元映像生成部11b、二次元ディスプレイ11c、ユーザ操作部11d、及び音声伝送部11eを備えている。
 通信装置11aは、通信ネットワーク25を経由して会議管理サーバ30と接続し、会議管理サーバ30との間でデータの送受信を行うことができる。具体的には、VR検討場20における立体像21のデータを会議管理サーバ30から周期的に取得する。
 また、通信装置11aは同じ拠点の投影ユニット12と接続されており、投影ユニット12を装着した検討者の視野の範囲と表示ユニット11の表示範囲とを同期させるために必要な情報を投影ユニット12から取得できる。
 二次元映像生成部11bは、同じ拠点内で投影ユニット12を装着している検討者の視野の範囲を投影ユニット12から送信される情報により特定し、この検討者の視野と同等の範囲について、VR検討場20の三次元仮想空間に存在する立体像21のデータを会議管理サーバ30から取得する。そして、検討者の視点位置から見える像の二次元画像データを立体像21のデータの座標変換により生成する。
 二次元ディスプレイ11cは、二次元映像生成部11bが生成した二次元画像データを二次元画像として画面上に表示する。なお、VRゴーグル15のVR映像生成部15aが生成する左右2種類の二次元画像データのいずれか一方を表示ユニット11が投影ユニット12から取得して二次元ディスプレイ11cに表示してもよい。
 ユーザ操作部11dは、例えば一般的な入力装置であるマウスやキーボードのように、ユーザによる各種ボタン操作や、座標入力操作を受付可能な機器である。本実施形態では、ユーザ操作部11dは各参加者P12~P42による入力操作を受け付けることができる。具体的には、二次元ディスプレイ11cの画面に表示されているVR検討場20の立体像21におけるユーザ指定部位に対する移動などの変更、追加、削除などの修正指示をユーザ操作部11dで行うことができる。
 音声伝送部11eは、ヘッドセット17のマイクにより取り込んだ参加者の音声の情報を通信装置11a及び通信ネットワーク25を経由して他の拠点に伝送することができる。また、音声伝送部11eは他の各拠点の検討者や参加者が発した音声の情報を通信ネットワーク25及び通信装置11aを介して受信し、ヘッドセット17のスピーカから音声として出力することができる。
<システムの動作>
 図4は、VR会議システム100の動作例における処理の流れを示すフローチャートである。図4に示した処理について以下に説明する。
 会議管理サーバ30上のVRデータ生成部35は、データベース管理部33が保持しているワイヤハーネスの設計データに基づいてVR検討場20のVR空間における立体像21の三次元データを生成する(S11)。また、アバター制御部36が管理している各アバターA11~A41についても、VRデータ生成部35がVR検討場20のVR空間における立体像21の三次元データを生成する。また、データベース管理部34が更新データを保持している場合には、その更新データの内容を反映して立体像21のデータを修正する。
 VR会議システム100を利用してオンライン会議を開始する時には、各拠点の検討者P11~P41が装着する投影ユニット12、及び各参加者P12~P42が使用する表示ユニット11を通信ネットワーク25を介して会議管理サーバ30と接続し互いに通信できる状態にする。
 各拠点の投影ユニット12は、会議管理サーバ30のVRデータ生成部35が生成したVR検討場20内の立体像21のデータを取得し、このデータを各検討者P11~P41の左右の目のそれぞれの視野に映る立体像に座標変換してVRゴーグル15で各検討者P11~P41が視認できるように投影する(S12)。
 また、各拠点の表示ユニット11は、会議管理サーバ30のVRデータ生成部35が生成したVR検討場20内の立体像21のデータを取得し、このデータを同じ拠点の各検討者P11~P41の視野に映る立体像とほぼ一致するように座標変換して二次元ディスプレイ11cの画面上に表示する(S12)。
 各検討者P11~P41がVRゴーグル15により投影された立体像を視認しながら現実空間で移動したり姿勢や視線を変化させると、この変化がユーザ位置検出部12b及びユーザ姿勢検出部15dにより検出される。そして、実空間における各検討者P11~P41の姿勢や視線の変化が当該検討者のVR検討場20内の視野の変化に反映される。
 VRゴーグル15のVR映像生成部15aは、当該検討者の視野の変化(S13)に合わせて、左目用ディスプレイ15b及び右目用ディスプレイ15cに投影する立体像を更新する(S14)。また、表示ユニット11の二次元映像生成部11bは、同じ拠点に存在する検討者の視野の変化(S13)に追従するように、二次元ディスプレイ11cに表示する画像を更新する(S14)。
 各拠点の検討者P11~P41は、ユーザ操作部12cを操作することで、自分の視野に映っている立体像の注目部位に必要に応じて変更を加えることができる(S15)。例えば、ワイヤハーネスの注目部位の形状を変化させたり、各冶具を配置する位置を移動したり、ワイヤハーネスの部品や冶具の追加や削除の操作を行うことができる。
 各拠点の検討者P11~P41の入力操作による修正入力は、投影ユニット12から通信ネットワーク25を経由して会議管理サーバ30に入力される。会議管理サーバ30の変更制御部37は、各検討者P11~P41からの修正入力を受け付けてその内容を更新データとしてデータベース管理部34に記録する(S16)。
 会議管理サーバ30のVRデータ生成部35は、データベース管理部34に新たな更新データが追加されたことを検出すると、VRデータ生成部35が生成するVR検討場20の立体像21に、更新データの修正内容を反映させて新たな立体像21のデータを生成する(S17)。
 会議管理サーバ30の通信装置31は、各拠点H1~H4のシステム機材10A~10Dのそれぞれに対して、VRデータ生成部35が生成した修正後の立体像21のデータを送信する(S18)。
 各拠点の投影ユニット12は、会議管理サーバ30から送信された修正後の立体像21のデータを取得し、このデータを各検討者P11~P41の左右の目のそれぞれの視野に映る立体像に座標変換してVRゴーグル15で各検討者P11~P41が視認できるように投影する(S19)。
 また、各拠点の表示ユニット11は、会議管理サーバ30から送信された修正後の立体像21のデータを取得し、このデータを同じ拠点の各検討者P11~P41の視野に映る立体像とほぼ一致するように座標変換して二次元ディスプレイ11cの画面上に表示する(S19)。
 したがって、図2及び図3に示したVR会議システム100を利用することにより、図1に示すように拠点H1の検討者P11および参加者P12と、拠点H2の検討者P21および参加者P22と、拠点H3の検討者P31および参加者P32と、拠点H4の検討者P41および参加者P42との全員が、共通のVR検討場20の仮想現実空間を利用して、移動することなくオンライン会議を行うことができる。
 特に、各検討者P11~P41はVRゴーグル15が投影する立体像21を実物と同様に立体的に認識することができ、しかも各自の移動や姿勢変化がVR検討場20の空間における各自の視野に反映されるので、検討が必要な部位の三次元形状や構造を詳細に確認することが容易である。
 また、各拠点の検討者P11~P14に相当するアバターA11~A41がVR検討場20の中の立体像21にも含まれているので、各検討者P11~P14は、他の検討者が確認しているワイヤハーネス上の部位や視線の方向なども認識できる。つまり、各検討者P11~P14は互いに異なる場所の拠点にいながら、お互いの相対的な位置関係などを容易に把握できるので、立体像21上の共通の検討対象部位を全員で確認する作業を、共通の実空間で会議を行う場合と同じように効率的に行うことができる。
 更に、各拠点の検討者P11~P14は、必要に応じて入力操作を行うことで、立体像21に対して変更、追加、削除などの修正操作を行うことができる。また、修正操作の結果が投影される立体像21の内容に反映されるので、各拠点の検討者P11~P14は修正後の立体像21の立体形状や構造を容易に把握できる。
 また、各拠点の参加者P12~P42は、同じ拠点の検討者P11~P14の視野に映っている立体像21とほぼ同じ範囲の二次元画像を表示ユニット11の画面表示により確認できる。そのため、各会場V1~V4内に実物模型等がない場合でも、参加者P12~P42も検討者P11~P14と同様に検討対象の部位の形状や構造を把握することが容易になる。
<製品開発作業の手順>
 製品開発における作業手順の例を図5に示す。すなわち、自動車に搭載するワイヤハーネスを製造する部品メーカー及びその関連会社が前述のVR会議システム100を利用する場合には、図5に示すような手順で開発作業を行うことが想定される。
 ワイヤハーネスの構成や形状の設計が完了した後、設計者はこのワイヤハーネスを製造する際の電線群等の配索作業に用いる多数の冶具のレイアウトを決定する(S21)。
 設計者は、事前に決定したワイヤハーネスの設計データと、S21で決定した冶具レイアウトのデータとを含む検討会用のデータをS22で構築する。このデータがデータベース管理部33に登録される。
 設計者および各拠点の担当者が、VR会議システム100を利用して第1回の検討会を実施する(S23)。この検討会の際には、VR会議システム100のVR検討場20を利用するので、設計者および各拠点の担当者は各自の拠点から移動することなくオンライン会議に参加することができる。
 設計者等は、第1回の検討会において冶具レイアウト等に関する問題点を洗い出し、ユーザ操作部12c等を利用して入力操作により、立体像21に対する修正操作を実施する(S24)。これにより投影される立体像21が修正され、修正内容を表す更新データがデータベース管理部34に登録される。
 設計者等は、データベース管理部34に登録されている全ての更新データの内容を反映するように、データベース管理部33上の設計データを再構築する(S25)。
 設計者および各拠点の担当者が、VR会議システム100を利用して第2回の検討会を実施する(S26)。この検討会の際には、VR会議システム100のVR検討場20を利用するので、設計者および各拠点の担当者は各自の拠点から移動することなくオンライン会議に参加することができる。
 図5に示すような作業手順の場合には、各拠点の担当者が移動することなく直ちにオンライン会議に参加して検討を開始できるので、検討会の開催周期を短縮することが可能であり、製品の開発期間も短縮できる。
 なお、本開示は、上述した実施形態に限定されるものではなく、適宜、変形、改良、等が可能である。その他、上述した実施形態における各構成要素の材質、形状、寸法、数、配置箇所、等は本開示を達成できるものであれば任意であり、限定されない。
 例えば、上述の実施形態では複数の拠点で自動車用のワイヤハーネスの設計について検討するためにVR会議システム100を使用してオンライン会議を開催する場合を想定しているが、ワイヤハーネスに限らず、様々な種類の製品をVR検討場20に立体像21として配置して検討対象とすることができる。
 また、会議管理サーバ30と同等の機能を複数の拠点のいずれかのシステム機材10A~10Dに搭載すれば、会議管理サーバ30を省略することも可能である。
 上述の仮想現実会議システムに関する特徴的な事項について、以下の[1]~[5]に簡潔に纏めて列挙する。
[1] 離隔した複数の拠点(H1~H4)にそれぞれ配置され、各拠点の使用者が認識できるVR空間(VR検討場20)内に、製品の設計データに基づいて生成された立体像(21)を投影する投影ユニット(12)と、
 前記複数の拠点それぞれにおいて、前記投影ユニットと接続され、前記使用者が認識している前記立体像を画面上に表示する表示ユニット(11)と、
 を備え、
 前記複数の拠点の前記表示ユニットは、互いに通信システムを介して接続され、
 少なくとも各前記表示ユニットおよび前記投影ユニットは、前記立体像に対する変更、追加、及び/又は削除を示す1つ以上の修正指示の入力を許容する入力部(ユーザ操作部12c、11d)を備え、
 一方の拠点の前記入力部において入力された前記修正指示が、前記通信システムを介して他方の拠点の前記表示ユニットに伝達されるとともに、各投影ユニットにおいて投影される立体像に当該修正指示が反映される(S15~S19)、
 仮想現実会議システム(VR会議システム100)。
 上記[1]の構成の仮想現実会議システムによれば、複数の拠点のそれぞれの検討者(使用者)が、投影ユニットの投影像を視認することで、全ての検討者が同じ立体像について同時に検討することが容易になる。また、表示ユニットの表示により、検討者以外の参加者も検討者と同様の像を認識しながら会議に参加することができる。更に、各検討者は立体像を確認しながらそれに変更を加えるための修正指示を入力することができ、この修正指示が各拠点で投影される立体像の内容に反映されるので、全ての検討者および参加者が修正の結果を容易に認識できる。
[2] 前記設計データは、少なくともワイヤハーネスにおける配索経路の立体形状を表す情報(データベース管理部33の内容)を含む、
 上記[1]に記載の仮想現実会議システム。
 上記[2]の構成の仮想現実会議システムによれば、複雑な立体形状を有するワイヤハーネスの製造工程などについて検討する場合であっても、ワイヤハーネスやその配索経路などについて立体形状を正確に再現した状態で立体像を投影できる。したがって、検討のためにワイヤハーネスの実物モデルなどを用意する必要もなく、各拠点の検討者が移動して1箇所に集まる必要もない。
[3] 1つ以上の前記拠点で前記投影ユニットを装着した特定使用者の姿勢および位置を検出する使用者状態検出部(ユーザ位置検出部12b、ユーザ姿勢検出部15d)と、
 前記使用者状態検出部が検出した前記姿勢および位置の変化を前記投影ユニットが投影する前記立体像の表示形態に反映する表示制御部(VR映像生成部15a)と、
 を更に備える上記[1]又は[2]に記載の仮想現実会議システム。
 上記[3]の構成の仮想現実会議システムによれば、前記投影ユニットを装着した検討者(特定使用者)自身が現実空間内で移動したり姿勢を変更するだけで、前記VR空間における視野の範囲が変更されるので、視野を変更するための特別な入力操作が不要になり効率的なオンライン会議が可能になる。
[4] 前記投影ユニットは、一人以上の前記特定使用者に対応するアバターの情報を前記立体像と共に前記VR空間内に投影するアバター制御部(36)を有し、
 前記アバター制御部は、前記特定使用者の少なくとも位置の変化を前記VR空間内に投影するアバターの位置に反映する、
 上記[3]に記載の仮想現実会議システム。
 上記[4]の構成の仮想現実会議システムによれば、前記VR空間内の立体像を見ている各検討者は、同じVR空間内に現れるアバターにより他の検討者が見て検討している箇所を容易に特定できる。したがって、複数の検討者が立体像の共通の検討対象部位を認識することが容易になる。
[5] 前記複数の拠点のそれぞれは音声入出力部(ヘッドセット16、音声伝送部12d)を備え、
 1つ以上の前記拠点で前記投影ユニットを装着した特定使用者が発した音声の情報は、前記通信システムを介して他の前記拠点の前記音声入出力部から出力される、
 上記[1]から[4]のいずれかに記載の仮想現実会議システム。
 上記[5]の構成の仮想現実会議システムによれば、複数の拠点に跨がるオンライン会議の場合でも、複数の検討者の間で音声を用いて検討事項を伝達できる。
 なお、本出願は、2022年3月28日出願の日本特許出願(特願2022-52161)に基づくものであり、その内容は本出願の中に参照として援用される。
 10A,10B,10C,10D システム機材
 11 表示ユニット
 11a 通信装置
 11b 二次元映像生成部
 11c 二次元ディスプレイ
 11d ユーザ操作部
 11e 音声伝送部
 12 投影ユニット
 12a 通信装置
 12b ユーザ位置検出部
 12c ユーザ操作部
 12d 音声伝送部
 13,14 位置センサ
 15 VRゴーグル
 15a VR映像生成部
 15b 左目用ディスプレイ
 15c 右目用ディスプレイ
 15d ユーザ姿勢検出部
 16,17 ヘッドセット
 20 VR検討場
 21 立体像
 25 通信ネットワーク
 30 会議管理サーバ
 31 通信装置
 32 参加者管理部
 33,34 データベース管理部
 35 VRデータ生成部
 36 アバター制御部
 37 変更制御部
 100 VR会議システム
 A11,A21,A31,A41 アバター
 H1,H2,H3,H4 拠点
 P11,P21,P31,P41 検討者
 P12,P22,P32,P42 参加者
 V1,V2,V3,V4 会場

Claims (5)

  1.  離隔した複数の拠点にそれぞれ配置され、各拠点の使用者が認識できるVR空間内に、製品の設計データに基づいて生成された立体像を投影する投影ユニットと、
     前記複数の拠点それぞれにおいて、前記投影ユニットと接続され、前記使用者が認識している前記立体像を画面上に表示する表示ユニットと、
     を備え、
     前記複数の拠点の前記表示ユニットは、互いに通信システムを介して接続され、
     少なくとも各前記表示ユニットおよび前記投影ユニットは、前記立体像に対する変更、追加、及び/又は削除を示す1つ以上の修正指示の入力を許容する入力部を備え、
     一方の拠点の前記入力部において入力された前記修正指示が、前記通信システムを介して他方の拠点の前記表示ユニットに伝達されるとともに、各投影ユニットにおいて投影される立体像に当該修正指示が反映される、
     仮想現実会議システム。
  2.  前記設計データは、少なくともワイヤハーネスにおける配索経路の立体形状を表す情報を含む、
     請求項1に記載の仮想現実会議システム。
  3.  1つ以上の前記拠点で前記投影ユニットを装着した特定使用者の姿勢および位置を検出する使用者状態検出部と、
     前記使用者状態検出部が検出した前記姿勢および位置の変化を前記投影ユニットが投影する前記立体像の表示形態に反映する表示制御部と、
     を更に備える請求項1又は請求項2に記載の仮想現実会議システム。
  4.  前記投影ユニットは、一人以上の前記特定使用者に対応するアバターの情報を前記立体像と共に前記VR空間内に投影するアバター制御部を有し、
     前記アバター制御部は、前記特定使用者の少なくとも位置の変化を前記VR空間内に投影するアバターの位置に反映する、
     請求項3に記載の仮想現実会議システム。
  5.  前記複数の拠点のそれぞれは音声入出力部を備え、
     1つ以上の前記拠点で前記投影ユニットを装着した特定使用者が発した音声の情報は、前記通信システムを介して他の前記拠点の前記音声入出力部から出力される、
     請求項1から請求項4のいずれか1項に記載の仮想現実会議システム。
PCT/JP2023/011665 2022-03-28 2023-03-23 仮想現実会議システム WO2023190091A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-052161 2022-03-28
JP2022052161A JP2023144939A (ja) 2022-03-28 2022-03-28 仮想現実会議システム

Publications (1)

Publication Number Publication Date
WO2023190091A1 true WO2023190091A1 (ja) 2023-10-05

Family

ID=88202091

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/011665 WO2023190091A1 (ja) 2022-03-28 2023-03-23 仮想現実会議システム

Country Status (2)

Country Link
JP (1) JP2023144939A (ja)
WO (1) WO2023190091A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133528A (ja) * 2018-02-01 2019-08-08 日立金属株式会社 ワイヤハーネスの設計支援方法
US20210026998A1 (en) * 2019-07-26 2021-01-28 Geopogo Rapid design and visualization of three-dimensional designs with multi-user input

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133528A (ja) * 2018-02-01 2019-08-08 日立金属株式会社 ワイヤハーネスの設計支援方法
US20210026998A1 (en) * 2019-07-26 2021-01-28 Geopogo Rapid design and visualization of three-dimensional designs with multi-user input

Also Published As

Publication number Publication date
JP2023144939A (ja) 2023-10-11

Similar Documents

Publication Publication Date Title
KR101918262B1 (ko) 혼합 현실 서비스 제공 방법 및 시스템
US10044982B2 (en) Providing a tele-immersive experience using a mirror metaphor
Tachi Telexistence: Past, present, and future
Lehner et al. Distributed virtual reality: Supporting remote collaboration in vehicle design
US20120038739A1 (en) Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
CN110770798B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
CA2702509A1 (en) System for supporting collaborative work
JP2020065229A (ja) 映像通信方法、映像通信装置及び映像通信プログラム
KR20200067537A (ko) 가상 환경 회의실 제공 시스템 및 방법
KR101651777B1 (ko) 사물인터넷 기반의 카메라 입력방식을 적용한 증강현실 3d 콘텐츠 디스플레이 모니터링 기능을 갖는 3d 프린팅 시스템 및 이를 이용한 3d 콘텐츠 제작방법
WO2023190091A1 (ja) 仮想現実会議システム
WO2023190093A1 (ja) 通信システム
WO2023190092A1 (ja) 立体像表示システム
EP4145397A1 (en) Communication terminal device, communication method, and software program
Schmidt et al. A layer-based 3d virtual environment for architectural collaboration
JP2021005347A (ja) 空間再現方法及び空間再現システム
JP2021081943A (ja) 仮想現実(vr)と拡張現実(ar)の画像情報を共有する画像共有システム
CN115053262A (zh) 空间识别系统、空间识别方法、信息终端以及服务器装置
KR102467017B1 (ko) 다중 사용자 간의 증강현실 커뮤니케이션 방법
KR102528581B1 (ko) 적응형 동시성 제어가 구현 가능한 확장 현실 서버
WO2024057642A1 (ja) 情報処理装置、情報処理方法、プログラム、および記憶媒体
US10469803B2 (en) System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display
CA2563866A1 (en) System for supporting collaborative work

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23780101

Country of ref document: EP

Kind code of ref document: A1