WO2021025190A1 - 전자 디바이스 및 이를 제작하는 방법 - Google Patents

전자 디바이스 및 이를 제작하는 방법 Download PDF

Info

Publication number
WO2021025190A1
WO2021025190A1 PCT/KR2019/009715 KR2019009715W WO2021025190A1 WO 2021025190 A1 WO2021025190 A1 WO 2021025190A1 KR 2019009715 W KR2019009715 W KR 2019009715W WO 2021025190 A1 WO2021025190 A1 WO 2021025190A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
cover
circuit board
opening
external signal
Prior art date
Application number
PCT/KR2019/009715
Other languages
English (en)
French (fr)
Inventor
이해선
채형석
황인덕
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/009715 priority Critical patent/WO2021025190A1/ko
Priority to US16/488,930 priority patent/US20210360778A1/en
Priority to KR1020190116997A priority patent/KR20190116195A/ko
Publication of WO2021025190A1 publication Critical patent/WO2021025190A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/02Details
    • H05K1/0274Optical details, e.g. printed circuits comprising integral optical means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/02Details
    • H05K1/0213Electrical arrangements not otherwise provided for
    • H05K1/0216Reduction of cross-talk, noise or electromagnetic interference
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/18Printed circuits structurally associated with non-printed electric components
    • H05K1/181Printed circuits structurally associated with non-printed electric components associated with surface mounted components
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/18Printed circuits structurally associated with non-printed electric components
    • H05K1/182Printed circuits structurally associated with non-printed electric components associated with components mounted in the printed circuit board, e.g. insert mounted components [IMC]
    • H05K1/184Components including terminals inserted in holes through the printed circuit board and connected to printed contacts on the walls of the holes or at the edges thereof or protruding over or into the holes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K2201/00Indexing scheme relating to printed circuits covered by H05K1/00
    • H05K2201/09Shape and layout
    • H05K2201/09009Substrate related
    • H05K2201/09072Hole or recess under component or special relationship between hole and component
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K2201/00Indexing scheme relating to printed circuits covered by H05K1/00
    • H05K2201/09Shape and layout
    • H05K2201/09818Shape or layout details not covered by a single group of H05K2201/09009 - H05K2201/09809
    • H05K2201/0999Circuit printed on or in housing, e.g. housing as PCB; Circuit printed on the case of a component; PCB affixed to housing
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K2201/00Indexing scheme relating to printed circuits covered by H05K1/00
    • H05K2201/10Details of components or other objects attached to or integrated in a printed circuit board
    • H05K2201/10007Types of components
    • H05K2201/10151Sensor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P70/00Climate change mitigation technologies in the production process for final industrial or consumer products
    • Y02P70/50Manufacturing or production processes characterised by the final manufactured product

Definitions

  • the present invention relates to an electronic device.
  • it relates to an electronic device used for VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), and a method of manufacturing the same.
  • VR Virtual Reality
  • Augmented Reality refers to a technology that synthesizes virtual objects or information in a real environment to make them look like objects existing in the original environment.
  • Mixed reality or hybrid reality refers to creating a new environment or new information by combining the virtual world and the real world.
  • mixed reality when it refers to the real-time interaction between reality and what exists in the virtual.
  • the created virtual environment or situation stimulates the user's five senses and allows them to freely enter the boundary between reality and imagination by allowing them to experience spatial and temporal similarities to the real world.
  • users can not only immerse themselves in this environment, but also interact with things implemented in this environment, such as manipulating or applying commands using an existing device.
  • the present invention is an electronic device that does not require a separate frame because the circuit board on which the sensor is mounted is supported on the cover when using electronic devices used for VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), etc. It has a purpose.
  • the electronic device includes a cover through which an external signal passes; A circuit board provided on one side of the cover and having a first opening through which the external signal passes; And a sensing unit provided on one side of the circuit board and provided at a position corresponding to the first opening and provided with a sensor unit configured to receive the external signal.
  • the cover further comprising a blocking member through which the external signal does not pass, wherein the blocking member has a second opening formed at a position corresponding to the first opening so that the difference Can pass the signal.
  • the sensing unit may include a fixing part fixed around the first opening and an opening exposed inside the first opening, and the sensor part may be provided in the opening.
  • a distance between an inner surface of the cover and one surface of the circuit board facing it may be closer than a distance between an inner surface of the cover and one surface of the sensor unit facing the inner surface of the cover.
  • one surface of the blocking member may contact one surface of the circuit board facing it.
  • the blocking member may be stacked on one surface of the circuit board.
  • the blocking member may be stacked on the inner surface of the cover.
  • the cover is provided with a thickness of an area corresponding to the second opening greater than that of an area in which the blocking member is disposed, and an area corresponding to the second opening of the cover and an inner surface of the blocking member are The same plane can be formed.
  • the sensing unit may further include a blocking protrusion that is inserted into the first opening and through which the external signal cannot pass, and the sensor unit may be provided inside the blocking protrusion.
  • a blocking coating through which the external signal cannot pass may be provided inside the blocking protrusion.
  • the blocking protrusion may have a groove recessed inside, and the sensor unit may be provided on a bottom surface of the groove.
  • one surface of the sensing unit on which the sensor unit is provided may be located closer to the cover than one side of the circuit board facing the surface facing the cover.
  • the sensing unit may have an insertion part inserted into the first opening, and the sensor part may be provided at an end of the insertion part.
  • the sensing unit may further include a fixing part protruded in a radial direction around the insertion part and fixed to one side of the circuit board.
  • an electronic device including at least one external controller that receives an external signal and transmits location information of a part of the user's body, and a display device that displays location information of the external controller on a screen.
  • the external controller comprises: a cover through which the external signal can pass; A circuit board provided on one side of the cover and having a first opening through which the external signal passes; And a sensing unit provided on one side of the circuit board and provided at a position corresponding to the first opening and provided with a sensor unit configured to receive the external signal.
  • the display device may be a head mounted display (HMD).
  • HMD head mounted display
  • a cover through which the external signal can pass is formed by an injection method, and the external signal is formed on one surface of the cover.
  • a blocking member through which a signal does not pass is formed in a double injection method, and an opening is formed in the blocking member to provide a window through which the external signal can pass, and a sensor unit is provided on one side of the circuit board in which the opening is formed.
  • a method of manufacturing an electronic device in which the circuit board is coupled to one of the cover or the blocking member, and the surface of the circuit board facing the surface on which the sensing unit is fixed is disposed so as to be close to the blocking member. I can.
  • the electronic device may receive the external signal, transmit location information of a part of the user's body, and use it for augmented reality.
  • the circuit board on which the sensor is mounted can be directly supported on the cover, a separate frame is not required, so that the volume and weight can be reduced.
  • a process time may be shortened and a defect rate may be reduced.
  • the process time can be shortened and a device having a thinner thickness can be provided.
  • the thickness of the device may be reduced by inserting the sensor unit into the opening of the circuit board.
  • 1 is a conceptual diagram showing an embodiment of an AI device.
  • FIG. 2 is a block diagram showing the configuration of an extended reality electronic device according to an embodiment of the present invention.
  • FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
  • FIG. 4 is a diagram showing a state in which a virtual reality electronic device is used.
  • FIG. 5 is a perspective view of a virtual reality electronic device according to another embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a controller used in a virtual reality electronic device.
  • FIG. 7 is a cross-sectional view showing an electronic device according to a comparative example of the present invention.
  • FIG. 8 is a cross-sectional view showing an electronic device according to a first embodiment of the present invention.
  • FIG. 9 is a diagram for describing a process of manufacturing an electronic device by a double injection process.
  • FIG. 10 is a cross-sectional view showing an electronic device according to a second embodiment of the present invention.
  • FIG. 11 is a cross-sectional view showing an electronic device according to a third embodiment of the present invention.
  • FIG. 12 is a cross-sectional view showing an electronic device according to a fourth embodiment of the present invention.
  • the three main requirements areas for 5G are (1) Enhanced Mobile Broadband (eMBB) area, (2) Massive Machine Type Communication (mMTC) area, and (3) ultra-reliability and It includes a low-latency communication (Ultra-reliable and Low Latency Communications, URLLC) area.
  • eMBB Enhanced Mobile Broadband
  • mMTC Massive Machine Type Communication
  • URLLC Low Latency Communications
  • KPI key performance indicator
  • eMBB goes far beyond basic mobile Internet access and covers rich interactive work, media and entertainment applications in the cloud or augmented reality.
  • Data is one of the key drivers of 5G, and it may not be possible to see dedicated voice services for the first time in the 5G era.
  • voice is expected to be processed as an application program simply using the data connection provided by the communication system.
  • the main reasons for the increased traffic volume are an increase in content size and an increase in the number of applications requiring high data rates.
  • Streaming services (audio and video), interactive video and mobile Internet connections will become more widely used as more devices connect to the Internet. Many of these applications require always-on connectivity to push real-time information and notifications to the user.
  • Cloud storage and applications are increasing rapidly in mobile communication platforms, which can be applied to both work and entertainment.
  • cloud storage is a special use case that drives the growth of the uplink data rate.
  • 5G is also used for remote work in the cloud, and requires much lower end-to-end delays to maintain a good user experience when tactile interfaces are used.
  • Entertainment For example, cloud gaming and video streaming is another key factor that is increasing the demand for mobile broadband capabilities. Entertainment is essential on smartphones and tablets anywhere, including high mobility environments such as trains, cars and airplanes.
  • Another use case is augmented reality and information retrieval for entertainment.
  • augmented reality requires very low latency and an instantaneous amount of data.
  • one of the most anticipated 5G use cases relates to the ability to seamlessly connect embedded sensors in all fields, i.e. mMTC.
  • mMTC massive machine type computer
  • Industrial IoT is one of the areas where 5G plays a major role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC includes new services that will transform the industry with ultra-reliable/low-latency links such as self-driving vehicles and remote control of critical infrastructure.
  • the level of reliability and delay is essential for smart grid control, industrial automation, robotics, drone control and coordination.
  • 5G can complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of providing streams rated at hundreds of megabits per second to gigabits per second. This high speed is required to deliver TV in 4K or higher (6K, 8K and higher) resolution as well as virtual reality and augmented reality.
  • Virtual Reality (VR) and Augmented Reality (AR) applications involve almost immersive sports events. Certain application programs may require special network settings. In the case of VR games, for example, game companies may need to integrate core servers with network operators' edge network servers to minimize latency.
  • Automotive is expected to be an important new driving force in 5G, with many use cases for mobile communication to vehicles. For example, entertainment for passengers demands simultaneous high capacity and high mobility mobile broadband. The reason is that future users will continue to expect high-quality connections, regardless of their location and speed.
  • Another application example in the automotive field is an augmented reality dashboard. It identifies an object in the dark on top of what the driver is looking through the front window, and displays information that tells the driver about the distance and movement of the object overlaid.
  • wireless modules enable communication between vehicles, exchange of information between the vehicle and supporting infrastructure, and exchange of information between the vehicle and other connected devices (eg, devices carried by pedestrians).
  • the safety system allows the driver to lower the risk of accidents by guiding alternative courses of action to make driving safer.
  • the next step will be a remote controlled or self-driven vehicle. It is very reliable and requires very fast communication between different self-driving vehicles and between the vehicle and the infrastructure. In the future, self-driving vehicles will perform all driving activities, and drivers will be forced to focus only on traffic abnormalities that the vehicle itself cannot identify.
  • the technical requirements of self-driving vehicles call for ultra-low latency and ultra-fast reliability to increase traffic safety to levels unachievable by humans.
  • Smart cities and smart homes referred to as smart society, will be embedded with high-density wireless sensor networks.
  • a distributed network of intelligent sensors will identify the conditions for cost and energy-efficient maintenance of a city or home.
  • a similar setup can be done for each household.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all wirelessly connected. Many of these sensors are typically low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • the smart grid interconnects these sensors using digital information and communication technologies to collect information and act accordingly. This information can include the behavior of suppliers and consumers, allowing smart grids to improve efficiency, reliability, economics, sustainability of production and the distribution of fuels such as electricity in an automated way.
  • the smart grid can also be viewed as another low-latency sensor network.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system can support telemedicine providing clinical care from remote locations. This can help reduce barriers to distance and improve access to medical services that are not consistently available in remote rural areas. It is also used to save lives in critical care and emergencies.
  • a wireless sensor network based on mobile communication may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing cables with reconfigurable wireless links is an attractive opportunity for many industries. However, achieving this requires that the wireless connection operates with a delay, reliability and capacity similar to that of the cable, and its management is simplified. Low latency and very low error probability are new requirements that need to be connected to 5G.
  • Logistics and freight tracking are important use cases for mobile communications that enable tracking of inventory and packages from anywhere using location-based information systems. Logistics and freight tracking use cases typically require low data rates, but require a wide range and reliable location information.
  • 1 is a conceptual diagram showing an embodiment of an AI device.
  • the AI system includes at least one of an AI server 20, a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15. It is connected with (10).
  • the robot 11 to which the AI technology is applied, the autonomous vehicle 12, the XR device 13, the smartphone 14, or the home appliance 15 may be referred to as AI devices 11 to 15.
  • the cloud network 10 may constitute a part of the cloud computing infrastructure or may mean a network that exists in the cloud computing infrastructure.
  • the cloud network 10 may be configured using a 3G network, a 4G or Long Term Evolution (LTE) network, or a 5G network.
  • LTE Long Term Evolution
  • the devices 11 to 15 and 20 constituting the AI system may be connected to each other through the cloud network 10.
  • the devices 11 to 15, 20 may communicate with each other through a base station, but may communicate with each other directly without through a base station.
  • the AI server 20 may include a server that performs AI processing and a server that performs an operation on big data.
  • the AI server 20 includes at least one of a robot 11, an autonomous vehicle 12, an XR device 13, a smartphone 14, or a home appliance 15, which are AI devices constituting an AI system, and a cloud network ( 10) is connected through, and can help at least part of the AI processing of the connected AI devices 11 to 15.
  • the AI server 20 may train an artificial neural network according to a machine learning algorithm in place of the AI devices 11 to 15, and may directly store the learning model or transmit it to the AI devices 11 to 15.
  • the AI server 20 receives input data from the AI devices 11 to 15, infers a result value for the received input data using a learning model, and a response or control command based on the inferred result value. Can be generated and transmitted to the AI devices (11 to 15).
  • the AI devices 11 to 15 may infer a result value for input data using a direct learning model, and generate a response or a control command based on the inferred result value.
  • the robot 11 is applied with AI technology and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, and the like.
  • the robot 11 may include a robot control module for controlling an operation, and the robot control module may refer to a software module or a chip implemented with hardware.
  • the robot 11 acquires status information of the robot 11 by using sensor information acquired from various types of sensors, detects (recognizes) the surrounding environment and objects, generates map data, and travels and travels. It can decide a plan, decide a response to user interaction, or decide an action.
  • the robot 11 may use sensor information obtained from at least one sensor among a lidar, a radar, and a camera in order to determine a moving route and a driving plan.
  • the robot 11 may perform the above operations using a learning model composed of at least one artificial neural network.
  • the robot 11 may recognize a surrounding environment and an object using the learning model, and may determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be directly learned by the robot 11 or learned by an external device such as the AI server 20.
  • the robot 11 may directly generate a result and perform an operation using a learning model, but it transmits sensor information to an external device such as the AI server 20 and receives the generated result to perform the operation. You can also do it.
  • the robot 11 determines a movement route and a driving plan by using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the determined movement path and travel plan. Accordingly, the robot 11 can be driven.
  • the map data may include object identification information on various objects arranged in a space in which the robot 11 moves.
  • the map data may include object identification information on fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • the object identification information may include a name, type, distance, and location.
  • the robot 11 may perform an operation or run by controlling a driving unit based on a user's control/interaction.
  • the robot 11 may acquire interaction intention information according to a user's motion or voice speech, and determine a response based on the obtained intention information to perform the operation.
  • the autonomous vehicle 12 may be implemented as a mobile robot, vehicle, or unmanned aerial vehicle by applying AI technology.
  • the autonomous driving vehicle 12 may include an autonomous driving control module for controlling an autonomous driving function, and the autonomous driving control module may refer to a software module or a chip implementing the same as hardware.
  • the autonomous driving control module may be included inside as a configuration of the autonomous driving vehicle 12, but may be configured and connected to the exterior of the autonomous driving vehicle 12 as separate hardware.
  • the autonomous vehicle 12 acquires status information of the autonomous vehicle 12 by using sensor information acquired from various types of sensors, detects (recognizes) surrounding environments and objects, or generates map data, It is possible to determine a travel route and a driving plan, or to determine an action.
  • the autonomous vehicle 12 may use sensor information obtained from at least one sensor from among a lidar, a radar, and a camera, similar to the robot 11, in order to determine a moving route and a driving plan.
  • the autonomous vehicle 12 may recognize an environment or object in an area where the view is obscured or an area greater than a certain distance by receiving sensor information from external devices or directly recognized information from external devices. .
  • the autonomous vehicle 12 may perform the above operations using a learning model composed of at least one artificial neural network.
  • the autonomous vehicle 12 may recognize the surrounding environment and objects using the learning model, and may determine the driving movement using the recognized surrounding environment information or object information.
  • the learning model may be directly learned by the autonomous vehicle 12 or learned by an external device such as the AI server 20.
  • the autonomous vehicle 12 may directly generate a result and perform an operation using a learning model, but it transmits sensor information to an external device such as the AI server 20 and receives the result generated accordingly. You can also perform actions.
  • the autonomous vehicle 12 determines a movement path and a driving plan using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the determined movement path and driving.
  • the autonomous vehicle 12 can be driven according to a plan.
  • the map data may include object identification information on various objects arranged in a space (eg, a road) in which the autonomous vehicle 12 travels.
  • the map data may include object identification information on fixed objects such as street lights, rocks, and buildings, and movable objects such as vehicles and pedestrians.
  • the object identification information may include a name, type, distance, and location.
  • the autonomous vehicle 12 may perform an operation or run by controlling a driving unit based on a user's control/interaction.
  • the autonomous vehicle 12 may obtain information on intention of interaction according to a user's motion or voice speech, and determine a response based on the obtained intention information to perform the operation.
  • the XR device 13 is applied with AI technology, such as HMD (Head-Mount Display), HUD (Head-Up Display) provided in the vehicle, TV, mobile phone, smart phone, computer, wearable device, home appliance, digital signage. , A vehicle, a fixed robot, or a mobile robot.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • the XR device 13 analyzes 3D point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for 3D points, thereby providing information on surrounding spaces or real objects.
  • the XR object to be acquired and output can be rendered and output.
  • the XR apparatus 13 may output an XR object including additional information on the recognized object in correspondence with the recognized object.
  • the XR device 13 may perform the above operations using a learning model composed of at least one artificial neural network.
  • the XR apparatus 13 may recognize a real object from 3D point cloud data or image data using a learning model, and may provide information corresponding to the recognized real object.
  • the learning model may be directly learned by the XR device 13 or learned by an external device such as the AI server 20.
  • the XR device 13 may perform an operation by generating a result using a direct learning model, but it transmits sensor information to an external device such as the AI server 20 and operates by receiving the result generated accordingly. You can also do
  • the robot 11 may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc. by applying AI technology and autonomous driving technology.
  • the robot 11 to which AI technology and autonomous driving technology are applied may refer to a robot itself having an autonomous driving function, or a robot 11 that interacts with the autonomous driving vehicle 12.
  • the robot 11 having an autonomous driving function may collectively refer to devices that move by themselves according to a given movement line without the user's control or by determining the movement line by themselves.
  • the robot 11 and the autonomous vehicle 12 having an autonomous driving function may use a common sensing method to determine one or more of a moving route or a driving plan.
  • the robot 11 and the autonomous vehicle 12 having an autonomous driving function may determine one or more of a movement route or a driving plan using information sensed through a lidar, a radar, and a camera.
  • the robot 11 interacting with the autonomous driving vehicle 12 exists separately from the autonomous driving vehicle 100b100a and is linked to an autonomous driving function inside or outside the autonomous driving vehicle 12, or ), you can perform an operation associated with the user on board.
  • the robot 11 interacting with the autonomous vehicle 12 acquires sensor information on behalf of the autonomous vehicle 12 and provides it to the autonomous vehicle 12, or acquires sensor information and provides information on the surrounding environment.
  • object information may be generated and provided to the autonomous vehicle 12 to control or assist the autonomous driving function of the autonomous vehicle 12.
  • the robot 11 interacting with the autonomous vehicle 12 may monitor a user aboard the autonomous vehicle 12 or control the functions of the autonomous vehicle 12 through interaction with the user. .
  • the robot 11 may activate an autonomous driving function of the autonomous driving vehicle 12 or assist the control of a driving unit of the autonomous driving vehicle 12.
  • the functions of the autonomous driving vehicle 12 controlled by the robot 11 may include not only an autonomous driving function, but also functions provided by a navigation system or an audio system provided inside the autonomous driving vehicle 12.
  • the robot 11 interacting with the autonomous vehicle 12 may provide information or assist a function to the autonomous vehicle 12 from the outside of the autonomous vehicle 12.
  • the robot 11 may provide traffic information including signal information to the autonomous vehicle 12 such as a smart traffic light, or interact with the autonomous vehicle 12 such as an automatic electric charger of an electric vehicle. You can also automatically connect an electric charger to the charging port.
  • the robot 11 may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, a drone, etc. by applying AI technology and XR technology.
  • the robot 11 to which the XR technology is applied may refer to a robot that is an object of control/interaction in an XR image.
  • the robot 11 is separated from the XR device 13 and can be interlocked with each other.
  • the robot 11 which is the object of control/interaction in the XR image, acquires sensor information from sensors including a camera, the robot 11 or the XR device 13 generates an XR image based on the sensor information. And, the XR device 13 may output the generated XR image. In addition, the robot 11 may operate based on a control signal input through the XR device 13 or a user's interaction.
  • the user can check the XR image corresponding to the viewpoint of the robot 11 remotely linked through an external device such as the XR device 13, and adjust the autonomous driving path of the robot 11 through interaction.
  • You can control motion or driving, or check information on surrounding objects.
  • the autonomous vehicle 12 may be implemented as a mobile robot, a vehicle, or an unmanned aerial vehicle by applying AI technology and XR technology.
  • the self-driving vehicle 12 to which the XR technology is applied may refer to an autonomous vehicle having a means for providing an XR image, or an autonomous vehicle that is an object of control/interaction within the XR image.
  • the autonomous vehicle 12, which is an object of control/interaction in the XR image is distinguished from the XR device 13 and may be interlocked with each other.
  • the autonomous vehicle 12 provided with a means for providing an XR image may obtain sensor information from sensors including a camera, and may output an XR image generated based on the acquired sensor information.
  • the autonomous vehicle 12 may provide a real object or an XR object corresponding to an object in a screen to the occupant by outputting an XR image with a HUD.
  • the XR object when the XR object is output to the HUD, at least a part of the XR object may be output so that it overlaps with the actual object facing the passenger's gaze.
  • the XR object when the XR object is output on a display provided inside the autonomous vehicle 12, at least a part of the XR object may be output to overlap the object in the screen.
  • the autonomous vehicle 12 may output XR objects corresponding to objects such as lanes, other vehicles, traffic lights, traffic signs, motorcycles, pedestrians, and buildings.
  • the autonomous vehicle 12 When the autonomous vehicle 12 that is the object of control/interaction in the XR image acquires sensor information from sensors including a camera, the autonomous vehicle 12 or the XR device 13 is based on the sensor information. An XR image is generated, and the XR device 13 may output the generated XR image. In addition, the autonomous vehicle 12 may operate based on a control signal input through an external device such as the XR device 13 or a user's interaction.
  • Extended reality collectively refers to virtual reality (VR), augmented reality (AR), and mixed reality (MR).
  • VR technology provides only CG images of real world objects or backgrounds
  • AR technology provides virtually created CG images on top of real object images
  • MR technology is a computer that mixes and combines virtual objects in the real world. It is a graphic technology.
  • MR technology is similar to AR technology in that it shows real and virtual objects together.
  • virtual objects are used in a form that complements real objects
  • MR technology virtual objects and real objects are used with equal characteristics.
  • XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices applied with XR technology are XR devices. It can be called as.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phones tablet PCs, laptops, desktops, TVs, digital signage, etc.
  • devices applied with XR technology are XR devices. It can be called as.
  • FIG. 2 is a block diagram showing a configuration of an extended reality electronic device 20 according to an embodiment of the present invention.
  • the extended reality electronic device 20 includes a wireless communication unit 21, an input unit 22, a sensing unit 23, an output unit 24, an interface unit 25, a memory 26, and a control unit ( 27) and a power supply unit 28, and the like.
  • the components shown in FIG. 2 are not essential in implementing the electronic device 20, so the electronic device 20 described herein may have more or fewer components than the components listed above. .
  • the wireless communication unit 21 is a wireless communication unit between the electronic device 20 and a wireless communication system, between the electronic device 20 and other electronic devices, or between the electronic device 20 and an external server. It may include one or more modules that enable communication. In addition, the wireless communication unit 21 may include one or more modules that connect the electronic device 20 to one or more networks.
  • the wireless communication unit 21 may include at least one of a broadcast reception module, a mobile communication module, a wireless Internet module, a short range communication module, and a location information module.
  • the input unit 22 includes a camera or video input unit for inputting an image signal, a microphone or audio input unit for inputting an audio signal, and a user input unit for receiving information from a user (for example, a touch key). , Push key (mechanical key, etc.).
  • the voice data or image data collected by the input unit 22 may be analyzed and processed as a user's control command.
  • the sensing unit 23 may include one or more sensors for sensing at least one of information in the electronic device 20, information on surrounding environments surrounding the electronic device 20, and user information.
  • the sensing unit 23 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor (G- sensor), gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint recognition sensor, ultrasonic sensor, optical sensor ( optical sensor (e.g., photographing means), microphone, battery gauge, environmental sensor (e.g., barometer, hygrometer, thermometer, radiation sensor, heat sensor, gas sensor, etc.), It may include at least one of a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the electronic device 20 disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 24 is for generating output related to visual, auditory or tactile sense, and may include at least one of a display unit, an audio output unit, a hap tip module, and a light output unit.
  • the display unit forms a layered structure with the touch sensor or is integrally formed, thereby implementing a touch screen.
  • Such a touch screen may function as a user input means providing an input interface between the augmented reality electronic device 20 and the user, and may provide an output interface between the augmented reality electronic device 20 and the user.
  • the interface unit 25 serves as a passage for various types of external devices connected to the electronic device 20. Through the interface unit 25, the electronic device 20 may receive virtual reality or augmented reality content from an external device, and may perform mutual interaction by exchanging various input signals, sensing signals, and data.
  • the interface unit 25 includes a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a connection port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port.
  • I/O audio input/output
  • video I/O input/output
  • earphone port an earphone port
  • the memory 26 stores data supporting various functions of the electronic device 20.
  • the memory 26 may store a plurality of application programs or applications driven by the electronic device 20, data for operation of the electronic device 20, and instructions. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the electronic device 20 from the time of shipment for basic functions of the electronic device 20 (eg, incoming calls, outgoing functions, message receiving and outgoing functions).
  • control unit 27 In addition to the operation related to the application program, the control unit 27 generally controls the overall operation of the electronic device 20.
  • the controller 27 may process signals, data, information, etc. that are input or output through the above-described components.
  • controller 27 may control at least some of the components by driving the application program stored in the memory 26 to provide appropriate information or process functions to the user.
  • control unit 27 may operate by combining at least two or more of the components included in the electronic device 20 to drive the application program.
  • the controller 27 may detect the movement of the electronic device 20 or a user using a gyroscope sensor, a gravity sensor, a motion sensor, etc. included in the sensing unit 23.
  • the control unit 27 may detect an object approaching the electronic device 20 or the user using a proximity sensor, an illuminance sensor, a magnetic sensor, an infrared sensor, an ultrasonic sensor, an optical sensor, etc. included in the sensing unit 23. have.
  • the control unit 27 may detect the user's movement through sensors provided in the controller operating in conjunction with the electronic device 20.
  • controller 27 may perform an operation (or function) of the electronic device 20 using an application program stored in the memory 26.
  • the power supply unit 28 receives external power or internal power under the control of the controller 27 and supplies power to each of the components included in the electronic device 20.
  • the power supply unit 28 includes a battery, and the battery may be provided in a built-in or replaceable form.
  • At least some of the above components may operate in cooperation with each other to implement an operation, control, or control method of an electronic device according to various embodiments described below. Further, the operation, control, or control method of the electronic device may be implemented on the electronic device by driving at least one application program stored in the memory 26.
  • a mobile phone a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistants (PDA), a portable multimedia player (PMP), a navigation system, and a slate PC ( slate PC), a tablet PC, an ultrabook, and a wearable device.
  • PDA personal digital assistants
  • PMP portable multimedia player
  • slate PC slate PC
  • the wearable device may include a smart watch.
  • FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
  • the augmented reality electronic device may be provided in a glass type.
  • the glass-type electronic device 100 is configured to be worn on the head of the human body, and may include a frame portion (case, housing, etc.) 101 for this.
  • the frame portion may be formed of a flexible material to facilitate wearing.
  • the frame part 101 is supported on the head and provides a space in which various parts are mounted. As shown, electronic components such as the control unit 103 and the sound output unit 104 may be mounted on the frame unit 101. In addition, a lens 102 covering at least one of the left eye and the right eye may be detachably mounted on the frame portion.
  • the control unit 103 is configured to control various electronic components provided in the electronic device 100.
  • the control unit 103 is installed on the frame portion on one side of the head.
  • the location of the control unit 103 is not limited thereto.
  • the display unit 105 may be implemented in the form of a head mounted display (HMD).
  • HMD type refers to a display method that is mounted on the head and displays an image directly in front of the user's eyes.
  • the display unit 105 may be disposed to correspond to at least one of the left eye and the right eye so that an image can be directly provided in front of the user's eyes.
  • the display unit 105 is located at a portion corresponding to the right eye so that an image can be output toward the user's right eye.
  • the display unit 105 may project an image on the display area using a prism.
  • the prism may be formed to be light-transmitting so that the user can see the projected image and the general field of view (a range that the user sees through the eyes) together.
  • the electronic device 100 may provide an Augmented Reality (AR) that displays a single image by superimposing a virtual image on a real image or a background by using the characteristics of the display.
  • AR Augmented Reality
  • the photographing means 106 is disposed adjacent to at least one of the left eye and the right eye, and is formed to photograph a front image. Since the photographing means 106 is located adjacent to the eye, the photographing means 106 can acquire a scene viewed by the user as an image.
  • the photographing means 106 is provided in the control module 103, but is not limited thereto.
  • the photographing means 106 may be installed on the frame unit 101 or may be provided in plural to obtain a three-dimensional image.
  • the glass type electronic device 100 may include a user input unit 107 operated to receive a control command.
  • the user input unit 107 provides a tactile manner, such as a touch, a push, and the like, a gesture manner that recognizes the movement of the user's hand without a direct touch, or a voice command.
  • Various methods can be employed, including recognition methods.
  • the frame unit or the control module 480 is provided with the user input unit 107 of the push and touch input method.
  • the glass-type electronic device 100 may be provided with a microphone that receives sound and processes it as electrical voice data, and a sound output unit 104 that outputs sound.
  • the sound output unit 104 may be configured to transmit sound through a general sound output method or a bone conduction method. When the sound output unit 104 is implemented in a bone conduction method, when the user wears the electronic device 100, the sound output unit 104 is in close contact with the head and vibrates the skull to transmit sound.
  • FIG. 3 is a perspective view of an augmented reality electronic device according to an embodiment of the present invention.
  • the augmented reality electronic device may be provided in a glass type (smart glass).
  • the glass-type electronic device 100 is configured to be worn on the head of the human body, and may include a frame portion (case, housing, etc.) 101 for this.
  • the frame portion may be formed of a flexible material to facilitate wearing.
  • the frame part 101 is supported on the head and provides a space in which various parts are mounted. As shown, electronic components such as the control unit 103 and the sound output unit 104 may be mounted on the frame unit 101. In addition, a lens 102 covering at least one of the left eye and the right eye may be detachably mounted on the frame portion.
  • the control unit 103 is configured to control various electronic components provided in the electronic device 100.
  • the control unit 103 is installed on the frame portion on one side of the head.
  • the location of the control unit 103 is not limited thereto.
  • the display unit 105 may be implemented in the form of a head mounted display (HMD).
  • HMD type refers to a display method that is mounted on the head and displays an image directly in front of the user's eyes.
  • the display unit 105 may be disposed to correspond to at least one of the left eye and the right eye so that an image can be directly provided in front of the user's eyes.
  • the display unit 105 is located at a portion corresponding to the right eye so that an image can be output toward the user's right eye.
  • the display unit 105 may project an image on the display area using a prism.
  • the prism may be formed to be light-transmitting so that the user can see the projected image and the general field of view (a range that the user sees through the eyes) together.
  • the electronic device 100 may provide an Augmented Reality (AR) that displays a single image by superimposing a virtual image on a real image or a background by using the characteristics of the display.
  • AR Augmented Reality
  • the photographing means 106 is disposed adjacent to at least one of the left eye and the right eye, and is formed to photograph a front image. Since the photographing means 106 is located adjacent to the eye, the photographing means 106 can acquire a scene viewed by the user as an image.
  • the photographing means 106 is provided in the control module 103, but is not limited thereto.
  • the photographing means 106 may be installed on the frame unit 101 or may be provided in plural to obtain a three-dimensional image.
  • the glass type electronic device 100 may include a user input unit 107 operated to receive a control command.
  • the user input unit 107 provides a tactile manner, such as a touch, a push, and the like, a gesture manner that recognizes the movement of the user's hand without a direct touch, or a voice command.
  • Various methods can be employed, including recognition methods.
  • the frame unit or the control module 480 is provided with the user input unit 107 of the push and touch input method.
  • the glass-type electronic device 100 may be provided with a microphone that receives sound and processes it as electrical voice data, and a sound output unit 104 that outputs sound.
  • the sound output unit 104 may be configured to transmit sound through a general sound output method or a bone conduction method. When the sound output unit 104 is implemented in a bone conduction method, when the user wears the electronic device 100, the sound output unit 104 is in close contact with the head and vibrates the skull to transmit sound.
  • FIG. 4 is a view showing a state in which a virtual reality electronic device is used
  • FIG. 5 is a perspective view of a virtual reality electronic device according to another embodiment of the present invention.
  • Figure 6 is a diagram showing a controller used in the virtual reality electronic device.
  • the virtual reality electronic device may include a virtual reality electronic device 200 mounted on a user's head and controllers 210 (210a, 210b) that can be gripped and operated by the user.
  • the virtual reality electronic device 200 includes a head unit 201 worn and supported on the head of a human body, and a display unit 202 coupled to the head unit 201 to display a virtual image or image in front of the user's eyes. do.
  • the head unit 201 and the display unit 202 are configured as separate units and are shown to be coupled to each other. Unlike this, the display unit 202 may be integrally configured with the head unit 201.
  • the head unit 201 may adopt a structure surrounding the user's head so that the weight of the display unit 202 having a sense of weight can be distributed.
  • a band having a variable length may be provided to fit the size of the head of each different user.
  • the display unit 202 includes a cover unit 203 coupled to the head unit 201 and a display unit 204 accommodating the display panel therein.
  • the cover part 203 is also referred to as a goggle frame, and may have a tub shape as a whole.
  • the cover part 203 has a space inside and an opening corresponding to the position of the user's eyeball is formed on the front side.
  • the display unit 204 is mounted on the front frame of the cover unit 203 and is provided at a position corresponding to the user's amount to output screen information (images or images).
  • the screen information output from the display unit 204 includes not only virtual reality content, but also external images collected through photographing means such as a camera.
  • the virtual reality content output on the display unit 204 may be stored in the electronic device 100 itself or may be stored in the external device 230.
  • the electronic device 100 performs image processing and rendering processing for processing the image of the virtual space, and the image processing and rendering processing result
  • the generated image information may be output through the display unit 204.
  • the external device 230 may perform image processing and rendering processing and transmit the resulting image information to the electronic device 100. Then, the electronic device 100 may output 3D image information received from the external device 230 through the display unit 204.
  • the display unit 204 includes a display panel provided in front of the opening of the cover unit 203, and the display panel may be an LCD or OLED panel.
  • the display unit 204 may be a display unit of a smartphone. That is, a structure in which the smartphone can be detached in front of the cover unit 203 may be adopted.
  • a photographing means 206 and various sensing units 207 may be installed in front of the display unit 202.
  • the photographing means 206 (eg, a camera) is formed to photograph (receive, input) an image in front, and in particular, may acquire a scene viewed by the user as an image.
  • one photographing means 206 is provided at a central position of the display unit 204, but unlike this, two or more photographing means 206 may be provided at positions symmetrical to each other.
  • a stereoscopic image may be obtained.
  • An image obtained by combining a virtual image with an external image obtained from the photographing means 206 may be displayed through the display unit 204.
  • the sensing unit 207 may include a gyroscope sensor, a motion sensor, or an IR sensor.
  • the sensing unit 207 may detect a user's position or movement, or may detect a nearby object.
  • FIG. 5 it is shown that a plurality of sensing units 207 are provided at symmetrical positions of the display unit 204, but unlike this, one sensing unit 207 is provided or may be provided at a position other than the display unit 204. I can.
  • the sensing unit 207 will be described in more detail later.
  • a facial pad 204 may be installed at the rear of the display unit 202.
  • the face pad 204 is in close contact with the user's eyeball and is made of a cushioned material to provide a comfortable fit to the user's face.
  • the face pad 204 has a shape corresponding to the front contour of a person's face, but is made of a flexible material, so that it can be in close contact with the face even with the face shape of different users, thereby preventing external light from entering the eyes.
  • the virtual reality electronic device 200 may include a user input unit operated to receive a control command, and an audio output unit and a control unit. The description of this is the same as before, so it will be omitted.
  • the virtual reality electronic device may include controllers 210 (210a, 210b) for controlling operations related to a virtual space image displayed through the virtual reality electronic device 200 as a peripheral device.
  • the controller 210 may be provided in a form in which a user can easily grip both hands, and a touch pad (or track pad) for receiving a user input, a button, and the like may be provided on an outer surface thereof.
  • the controller 210 may be used to control a screen displayed on the display unit 204 in connection with the electronic device 200.
  • the controller 210 may include a grip part 211 gripped by a user and a head part 212 extending from the grip part 211 and including various sensors and a microprocessor.
  • the grip part 211 may be formed in a vertically long bar shape so that the user can easily grasp it, and the head part 212 may be formed in a ring shape.
  • controller 210 may include a user input unit 213 and a sensing unit 214.
  • a user input unit 213 may be provided in the grip unit 211 of the controller 200.
  • the user input unit 213 may include, for example, keys disposed on one side of the grip unit 211, a touch pad (track pad), and a trigger button provided on one side of the grip unit 213.
  • a sensing unit 214 may be provided on the head 212 of the controller 200.
  • the sensing unit 214 may include a gyroscope sensor, a motion sensor, or an IR sensor.
  • the sensing unit 214 may detect a user's position or movement, or may detect surrounding objects.
  • the IR sensor is used to track a user's motion by receiving light emitted from the location tracking device 220 to be described later.
  • the motion tracking sensor may be configured by including a 3-axis acceleration sensor, a 3-axis gyroscope, and a digital motion processor as one assembly.
  • a plurality of sensing units 214 are provided in a symmetrical position in front of the head part 212, but unlike this, one sensing unit 214 is provided or provided in a position other than the head part 212. Can be.
  • the controller 200 may perform feedback corresponding to a signal received from the controller of the electronic device 100.
  • the controller 200 may transmit a feedback signal to a user through vibration, sound, or light.
  • the user may access the external environment image checked through the photographing means 206 provided in the electronic device 200 through manipulation of the controller 210. That is, the user can immediately check the external environment through manipulation of the controller 210 without taking off the electronic device 200 even during virtual space experience.
  • the virtual reality electronic device may further include a location tracking device 220.
  • the location tracking device 220 detects the location of the virtual reality electronic device 200 or the controller 210 by applying a positional tracking technology called a lighthouse system, and uses this to detect the user's 360-degree motion. Help to track
  • the location tracking system may be implemented by installing one or more location tracking device devices 220 (220a, 220b) in a closed specific space.
  • the plurality of location tracking devices 220 may be installed in a location in which a recognizable spatial range can be maximized, for example, in a location facing each other in a diagonal direction.
  • the electronic device 200 or the controller 210 receives light emitted from LEDs or laser emitters included in the plurality of position tracking devices 220, and based on the correlation between the position and time at which the light is received, It is possible to accurately determine the user's location within a specific closed space.
  • the location tracking device 220 may include an IR lamp and a two-axis motor, respectively, through which signals are exchanged with the virtual reality electronic device 200 or the controller 210.
  • the virtual reality electronic device 200 may perform wired/wireless communication with an external device.
  • the virtual reality electronic device 200 may receive a virtual space image stored in a connected external device 230 (eg, a PC, a smartphone, or a tablet) and display it to the user.
  • a connected external device 230 eg, a PC, a smartphone, or a tablet
  • controller 210 and the location tracking device 220 described above are not essential configurations, they may be omitted in the embodiment of the present invention.
  • a user input unit installed in the virtual reality electronic device 200 may replace the controller 220 and may determine location information by itself from the sensing unit 207 installed in the virtual reality electronic device 200. .
  • the electronic device 500 includes a cover 600 through which an external signal passes, a circuit board 800 provided inside the cover 600 and on which an electronic circuit is formed, and a circuit board. It is provided under the 800 and includes a sensing unit 900 for receiving an external signal.
  • the cover 600 forms an outline of the electronic device 500 and protects a configuration such as an electronic circuit provided in the internal space from external impacts.
  • a microprocessor and various sensing units 900 may be accommodated in the inner space surrounded by the cover 600.
  • the circuit board 800 is a board on which a circuit connecting the microprocessor and the sensing unit 900 is formed, and may be provided as a flexible printed circuit board 800 that can be bent or bent.
  • the circuit board 800 includes a source circuit board and a control circuit board depending on the type, and the source circuit board and the control circuit board may be connected through a flexible cable such as a flexible flat cable (FFC) or a flexible printed circuit (FPC). have.
  • a flexible cable such as a flexible flat cable (FFC) or a flexible printed circuit (FPC).
  • the sensing unit 900 may include one or more sensors for sensing at least one of information in the electronic device, information on surrounding environments surrounding the electronic device, and user information.
  • the sensing unit 900 includes a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and a gravity sensor (G- sensor), gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint recognition sensor, ultrasonic sensor, optical sensor ( optical sensor (e.g., photographing means), microphone, battery gauge, environmental sensor (e.g., barometer, hygrometer, thermometer, radiation sensor, heat sensor, gas sensor, etc.), It may include at least one of a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the control unit (microprocessor) mounted on the circuit board 800 uses a gyroscope sensor, a gravity sensor, a motion sensor, an infrared sensor (IR sensor), or a light sensor included in the sensing unit 900. ) Or the user's position or movement.
  • the motion sensor may be configured by including a 3-axis acceleration sensor, a 3-axis gyroscope, and a digital motion processor as one assembly.
  • the control unit obtains information on the user's location or movement through a signal recognized from the sensing unit 900, and processes this information. It can be displayed as image information on the display unit.
  • the control unit obtains information on the position or movement of the hand holding the controller through a signal recognized from the sensing unit 900, and stores this information on the HMD or externally. It can be delivered wired or wirelessly to the device.
  • control unit may detect an object approaching the electronic device 500 or the user using a proximity sensor, an illuminance sensor, a magnetic sensor, an infrared sensor, an ultrasonic sensor, an optical sensor, etc. included in the sensing unit 900. .
  • the sensing unit 900 will be described based on an optical sensor (including an IR sensor). However, of course, various types of sensors listed above can be used.
  • the optical sensor can be used to track user motion by receiving light emitted from the location tracking device.
  • external light may be received and linked to the display of the HMD through related information.
  • the optical sensor may be covered with an infrared filter to be protected from external environments.
  • the electronic device 500 may further include a frame 1000 for fixing the circuit board 800.
  • the frame 1000 may be made of a material having more rigidity than the circuit board 800, and may be provided in a shape corresponding to the inner curvature of the cover 600, or the circuit board 800 is spaced apart from the cover 600 It can be arranged so as not to interfere with 600.
  • FIG. 7 is a cross-sectional view illustrating an electronic device 500 according to a comparative embodiment of the present invention.
  • a circuit board 800 and a sensing unit 900 are disposed in an inner space under the cover 600, and a frame 1000 supporting the circuit board 800 is additionally provided. Equipped.
  • the circuit board 800 is in close contact with the frame 1000 to be fixed, and the sensing unit 900 is mounted at a point of the circuit board 800.
  • the sensing unit 900 includes a sensor unit 910 for receiving an external signal and a fixing unit 920 for mounting the sensor unit 910 to the circuit board 800.
  • the fixing part 920 may be provided in a flange shape, and may be firmly fixed to the circuit board 800, and may have a groove in which the sensor part 910 is inserted in a central portion.
  • the sensor unit 910 is inserted into the groove of the fixing unit 920 and is provided with an upper portion open to receive an external signal (a light signal such as laser or infrared).
  • the sensor unit 910 may be a photo diode.
  • the fixing part 920 may include a wire connecting the sensor part 910 and the circuit of the circuit board 800, and may transmit a signal to the microprocessor through the wire and the circuit.
  • a cover 600 is disposed on the circuit board 800.
  • the cover 600 is fixed at a position spaced apart from the sensor unit 910 by a predetermined distance.
  • the frame 1000 and the cover 600 may be coupled to each other at intervals such that the sensing unit 900 does not interfere.
  • the frame 1000 and the cover 600 may be rigidly coupled while maintaining a certain distance using a bolt or pin structure, and for this, a rib and a boss structure may be formed.
  • the cover 600 may be made of a light transmitting material. Although the entire cover 600 may be formed of a light-transmitting material, only the cover 600 in an area where the sensor unit 910 is located may be formed of a light-transmitting material.
  • an optical signal is exemplified, but signals may be transmitted through the cover 600 even in the case of other external signals.
  • the external signal may enter through an opening (not shown) formed in the cover 600.
  • the opening of the cover 600 may be filled with a filter member (not shown) to protect the sensing unit 900 from external pollutants or moisture.
  • a blocking member 700 may be provided on a lower surface of the cover 600 except for a region 710 in which an optical signal is incident on the sensor unit 910. That is, the blocking member 700 is provided on the lower surface of the cover 600, and the opening 710 may be formed at a position corresponding to the sensor unit 910.
  • the blocking member 700 may be made of a material having a low light transmittance. Alternatively, even when the external signal is not an optical signal, a material having a low external signal transmittance may be used.
  • the electronic device 500 according to the comparative embodiment described above has several problems.
  • a separate frame 1000 must be provided to firmly support the circuit board 800, but the weight of the material constituting the frame 1000 is usually large, and the electronic device 500 is as much as the thickness of the frame 1000. The volume of is increased. Therefore, the trend of the electronic device 500 gradually becoming lighter and smaller is hindered.
  • a spray method is used to form the blocking member 700 on the rear surface of the cover 600, but the spray process takes a long time and the defect rate is high, which adversely affects the yield.
  • the curvature of the cover 600 increases, and a rib and a boss structure must be formed on the rear surface of the cover 600 in order to couple the frame 1000 and the cover 600.
  • black paint or the like In order to use the spray method, after masking the area where the sensor unit 910 is located, black paint or the like must be sprayed. However, as described above, it is difficult to strengthen the masking due to ribs and boss structures, which increases the process time and increases the defect rate.
  • FIG. 8 is a cross-sectional view showing an electronic device 500-1 according to the first embodiment of the present invention.
  • a circuit board 800-1 is disposed at the bottom of the cover 600, and the circuit board 800 There is a difference in that the sensing unit 900 is disposed at the bottom of -1).
  • the electronic device 500-1 adopts a structure in which the circuit board 800-1 is supported at the bottom of the cover 600, thereby supporting a separate circuit board 800-1.
  • the frame of 1000 (refer to FIG. 7) becomes unnecessary. Accordingly, the size of the frame 1000 can be reduced, and the weight of the frame 1000 can be reduced.
  • the circuit board 800-1 may be supported in contact with the cover 600.
  • the contact may include face contact or multi-point contact.
  • the circuit board 800-1 may be fixedly supported on the cover 600 in a mechanical coupling structure, and may be attached using an adhesive or an adhesive film.
  • a rib and a boss structure should have been formed. Complex structures become unnecessary. Therefore, it is easy to stably support the circuit board 800-1 on the bottom of the cover 600.
  • the sensing unit 900 since the sensing unit 900 is coupled to the bottom of the circuit board 800-1, an external signal may flow into the sensor unit 910. You need a path that is there.
  • the circuit board 800-1 includes an opening 810 inside.
  • the circuit board 800-1 forms an opening 810 penetrating through a region corresponding to the sensing unit 900, and the sensing unit 900 is around the opening 810 of the circuit board 800-1. Can be fixed to
  • the sensing unit 900 includes a sensor unit 910 located inside the opening 810 of the circuit board 800-1 and receiving an external signal introduced through the cover 600 and the opening 810, It includes a fixing portion 920 that extends and is fixed around the opening 810.
  • the fixing part 920 may have a flange shape extending in the width direction of the circuit board 800-1, and the fixing part 920 is coupled to the circuit board 800-1 by a screw or pin coupling structure. Or can be fixed with an adhesive.
  • the electronic device 500 may further include a blocking member 700 between the cover 600 and the circuit board 800-1.
  • the blocking member 700 may be provided in the form of a film.
  • the blocking member 700 may be attached to the lower surface of the cover 600 or may be attached to the upper surface of the circuit board 800-1.
  • the shape of the lower surface of the cover 600 is simplified, it is not necessary to use a spray method to provide the blocking member 700, and while constructing in a film method, it is possible to simplify the manufacturing process and significantly reduce the rate of defects.
  • the blocking member 700 may be integrally formed with the cover 600.
  • the meaning of being formed integrally is not mechanically bonded or attached using a separate adhesive, but the blocking member 700 may be firmly fixed to the cover 600 during the manufacturing process (eg, injection process).
  • the cover 600 may be manufactured using light-transmitting resin, and the blocking member 700 may be integrated on one surface of the cover 600 by using a non-transmitting resin.
  • a double injection process may be used as a method of integrating the blocking member 700 to the cover 600.
  • a corresponding process will be described with reference to FIG. 9.
  • 9 is a diagram for explaining a process of manufacturing the electronic device 500-1 by a double injection process.
  • a cover 600 is manufactured using a light-transmitting resin as a material and through an injection process.
  • the blocking member 700 is formed on one surface of the cover 600 by using a non-permeable resin by a double injection method.
  • the blocking member 700 may be integrally formed with the cover 600 during the double injection process.
  • the non-transmissive resin 700 is injected to form an opening 710 in a region where the sensing unit 900 is disposed.
  • the circuit board 800-1 is coupled to one surface of the blocking member 700, and the sensing unit 900 is connected to the opening 810 of the circuit board 800-1. ), the process can be completed.
  • FIG. 10 is a cross-sectional view illustrating an electronic device 500-2 according to a second embodiment of the present invention.
  • a region in which a cover 600-1 is formed, a blocking member 700-1 and a sensing unit 900 are disposed.
  • the regions may be formed in different double structures. Specifically, in the cover 600-1, a region in which the blocking member 700-1 is provided is concave inward, and the blocking member 700-1 may be provided in the concave region. In the same sense, in the cover 600-1, a region corresponding to the upper body on which the sensing unit 900 is disposed may protrude, and a blocking member 700-1 may be provided around the protrusion.
  • FIG. 11 is a cross-sectional view illustrating an electronic device 500-3 according to a third embodiment of the present invention.
  • the sensing unit 900-1 includes a blocking protrusion 930 around the sensor unit 910, so that the cover 600 A separate blocking member 700 (refer to FIG. 8) between) and the circuit board 800-1 may not be used.
  • a circuit board 800-1 having an opening 810 formed on one surface of the cover 600 is coupled, and the sensing unit 900-1 is formed in the opening 810 of the circuit board 800-1.
  • the blocking protrusion 930 may be inserted and coupled.
  • the blocking protrusion 930 may be formed of a non-transmissive material, or may be coated with a non-transmissive material inside.
  • the blocking protrusion 930 may be provided in a boss shape.
  • the opening 810 of the circuit board 800-1 may have a cylindrical shape, and the blocking protrusion 930 may have a cylindrical shape having a predetermined thickness.
  • the end of the blocking protrusion 930 may be in close contact with the cover 600, and when the blocking protrusion 930 is coated with a non-transparent material, a non-transparent material may be coated on a surface facing the cover 600.
  • the sensor unit 910 may receive an external signal flowing into the space inside the blocking protrusion 930.
  • the electronic device 500-3 by omitting the sheet-shaped blocking member 700 (see FIG. 8), the overall thickness can be reduced, and the manufacturing process time can be shortened.
  • FIG. 12 is a cross-sectional view illustrating an electronic device 500-4 according to a fourth embodiment of the present invention.
  • an area in which the sensor unit 910 is disposed in the sensing unit 900-2 is an opening of the circuit board 800-1.
  • 810 can be inserted into the inside.
  • the sensing unit 900-2 includes a protruding insertion part 940 inserted into the opening 810 of the circuit board 800-1, and extending outward from one side of the protruding insertion part 940 to the circuit board. It includes a fixing portion 920 fixed to (800-1).
  • the opening 810 of the circuit board 800-1 may have a cylindrical shape
  • the protruding insertion portion 940 may have a cylindrical shape in which the sensor unit 910 is provided on one surface.
  • the sensor unit 910 may be disposed at a predetermined distance from the cover 600.
  • the sensor unit 910 is disposed inside the opening 810 of the circuit board 800-1, thereby reducing the overall thickness.
  • a configuration A described in a specific embodiment and/or a drawing may be combined with a configuration B described in another embodiment and/or a drawing. That is, even if the combination between the components is not directly described, it means that the combination is possible except for the case where the combination is described as impossible.
  • 100 augmented reality electronic device
  • 101 frame unit
  • 200 virtual reality electronic device
  • 201 head unit
  • sensing unit 220: location tracking device
  • sensing unit 910: sensor unit

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 디바이스가 개시된다. 본 발명에 따른 전자 디바이스는 외부의 신호가 통과할 수 있는 커버와, 커버의 일 측에 마련되고 외부의 신호가 통과하는 제1 개구부가 형성되는 회로기판과, 회로기판의 일 측에 마련되고 제1 개구부에 대응하는 위치에 마련되어 외부의 신호를 수신하는 센서부가 구비되는 센싱유닛을 포함한다. 본 발명의 전자 디바이스는 인공 지능(Artificial Intelligence) 모듈, 로봇, 증강현실(Augmented Reality, AR) 장치, 가상현실(virtual reality, VR) 장치, 5G 서비스와 관련된 장치 등과 연계될 수 있다.

Description

전자 디바이스 및 이를 제작하는 방법
본 발명은 전자 디바이스에 관한 것이다. 보다 상세하게, VR(Virtual Reality), AR(Augmented Reality), MR(Mixed Reality) 등에 사용되는 전자 디바이스와 이를 제작하는 방법에 관한 것이다.
가상 현실(Virtual Reality, VR)은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 말한다.
증강 현실(Augmented Reality, AR)은 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 기술을 말한다.
혼합현실 (Mixed Reality, MR) 혹은 혼성현실 (Hybrid reality)은 가상 세계와 현실 세계를 합쳐서 새로운 환경이나 새로운 정보를 만들어 내는 것을 말한다. 특히, 실시간으로 현실과 가상에 존재하는 것 사이에서 실시간으로 상호작용할 수 있는 것을 말할 때 혼합 현실이라 한다.
이때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한 사용자는 이러한 환경에 단순히 몰입할 뿐만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 이러한 환경 속에 구현된 것들과 상호작용이 가능하다.
최근, 이러한 기술분야에 사용되는 장비(gear)에 대한 연구가 활발히 이루어지고 있다.
위의 가상현실, 증강현실 또는 혼합현실을 구현하기 위해서는 디스플레이용 디바이스나 조작용 디바이스에 다양한 센서류를 설치해야 한다. 특히, 디바이스의 위치 정보를 제어부에 보내기 위해서 광 센서 등이 설치될 필요가 있는데, 기존 디바이스에 광 센서를 설치하기 위해서는 센서가 장착되는 회로기판을 지지하기 위해 별도의 프레임을 설치해야 하기 때문에 부피와 무게가 증가하는 문제가 있다.
본 발명은 VR(Virtual Reality), AR(Augmented Reality), MR(Mixed Reality) 등에 사용되는 전자 디바이스를 사용함에 있어, 센서가 장착되는 회로기판이 커버에 지지되기 때문에 별도의 프레임이 필요치 않는 전자 디바이스를 제공하는데, 그 목적이 있다.
또한, 커버 내측면에 광 차단용 페인트를 스프레이하는데 공정 시간이 오래 걸리고 불량률이 증가하는 문제를 해결할 수 있는 전자 디바이스의 제작방법을 제공하는데, 그 목적이 있다.
본 일 실시예에 따른 전자 디바이스는 외부의 신호가 통과할 수 있는 커버; 상기 커버의 일 측에 마련되고, 상기 외부의 신호가 통과하는 제1 개구부가 형성되는 회로기판; 및 상기 회로기판의 일 측에 마련되고, 상기 제1 개구부에 대응하는 위치에 마련되어 상기 외부의 신호를 수신하는 센서부가 구비되는 센싱유닛을 포함한다.
이 때, 상기 커버와 상기 회로기판 사이에 마련되고, 상기 외부의 신호가 통과하지 못하는 차단부재를 더 포함하고, 상기 차단부재는 상기 제1 개구부에 대응하는 위치에 제2 개구부가 형성되어 상이 외부의 신호를 통과시킬 수 있다.
또한, 상기 센싱유닛은 상기 제1 개구부 주위에 고정되는 고정부와, 상기 제1 개구부 내측에 노출되는 개방부를 포함하고, 상기 센서부는 상기 개방부에 마련될 수 있다.
한편, 상기 커버의 내측 면과 이에 마주보는 상기 회로기판의 일 면 사이의 거리는 상기 커버의 내측 면과 이에 마주보는 상기 센서부의 일 면 사이의 거리보다 가까울 수 있다.
이 때, 상기 차단부재의 일 면은 이에 마주보는 상기 회로기판의 일 면에 접촉할 수 있다.
또는 상기 차단부재는 상기 회로기판의 일 면 상에 적층될 수 있다.
또는 상기 차단부재는 상기 커버의 내측 면 상에 적층될 수 있다.
한편, 상기 커버는 상기 차단부재가 배치되는 영역의 두께 보다 상기 제2 개구부에 대응하는 영역의 두께가 더 두껍게 마련되고, 상기 커버의 상기 제2 개구부에 대응하는 영역과 상기 차단부재의 내측 면은 동일 평면을 형성할 수 있다.
또한, 상기 센싱유닛은 상기 제1 개구부에 삽입되고, 상기 외부의 신호가 통과할 수 없는 차단 돌출부를 더 구비하고, 상기 센서부는 상기 차단 돌출부의 내측에 마련될 수 있다.
여기서 상기 차단 돌출부 내측에는 상기 외부의 신호가 통과할 수 없는 차단코팅이 마련될 수 있다.
그리고 상기 차단 돌출부는 내측에 요입되는 홈이 형성되고, 상기 센서부는 상기 홈의 바닥면에 마련될 수 있다.
또한, 상기 센서부가 마련되는 상기 센싱유닛의 일 면은 상기 커버와 마주보는 면에 대향하는 상기 회로기판의 일 측면 보다 상기 커버에 가깝게 위치할 수 있다.
이 때, 상기 센싱유닛은 상기 제1 개구부 내측에 삽입되는 삽입부가 마련되고, 상기 삽입부의 단부에 상기 센서부가 마련될 수 있다.
여기서 상기 센싱유닛은 상기 삽입부 주위에 방사 방향으로 둘출되고 상기 회로기판의 일 측면에 고정되는 고정부를 더 구비할 수 있다.
또한, 본 발명의 다른 측면에 의하면, 외부의 신호를 수신하여 사용자의 신체 일부의 위치 정보를 전달하는 적어도 하나의 외부 컨트롤러와, 상기 외부 컨트롤러의 위치 정보를 화면에 표시하는 디스플레이장치를 포함하는 전자 디바이스에 있어서, 상기 외부 컨트롤러는, 상기 외부의 신호가 통과할 수 있는 커버; 상기 커버의 일 측에 마련되고, 상기 외부의 신호가 통과하는 제1 개구부가 형성되는 회로기판; 및 상기 회로기판의 일 측에 마련되고, 상기 제1 개구부에 대응하는 위치에 마련되어 상기 외부의 신호를 수신하는 센서부가 구비되는 센싱유닛을 포함하는 전자 디바이스가 제공될 수 있다.
이 때, 상기 디스플레이장치는 헤드 마운티드 디스플레이(HMD)일 수 있다.
본 발명의 또 다른 측면에 의하면, 외부의 신호를 수신하는 전자 디바이스를 제작하는 방법에 있어서, 상기 외부의 신호가 통과할 수 있는 커버를 사출 방식으로 형성하고, 상기 커버의 일 면에 상기 외부의 신호가 통과하지 못하는 차단부재를 이중사출 방식으로 형성하되, 상기 차단부재에 상기 외부의 신호가 통과할 수 있는 윈도우가 마련되도록 개구를 형성하고, 개구부가 형성된 회로기판의 일 면에 센서부를 구비하는 센싱유닛을 고정하되, 상기 센서부를 상기 개구부에 대응하는 위치에 배치하고; 상기 커버 또는 상기 차단부재 중 어느 하나와 상기 회로기판을 결합하되, 상기 회로기판의 상기 센싱유닛이 고정되는 면에 대향하는 면이 상기 차단부재에 근접하도록 배치하는 전자 디바이스를 제작하는 방법이 제공될 수 있다.
이 때, 상기 전자 디바이스는 상기 외부의 신호를 수신하여 사용자의 신체 일부의 위치 정보를 전달하여 증강 현실에 이용하는 것을 특징으로 할 수 있다.
본 발명에 따른 전자 디바이스는 센서가 장착되는 회로기판이 커버에 직접 지지될 수 있으므로, 별도이 프레임이 필요치 않아 부피와 무게가 감소할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 커버 내측 면에 신호 차단부재를 제공하기 위해 스프레이 공정을 실시할 필요가 없어 공정 시간이 단축되고 불량률이 감소할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 커버와 회로기판 사이에 마련되는 별도의 차단부재 층을 삭제할 수 있어 공정 시간이 단축되고 보다 얇은 두께의 장치를 제공할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 회로기판의 개구 내에 센서부가 삽입됨으로써 장비의 두께를 얇게 할 수 있다.
도 1은 AI 장치의 일 실시예를 나타내는 개념도이다.
도 2는 본 발명의 일 실시예에 따른 확장현실 전자 디바이스의 구성을 나타내는 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 증강현실 전자 디바이스의 사시도이다.
도 4는 가상현실 전자 디바이스를 사용하는 모습을 나타내는 도면이다.
도 5는 본 발명의 다른 실시예에 따른 가상현실 전자 디바이스의 사시도이다.
도 6은 가상현실 전자 디바이스에 사용되는 컨트롤러를 나타내는 도면이다.
도 7은 본 발명의 비교 실시예에 따른 전자 디바이스를 나타내는 단면도이다.
도 8은 본 발명의 제1 실시예에 따른 전자 디바이스를 나타내는 단면도이다.
도 9는 이중 사출 공정으로 전자 디바이스를 제작하는 공정을 설명하기 위한 도면이다.
도 10은 본 발명의 제2 실시예에 따른 전자 디바이스를 나타내는 단면도이다.
도 11은 본 발명의 제3 실시예에 따른 전자 디바이스를 나타내는 단면도이다.
도 12는 본 발명의 제4 실시예에 따른 전자 디바이스를 나타내는 단면도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
본 명세서에 개시된 실시예를 설명함에 있어서 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
[5G 시나리오]
5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역 (Enhanced Mobile Broadband, eMBB) 영역, (2) 다량의 머신 타입 통신 (massive Machine Type Communication, mMTC) 영역 및 (3) 초-신뢰 및 저 지연 통신 (Ultra-reliable and Low Latency Communications, URLLC) 영역을 포함한다.
일부 사용 예(Use Case)는 최적화를 위해 다수의 영역들이 요구될 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표 (Key Performance Indicator, KPI)에만 포커싱될 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 기본적인 모바일 인터넷 액세스를 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것이 기대된다. 증가된 트래픽 양(volume)을 위한 주요 원인들은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스 (오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 응용 프로그램들은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성이 필요하다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 그리고, 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트 예를 들어, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하는 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강현실 및 정보 검색이다. 여기서, 증강현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
또한, 가장 많이 예상되는 5G 사용 예 중 하나는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있는 기능 즉, mMTC에 관한 것이다. 2020년까지 잠재적인 IoT 장치들은 204 억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 주요 인프라의 원격 제어 및 자체-구동 차량(self-driving vehicle)과 같은 초 신뢰 / 이용 가능한 지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 다수의 사용 예들에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH (fiber-to-the-home) 및 케이블 기반 광대역 (또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상현실과 증강현실뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는데 요구된다. VR(Virtual Reality) 및 AR(Augmented Reality) 애플리케이션들은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 응용 프로그램은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사들이 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예들과 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 동시의 높은 용량과 높은 이동성 모바일 광대역을 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 활용 예는 증강현실 대시보드이다. 이는 운전자가 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별하고, 물체의 거리와 움직임에 대해 운전자에게 말해주는 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량들 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 디바이스들(예를 들어, 보행자에 의해 수반되는 디바이스들) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스들을 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종되거나 자체 운전 차량(self-driven vehicle)이 될 것이다. 이는 서로 다른 자체 운전 차량들 사이 및 자동차와 인프라 사이에서 매우 신뢰성이 있고, 매우 빠른 통신을 요구한다. 미래에, 자체 운전 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자체 운전 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회(smart society)로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지-효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품들은 모두 무선으로 연결된다. 이러한 센서들 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용이다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서들을 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료들의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 응용 프로그램을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는데 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스들로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터들에 대한 원격 모니터링 및 센서들을 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크들로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것이 요구된다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류(logistics) 및 화물 추적(freight tracking)은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
본 명세서에서 후술할 본 발명은 전술한 5G의 요구 사항을 만족하도록 각 실시예를 조합하거나 변경하여 구현될 수 있다.
도 1은 AI 장치의 일 실시예를 나타내는 개념도이다.
도 1을 참조하면, AI 시스템은 AI 서버(20), 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 등을 AI 장치(11 내지 15)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템을 구성하는 각 장치들(11 내지 15, 20)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(11 내지 15, 20)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(20)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(20)는 AI 시스템을 구성하는 AI 장치들인 로봇(11), 자율주행 차량(12), XR 장치(13), 스마트폰(14) 또는 가전(15) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(11 내지 15)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이 때, AI 서버(20)는 AI 장치(11 내지 15)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(11 내지 15)에 전송할 수 있다.
이 때, AI 서버(20)는 AI 장치(11 내지 15)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(11 내지 15)로 전송할 수 있다.
또는, AI 장치(11 내지 15)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
<AI+로봇>
로봇(11)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(11)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(11)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(11)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(11)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(11)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(11)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(11)에서 직접 학습되거나, AI 서버(20) 등의 외부 장치에서 학습된 것일 수 있다.
이 때, 로봇(11)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(20) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(11)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(11)을 주행시킬 수 있다.
맵 데이터에는 로봇(11)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(11)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 로봇(11)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+자율주행>
자율주행 차량(12)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율주행 차량(12)은 자율주행 기능을 제어하기 위한 자율주행 제어 모듈을 포함할 수 있고, 자율주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율주행 제어 모듈은 자율주행 차량(12)의 구성으로써 내부에 포함될 수도 있지만, 자율주행 차량(12)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율주행 차량(12)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율주행 차량(12)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율주행 차량(12)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(11)과와 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율주행 차량(12)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율주행 차량(12)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율주행 차량(12)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율주행 차량(12)에서 직접 학습되거나, AI 서버(20) 등의 외부 장치에서 학습된 것일 수 있다.
이 때, 자율주행 차량(12)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(20) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율주행 차량(12)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율주행 차량(12)을 주행시킬 수 있다.
맵 데이터에는 자율주행 차량(12)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율주행 차량(12)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이 때, 자율주행 차량(12)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+XR>
XR 장치(13)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(13)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(13)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(13)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(13)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(13)에서 직접 학습되거나, AI 서버(20) 등의 외부 장치에서 학습된 것일 수 있다.
이 때, XR 장치(13)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(20) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
<AI+로봇+자율주행>
로봇(11)은 AI 기술 및 자율주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율주행 기술이 적용된 로봇(11)은 자율주행 기능을 가진 로봇 자체나, 자율주행 차량(12)과 상호작용하는 로봇(11) 등을 의미할 수 있다.
자율주행 기능을 가진 로봇(11)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율주행 기능을 가진 로봇(11) 및 자율주행 차량(12)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(100b100a)와과 별개로 존재하면서, 자율주행 차량(12)의 내부 또는 외부에서 자율주행 기능에 연계되거나, 자율주행 차량(12)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이 때, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)을를 대신하여 센서 정보를 획득하여 자율주행 차량(12)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율주행 차량(12)에 제공함으로써, 자율주행 차량(12)의 자율주행 기능을 제어하거나 보조할 수 있다.
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율주행 차량(12)의 기능을 제어할 수 있다. 예컨대, 로봇(11)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율주행 차량(12)의 자율주행 기능을 활성화하거나 자율주행 차량(12)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(11)이 제어하는 자율주행 차량(12)의 기능에는 단순히 자율주행 기능뿐만 아니라, 자율주행 차량(12)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율주행 차량(12)과 상호작용하는 로봇(11)은 자율주행 차량(12)의 외부에서 자율주행 차량(12)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(11)은 스마트 신호등과 같이 자율주행 차량(12)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율주행 차량(12)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
<AI+로봇+XR>
로봇(11)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.
XR 기술이 적용된 로봇(11)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(11)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(11)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(11) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(11)은 XR 장치(13)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
예컨대, 사용자는 XR 장치(13) 등의 외부 장치를 통해 원격으로 연동된 로봇(11)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(11)의 자율주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.
<AI+자율주행+XR>
자율주행 차량(12)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율주행 차량(12)은 XR 영상을 제공하는 수단을 구비한 자율주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 XR 장치(13)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율주행 차량(12)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이 때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율주행 차량(12)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율주행 차량(12)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율주행 차량(12)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율주행 차량(12) 또는 XR 장치(13)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(13)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율주행 차량(12)은 XR 장치(13) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
[확장현실 기술]
확장현실(XR: eXtended Reality)은 가상현실(VR: Virtual Reality), 증강현실(AR: Augmented Reality), 혼합현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
이하에서는 본 발명의 실시예에 따른 확장현실을 제공하는 전자 디바이스에 대해 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 확장현실 전자 디바이스(20)의 구성을 나타내는 블럭도이다.
도 2를 참조하면, 확장현실 전자 디바이스(20)는 무선 통신부(21), 입력부(22), 센싱부(23), 출력부(24), 인터페이스부(25), 메모리(26), 제어부(27) 및 전원 공급부(28) 등을 포함할 수 있다. 도 2에 도시된 구성요소들은 전자 디바이스(20)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 전자 디바이스(20)는 위에서 열거된 구성요소들 보다 많거나, 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 위 구성요소들 중 무선 통신부(21)는, 전자 디바이스(20)와 무선 통신 시스템 사이, 전자 디바이스(20)와 다른 전자 디바이스 사이, 또는 전자 디바이스(20)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(21)는, 전자 디바이스(20)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(21)는, 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
입력부(22)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(22)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(23)는 전자 디바이스(20) 내 정보, 전자 디바이스(20)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.
예를 들어, 센싱부(23)는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 촬영수단), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 전자 디바이스(20)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(24)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부, 음향 출력부, 햅팁 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 증강현실 전자 디바이스(20)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력수단으로써 기능함과 동시에, 증강현실 전자 디바이스(20)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(25)는 전자 디바이스(20)에 연결되는 다양한 종류의 외부장치와의 통로 역할을 수행한다. 인터페이스부(25)를 통해 전자 디바이스(20)는 외부장치로부터 가상현실 또는 증강현실 컨텐츠를 제공받을 수 있고, 다양한 입력 신호, 센싱 신호, 데이터를 주고받음으로써, 상호 인터랙션을 수행할 수 있다.
예를 들어, 인터페이스부(25)는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다.
또한, 메모리(26)는 전자 디바이스(20)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(26)는 전자 디바이스(20)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자 디바이스(20)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자 디바이스(20)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자 디바이스(20)상에 존재할 수 있다.
제어부(27)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자 디바이스(20)의 전반적인 동작을 제어한다. 제어부(27)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리할 수 있다.
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 구동함으로써 구성요소들 중 적어도 일부를 제어하여 사여 사용자에게 적절한 정보를 제공하거나 기능을 처리할 수 있다. 나아가, 제어부(27)는 응용 프로그램의 구동을 위하여 전자 디바이스(20)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
또한, 제어부(27)는 센싱부(23)에 포함된 자이로스코프 센서, 중력 센서, 모션 센서 등을 이용하여 전자 디바이스(20)나 사용자의 움직임을 감지할 수 있다. 또는 제어부(27)는 센싱부(23)에 포함된 근접센서, 조도센서, 자기센서, 적외선 센서, 초음파 센서, 광 센서 등을 이용하여 전자 디바이스(20)나 사용자 주변으로 다가오는 대상체를 감지할 수도 있다. 그 밖에도, 제어부(27)는 전자 디바이스(20)와 연동하여 동작하는 컨트롤러에 구비된 센서들을 통해서도 사용자의 움직임을 감지할 수 있다.
또한, 제어부(27)는 메모리(26)에 저장된 응용 프로그램을 이용하여 전자 디바이스(20)의 동작(또는 기능)을 수행할 수 있다.
전원 공급부(28)는 제어부(27)의 제어 하에서, 외부의 전원 또는 내부의 전원을 인가받아 전자 디바이스(20)에 포함된 각 구성요소들에 전원을 공급한다. 전원 공급부(28)는 배터리를 포함하며, 배터리는 내장형 또는 교체가능한 형태로 마련될 수 있다.
위 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 전자 디바이스의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 전자 디바이스의 동작, 제어, 또는 제어방법은 메모리(26)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 전자 디바이스 상에서 구현될 수 있다.
이하, 본 발명의 일 예로서 설명되는 전자 디바이스는 HMD(Head Mounted Display)에 적용되는 실시예를 기준으로 설명한다. 그러나 본 발명에 따른 전자 디바이스의 실시예에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 및 웨어러블 디바이스(wearable device) 등이 포함될 수 있다. 웨어러블 디바이스에는 HMD 이외에도 워치형 단말기(smart watch) 등이 포함될 수 있다.
도 3은 본 발명의 일 실시예에 따른 증강현실 전자 디바이스의 사시도이다.
도 3을 참조하면, 증강현실 전자 디바이스는 글래스 타입(smart glass)으로 마련될 수 있다. 글래스 타입의 전자 디바이스(100)는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)(101)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다.
프레임부(101)는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부(101)에는 제어부(103), 음향 출력부(104) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 렌즈(102)가 착탈 가능하게 장착될 수 있다.
제어부(103)는 전자 디바이스(100)에 구비되는 각종 전자부품을 제어하도록 이루어진다. 본 도면에서는, 제어부(103)가 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어부(103)의 위치는 이에 한정되지 않는다.
디스플레이부(105)는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 글래스 타입의 전자 디바이스(100)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(105)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안을 향하여 영상을 출력할 수 있도록, 디스플레이부(105)가 우안에 대응되는 부분에 위치한 것을 예시하고 있다.
디스플레이부(105)는 프리즘을 이용하여 디스플레이 영역에 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 프리즘은 투광성으로 형성될 수 있다.
이처럼, 디스플레이부(105)를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보일 수 있다. 전자 디바이스(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.
촬영수단(106)는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 촬영수단(106)이 눈에 인접하여 위치하므로, 촬영수단(106)은 사용자가 바라보는 장면을 영상으로 획득할 수 있다.
본 도면에서는, 촬영수단(106)이 제어 모듈(103)에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 촬영수단(106)은 상기 프레임부(101)에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.
글래스 타입의 전자 디바이스(100)는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부(107)를 구비할 수 있다. 사용자 입력부(107)는 터치, 푸시 등 사용자가 촉각으로 느끼면서 조작하게 되는 방식(tactile manner), 직접 터치하지 않은 상태에서 사용자의 손의 움직임을 인식하는 제스처 방식(gesture manner), 또는 음성 명령을 인식하는 방식을 포함하여 다양한 방식이 채용될 수 있다. 본 도면에서는, 프레임부 또는 제어 모듈(480)에 푸시 및 터치 입력 방식의 사용자 입력부(107)가 구비된 것을 예시하고 있다.
또한, 글래스 타입의 전자 디바이스(100)에는 사운드를 입력 받아 전기적인 음성 데이터로 처리하는 마이크로폰 및 음향을 출력하는 음향 출력부(104)가 구비될 수 있다. 음향 출력부(104)는 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력부(104)가 골전도 방식으로 구현되는 경우, 사용자가 전자 디바이스(100)를 착용시, 음향 출력부(104)는 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.
도 3은 본 발명의 일 실시예에 따른 증강현실 전자 디바이스의 사시도이다.
도면을 참조하면, 증강현실 전자 디바이스는 글래스 타입(smart glass)으로 마련될 수 있다. 글래스 타입의 전자 디바이스(100)는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)(101)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다.
프레임부(101)는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부(101)에는 제어부(103), 음향 출력부(104) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 렌즈(102)가 착탈 가능하게 장착될 수 있다.
제어부(103)는 전자 디바이스(100)에 구비되는 각종 전자부품을 제어하도록 이루어진다. 본 도면에서는, 제어부(103)가 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어부(103)의 위치는 이에 한정되지 않는다.
디스플레이부(105)는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 글래스 타입의 전자 디바이스(100)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(105)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안을 향하여 영상을 출력할 수 있도록, 디스플레이부(105)가 우안에 대응되는 부분에 위치한 것을 예시하고 있다.
디스플레이부(105)는 프리즘을 이용하여 디스플레이 영역에 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 프리즘은 투광성으로 형성될 수 있다.
이처럼, 디스플레이부(105)를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보일 수 있다. 전자 디바이스(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.
촬영수단(106)는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 촬영수단(106)이 눈에 인접하여 위치하므로, 촬영수단(106)은 사용자가 바라보는 장면을 영상으로 획득할 수 있다.
본 도면에서는, 촬영수단(106)이 제어 모듈(103)에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 촬영수단(106)은 상기 프레임부(101)에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.
글래스 타입의 전자 디바이스(100)는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부(107)를 구비할 수 있다. 사용자 입력부(107)는 터치, 푸시 등 사용자가 촉각으로 느끼면서 조작하게 되는 방식(tactile manner), 직접 터치하지 않은 상태에서 사용자의 손의 움직임을 인식하는 제스처 방식(gesture manner), 또는 음성 명령을 인식하는 방식을 포함하여 다양한 방식이 채용될 수 있다. 본 도면에서는, 프레임부 또는 제어 모듈(480)에 푸시 및 터치 입력 방식의 사용자 입력부(107)가 구비된 것을 예시하고 있다.
또한, 글래스 타입의 전자 디바이스(100)에는 사운드를 입력 받아 전기적인 음성 데이터로 처리하는 마이크로폰 및 음향을 출력하는 음향 출력부(104)가 구비될 수 있다. 음향 출력부(104)는 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력부(104)가 골전도 방식으로 구현되는 경우, 사용자가 전자 디바이스(100)를 착용시, 음향 출력부(104)는 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.
도 4는 가상현실 전자 디바이스를 사용하는 모습을 나타내는 도면이고, 도 5는 본 발명의 다른 실시예에 따른 가상현실 전자 디바이스의 사시도이다. 그리고 도 6은 가상현실 전자 디바이스에 사용되는 컨트롤러를 나타내는 도면이다.
도면을 참조하면, 가상현실 전자 디바이스는 사용자의 머리에 장착되는 가상현실 전자 디바이스(200)와, 사용자가 파지하여 조작할 수 있는 컨트롤러(210: 210a, 210b)를 포함할 수 있다.
가상현실 전자 디바이스(200)는 인체의 두부에 착용되어 지지되는 헤드유닛(201)과, 헤드유닛(201)에 결합되어 사용자의 눈 앞에 가상의 이미지 또는 영상을 표시하는 디스플레이유닛(202)을 포함한다. 도면에는 헤드유닛(201)과 디스플레이유닛(202)이 별개의 유닛으로 구성되어 서로 결합되는 것으로 도시되지만, 이와 달리 디스플레이유닛(202)은 헤드유닛(201)에 일체로 구성될 수도 있다.
헤드유닛(201)은 중량감이 있는 디스플레이유닛(202)의 무게를 분산시킬 수 있도록 사용자의 머리를 감싸는 구조를 채택할 수 있다. 그리고 각기 다른 사용자의 두상 크기에 맞출 수 있도록 길이 가변되는 밴드 등이 구비될 수 있다.
디스플레이유닛(202)은 헤드부(201)에 결합되는 커버부(203)와 디스플레이 패널을 내측에 수용하는 디스플레이부(204)를 구성한다.
커버부(203)는 고글 프레임이라고도 불리며, 전체적으로 터브 형상(tub shape)일 수 있다. 커버부(203)는 내부에 공간이 형성되고 전면에 사용자의 안구의 위치에 대응되는 개구가 형성된다.
디스플레이부(204)는 커버부(203)의 전면 프레임에 장착되고, 사용자의 양 안에 대응되는 위치에 마련되어 화면정보(영상 또는 이미지 등)를 출력한다. 디스플레이부(204)에서 출력되는 화면정보는 가상현실 컨텐츠뿐만 아니라, 카메라 등 촬영수단을 통해 수집되는 외부 이미지를 포함한다.
그리고 디스플레이부(204)에 출력되는 가상현실 컨텐츠는 전자 디바이스(100) 자체에 저장된 것이거나 또는 외부장치(230)에 저장된 것일 수 있다. 예를 들어, 화면정보가 전자 디바이스(100)에 저장된 가상 공간 영상인 경우, 전자 디바이스(100)는 상기 가상 공간의 영상을 처리하기 위한 이미지 프로세싱 및 렌더링 처리를 수행하고, 이미지 프로세싱 및 렌더링 처리 결과 생성된 화상 정보를 디스플레이부(204)를 통해 출력할 수 있다. 반면, 외부장치(230)에 저장된 가상 공간 영상인 경우, 외부장치(230)가 이미지 프로세싱 및 렌더링 처리를 수행하고, 그 결과 생성된 화상 정보를 전자 디바이스(100)에 전송해줄 수 있다. 그러면 전자 디바이스(100)는 외부장치(230)로부터 수신된 3D 화상 정보를 디스플레이부(204)를 통해 출력할 수 있다.
디스플레이부(204)는 커버부(203)의 개구 전방에 마련되는 디스플레이 패널을 포함하고, 디스플레이 패널은 LCD 또는 OLED 패널일 수 있다. 또는 디스플레이부(204)는 스마트폰의 디스플레이부일 수 있다. 즉, 커버부(203)의 전방에 스마트폰이 탈착될 수 있는 구조를 채택할 수 있다.
그리고 디스플레이유닛(202)의 전방에는 촬영수단(206)과 각종 센싱유닛(207)이 설치될 수 있다.
촬영수단(206)(예를 들어, 카메라)는 전방의 영상을 촬영(수신, 입력)하도록 형성되고, 특히 사용자가 바라보는 장면을 영상으로 획득할 수 있다. 도 5에서는 촬영수단(206)이 디스플레이부(204)의 중앙 위치에 한 개 마련되는 것을 도시하였으나, 이와 달리 서로 대칭되는 위치에 두 개 이상 마련될 수도 있다. 복수의 촬영수단(206)을 구비하는 경우 입체 영상을 획득할 수도 있다. 촬영수단(206)으로부터 획득되는 외부 이미지에 가상 이미지를 결합한 이미지가 디스플레이부(204)를 통해 표시될 수 있다.
센싱유닛(207)은 자이로스코프 센서, 모션 센서 또는 IR 센서 등을 포함할 수 있다. 센싱유닛(207)은 사용자의 위치 또는 움직임을 감지하거나, 주변 대상체를 감지할 수 있다. 도 5에서는 센싱유닛(207)이 디스플레이부(204)의 대칭되는 위치에 복수로 마련되는 것을 도시하였으나, 이와 달리 하나의 센싱유닛(207)이 구비되거나 디스플레이부(204) 이외의 위치에 구비될 수 있다.
센싱유닛(207)에 대해서는 뒤에서 보다 상세히 설명하기로 한다.
그리고 디스플레이유닛(202)의 후방에는 안면패드(facial pad, 204)가 설치될 수 있다. 안면패드(204)는 사용자의 안구 주위에 밀착되고, 쿠션감이 있는 소재로 마련되어 사용자의 얼굴에 편안한 착용감을 제공한다. 그리고 안면패드(204)는 사람의 얼굴 전면 윤곽에 대응하는 형상을 지니면서도 플렉서블한 소재로 마련되어 각기 다른 사용자의 얼굴 형상에도 안면에 밀착될 수 있어 외부 빛이 눈으로 침입하는 것을 차단할 수 있다.
그 밖에도 가상현실 전자 디바이스(200)는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부, 그리고 음향 출력부와 제어부가 구비될 수 있다. 이에 대한 설명은 전과 동일하므로 생략한다.
또한, 가상현실 전자 디바이스는 가상현실 전자 디바이스(200)를 통해 표시되는 가상 공간 영상과 관련된 동작을 제어하기 위한 컨트롤러(210: 210a, 210b)가 주변장치로 구비될 수 있다.
컨트롤러(210)는 사용자가 양손에 쉽게 그립(grip)할 수 있는 형태로 마련되고, 외측면에는 사용자 입력을 수신하기 위한 터치패드(또는 트랙패드), 버튼 등이 구비될 수 있다.
컨트롤러(210)는 전자 디바이스(200)와 연동하여 디스플레이부(204)에 출력되는 화면을 제어하는데 사용될 수 있다. 컨트롤러(210)는 사용자가 쥐는(grip) 그립부(211)와, 그립부(211)로부터 연장되며 다양한 센서들과 마이크로 프로세서가 내장된 헤드부(212)를 포함하여 구성될 수 있다. 그립부(211)는 사용자가 쉽게 쥘 수 있도록 세로로 긴 바 형태로 이루어지고 헤드부(212)는 링 형태로 이루어질 수 있다.
그리고 컨트롤러(210)는 사용자 입력부(213)과 센싱유닛(214)를 포함할 수 있다.
컨트롤러(200)의 그립부(211)에는 사용자 입력부(213)가 마련될 수 있다. 사용자 입력부(213)는 예를 들어, 그립부(211)의 일 측에 배치된 키들과, 그립부(213)의 일 측에 구비된 터치패드(트랙 패드), 트리거 버튼 등을 포함할 수 있다.
그리고 컨트롤러(200)의 헤드부(212)에는 센싱유닛(214)이 마련될 수 있다. 센싱유닛(214)은 자이로스코프 센서, 모션 센서 또는 IR 센서 등을 포함할 수 있다. 센싱유닛(214)은 사용자의 위치 또는 움직임을 감지하거나, 주변 대상체를 감지할 수 있다. 예를 들어, IR 센서는 후술하는 위치추적장치(220)로부터 방사되는 빛을 수신하여서, 사용자 동작을 추적하는데 사용된다. 모션 추적 센서는 3축의 가속도 센서와, 3축의 자이로스코프, 디지털 모션 프로세서를 하나의 집합체로 포함하여 구성될 수 있다.
도 6에서는 센싱유닛(214)이 헤드부(212) 전방의 대칭되는 위치에 복수로 마련되는 것을 도시하였으나, 이와 달리 하나의 센싱유닛(214)이 구비되거나 헤드부(212) 이외의 위치에 구비될 수 있다.
그리고 컨트롤러(200)는 전자 디바이스(100)의 제어부로부터 수신되는 신호에 대응하는 피드백을 수행할 수 있다. 예를 들어, 컨트롤러(200)는 진동, 소리, 또는 광 등을 통해 사용자에게 피드백 신호를 전달할 수 있다.
한편, 사용자는 컨트롤러(210) 조작을 통해 전자 디바이스(200)에 구비된 촬영수단(206)을 통해 확인되는 외부 환경 이미지에 접근할 수 있다. 즉, 사용자는 가상 공간 체험 중에도 전자 디바이스(200)를 벗지 않고 컨트롤러(210)의 조작을 통해 외부 환경을 즉시 확인할 수 있다.
가상현실 전자 디바이스는 위치추적장치(220)를 더 포함할 수 있다. 위치추적장치(220)는 라이트하우스(lighthouse) 시스템라는 위치추적(positional tracking) 기술을 적용하여 가상현실 전자 디바이스(200) 또는 컨트롤러(210)의 위치를 검출하고, 이를 이용하여 사용자의 360도 모션을 추적하는데 도움을 준다.
도 4를 참조하면, 위치추적시스템은 닫힌 특정 공간내에 하나 이상의 위치추적장치 장치(220: 220a, 220b)를 설치함으로써 구현될 수 있다. 복수의 위치추적장치(220)는 인식 가능한 공간 범위가 극대화될 수 있는 위치, 예를 들어 대각선 방향으로 서로 마주보는 위치에 설치될 수 있다.
전자 디바이스(200) 또는 컨트롤러(210)는 복수의 위치추적장치(220)에 포함된 LED 또는 레이저 방출기들로부터 방사되는 빛을 수신하고, 해당 빛이 수신된 위치와 시간 간의 상관관계에 기초하여, 닫힌 특정 공간 내에서의 사용자의 위치를 정확하게 판단할 수 있다. 이를 위해, 위치추적장치(220)에는 IR 램프와 2축의 모터가 각각 포함될 수 있으며, 이를 통해 가상현실 전자 디바이스(200) 또는 컨트롤러(210)와 신호를 주고받는다.
또한, 가상현실 전자 디바이스(200)는 외부장치와 유/무선 통신을 수행할 수 있다. 가상현실 전자 디바이스(200)는 연결된 외부장치(230, 예를 들어, PC, 스마트폰, 또는 태블릿 등)에 저장된 가상 공간 영상을 수신하여 사용자에게 표시할 수 있다.
한편, 이상 설명한 컨트롤러(210)와 위치추적장치(220)는 필수 구성은 아니므로, 본 발명의 실시예에서는 생략될 수 있다. 예를 들어, 가상현실 전자 디바이스(200)에 설치된 사용자 입력부가 컨트롤러(220)를 대신할 수 있고, 가상현실 전자 디바이스(200)에 설치된 센싱유닛(207)으로부터 자체적으로 위치 정보를 판단할 수 있다.
다음으로, 도 7 내지 도 12를 참조하여, 본 발명의 일 실시예인 전자 디바이스(500)에 대해 설명하기로 한다.
도 7과 도 8을 참조하면, 전자 디바이스(500)는 외부의 신호가 통과하는 커버(600)와, 커버(600)의 내부에 마련되고 전자회로가 형성되는 회로기판(800)과, 회로기판(800)의 하측에 마련되고 외부의 신호를 수신하는 센싱유닛(900)을 포함한다.
커버(600)는 전자 디바이스(500)의 아웃라인을 형성하고, 내부 공간에 마련되는 전자회로 등의 구성을 외부의 충격 등으로부터 보호한다. 커버(600)로 둘러싸이는 내부 공간에는 마이크로 프로세서와 다양한 센싱유닛(900)들이 수용될 수 있다.
회로기판(800)은 마이크로 프로세서와 센싱유닛(900)을 연결하는 회로가 형성되는 기판으로, 휘어지거나 구부러질 수 있는 연성 회로기판(800)(Flexible printed circuit board)으로 마련될 수 있다.
그리고 회로기판(800)은 종류에 따라 소스 회로기판과 컨트롤 회로기판을 포함하고, 소스 회로기판과 컨트롤 회로기판은 FFC(flexible flat cable)나 FPC(flexible printed circuit)와 같은 연성 케이블을 통해 연결될 수 있다.
센싱유닛(900)은 전자 디바이스 내 정보, 전자 디바이스를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱유닛(900)은 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 촬영수단), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다.
회로기판(800)에 장착된 제어유닛(마이크로 프로세서)은 센싱유닛(900)에 포함된 자이로스코프 센서, 중력 센서, 모션 센서, 적외선 센서(IR 센서) 또는 광 센서 등을 이용하여 전자 디바이스(500)나 사용자의 위치 또는 움직임을 감지할 수 있다. 여기서 모션 센서는 3축의 가속도 센서와, 3축의 자이로스코프, 디지털 모션 프로세서를 하나의 집합체로 포함하여 구성될 수 있다.
예를 들어, 전자 디바이스(500)가 사용자의 두부에 장착되는 HMD인 경우에는 제어유닛은 센싱유닛(900)으로부터 인식되는 신호를 통해 사용자의 위치 또는 이동에 대한 정보를 얻고, 이 정보를 처리하여 디스플레이부에 영상 정보로 표시할 수 있다.
또는 전자 디바이스(500)가 HMD와 연동되는 컨트롤러인 경우에는 제어유닛은 센싱유닛(900)으로부터 인식되는 신호를 통해 컨트롤러를 쥐고 있는 손의 위치 또는 이동에 대한 정보를 얻고, 이 정보를 HMD 또는 외부 장치에 유선 또는 무선으로 전달할 수 있다.
또한, 제어유닛은 센싱유닛(900)에 포함된 근접센서, 조도센서, 자기센서, 적외선 센서, 초음파 센서, 광 센서 등을 이용하여 전자 디바이스(500)나 사용자 주변으로 다가오는 대상체를 감지할 수도 있다.
이하에서는 센싱유닛(900)을 광 센서(IR 센서 포함)를 기준으로 설명한다. 그러나 앞에서 나열된 다양한 종류의 센서들이 사용될 수 있음은 물론이다.
광 센서는 위치추적장치로부터 방사되는 빛을 수신하여서, 사용자 동작을 추적하는데 사용될 수 있다. 또는 외부의 빛을 수신하여, 관련 정보를 통해 HMD의 디스플레이에 연동시킬 수 있다. 그리고 광 센서는 적외선 필터로 덮여 외부 환경으로부터 보호될 수 있다.
한편, 전자 디바이스(500)는 회로기판(800)을 고정시키기 위한 프레임(1000)을 추가로 포함할 수 있다. 프레임(1000)은 회로기판(800) 보다는 강성이 있는 소재로 마련될 수 있으며, 커버(600)의 내부 굴곡에 대응되는 형상으로 제공되거나, 커버(600)로부터 이격되어 회로기판(800)이 커버(600)에 간섭되지 않도록 배치될 수 있다.
도 7은 본 발명의 비교 실시예에 따른 전자 디바이스(500)를 나타내는 단면도이다.
비교 실시예에 따른 전자 디바이스(500)는 커버(600) 아래의 내부 공간에 회로기판(800)과 센싱유닛(900)이 배치되되, 회로기판(800)을 지지하는 프레임(1000)을 추가로 구비한다.
구체적으로, 프레임(1000) 상에 회로기판(800)을 밀착하여 고정시키고, 회로기판(800)의 일 지점에 센싱유닛(900)을 장착한다. 센싱유닛(900)은 외부 신호를 수신하는 센서부(910)와, 센서부(910)를 회로기판(800)에 장착하는 고정부(920)를 포함한다.
고정부(920)는 플랜지 형상으로 마련되어 회로기판(800)에 견고하게 고정될 수 있고, 중앙 부위에 센서부(910)가 삽입되는 홈을 구비할 수 있다. 센서부(910)는 고정부(920)의 홈에 삽입되고 상부가 개방된 상태로 마련되어 외부 신호(레이저 또는 적외선 등의 광 신호)가 수신될 수 있다. 예를 들어, 센서부(910)는 포토다이오드(Photo Diode)일 수 있다.
그리고 고정부(920)는 센서부(910)와 회로기판(800)의 회로를 연결되는 배선을 구비할 수 있으며, 배선과 회로를 통해 마이크로 프로세서에 신호를 전달할 수 있다.
회로기판(800)의 상부에는 커버(600)가 배치된다. 이 때, 커버(600)는 센서부(910)와 일정 간격 이격되는 위치에 고정된다. 이를 위해, 프레임(1000)과 커버(600)는 센싱유닛(900)이 간섭되지 않을 정도의 간격을 두고 서로 결합될 수 있다. 프레임(1000)과 커버(600)는 볼트 또는 핀 구조를 이용하여 일정 간격을 유지한 채 견고하게 결합할 수 있으며, 이를 위해 리브(Rib)와 보스(Boss) 구조가 형성될 수 있다.
광 신호는 커버(600)를 통해 센서부(910)에 전달되어야 하므로, 커버(600)는 광 투과 재질로 마련될 수 있다. 커버(600) 전체가 광 투과 재질로 마련될 수도 있지만, 센서부(910)가 위치하는 영역의 커버(600)만 광 투과 재질로 마련되는 것도 가능하다. 여기에서는 광 신호를 예로 들었지만, 이외의 외부 신호의 경우에도 커버(600)를 투과하여 신호가 전달될 수 있다.
또는 광 신호 이외의 외부 신호(화학물질 등)의 경우, 커버(600)에 형성되는 개구(미도시)를 통해 외부 신호가 진입할 수도 있다. 이 경우, 외부 오염물질 또는 수분 등으로부터 센싱유닛(900)을 보호하기 위해 커버(600)의 개구는 필터부재(미도시)로 채워질 수 있다.
한편, 센싱유닛(900)의 센싱 효율을 증가시키기 위해서는 센서부(910)로 광 신호가 들어오는 경로를 제외하고는 광 신호가 차단되는 것이 바람직하다. 이를 위해, 커버(600)의 하면에는 센서부(910)에 광 신호가 입사하는 영역(710)을 제외하고 차단부재(700)가 마련될 수 있다. 즉, 차단부재(700)는 커버(600)의 하면에 마련되되, 센서부(910)에 대응되는 위치에 개구(710)가 형성될 수 있다.
차단부재(700)는 광 투과율이 낮은 소재가 이용될 수 있다. 또는 외부 신호가 광 신호가 아닌 경우에도 외부 신호 투과율이 낮은 소재를 이용할 수 있다.
이상으로 설명한 비교 실시예에 따른 전자 디바이스(500)는 몇 가지 문제를 내포하고 있다.
첫째, 회로기판(800)을 견고하게 지지하기 위해 별도의 프레임(1000)이 구비되어야 하는데, 보통 프레임(1000)을 구성하는 소재의 무게가 크고, 프레임(1000)의 두께만큼 전자 디바이스(500)의 부피가 증가하게 된다. 따라서 점차 가볍고 작아지는 전자 디바이스(500)의 추세에 방해가 된다.
둘째, 커버(600) 배면에 차단부재(700)를 형성하기 위해 스프레이 방식을 이용하는데, 스프레이 공정 시간이 오래 걸리고 불량율이 높아 수율에 악영향을 미치게 된다. 전자 디바이스(500)가 소형화되면서 커버(600)에 굴곡이 많아지게 되고, 프레임(1000)과 커버(600)를 결합하기 위해 커버(600) 배면에 리브와 보스 구조를 형성해야 하기 때문에 필름 구조의 차단부재(700)를 부착하는 방식으로 제작하기가 어렵다. 이러한 이유로 스프레이 방식을 사용할 수밖에 없는데, 스프레이 방식을 사용하기 위해서는 센서부(910)가 위치하는 영역에 마스킹(masking)을 한 후 블랙 페인트(black paint) 등을 분사하여야 한다. 그러나 앞서 설명한 바와 같이 리브와 보스 구조 등에 의해 마스킹을 견고하게 하는 것이 어려워 공정 시간이 늘어나고 불량률이 증가하게 된다.
이하에서는 위와 같은 문제점을 해결하는 본 발명의 실시예들에 대해 설명하기로 한다.
도 8은 본 발명의 제1 실시예에 따른 전자 디바이스(500-1)를 나타내는 단면도이다.
도 7에 도시된 비교 실시예(500)와 비교하면, 도 8에 도시된 전자 디바이스(500-1)는 커버(600)의 저부에 회로기판(800-1)이 배치되고, 회로기판(800-1)의 저부에 센싱유닛(900)이 배치된다는 점에서 차이가 있다.
본 발명의 제1 실시예에 따른 전자 디바이스(500-1)는 커버(600)의 저부에 회로기판(800-1)이 지지되는 구조를 채택함으로써 회로기판(800-1)을 지지하기 위한 별도의 프레임(1000, 도 7 참조)이 불필요하게 된다. 따라서 프레임(1000)이 차지하는 부피만큼 소형화가 가능하고, 프레임(1000)의 무게만큼 가볍게 할 수 있다.
회로기판(800-1)은 커버(600)에 접촉된 상태로 지지될 수 있다. 해당 접촉은 면 접촉 또는 다중 포인트 접촉을 포함할 수 있다. 회로기판(800-1)은 커버(600)에 기계적 결합구조로 고정디어 지지될 수 있을 뿐만 아니라 접착제 또는 접착필름을 이용하여 부착될 수도 있다. 이러한 구조를 채용함으로써 도 7에 도시된 비교 실시예서 서로 이격된 커버(600)와 프레임(1000)을 기계적으로 결합하기 위해 리브와 보스 구조를 형성했어야 하는 것과 달리, 커버(600) 저면에 별도의 복잡한 구조가 불필요하게 된다. 따라서 커버(600) 저면에 회로기판(800-1)을 안정적으로 지지시키는 것이 용이하다.
다만, 본 발명의 제1 실시예에 따른 전자 디바이스(500-1)는 센싱유닛(900)이 회로기판(800-1)의 저부에 결합되기 때문에 센서부(910)에 외부 신호가 유입될 수 있는 경로가 필요하다. 이를 위해, 회로기판(800-1)은 내측에 개구(810)를 포함한다.
구체적으로, 회로기판(800-1)은 센싱유닛(900)에 대응하는 영역에 관통되는 개구(810)를 형성하고, 센싱유닛(900)은 회로기판(800-1)의 개구(810) 주위에 고정될 수 있다.
구체적으로, 센싱유닛(900)은 회로기판(800-1)의 개구(810) 내측에 위치하여 커버(600)와 개구(810)를 통해 유입되는 외부 신호를 수신하는 센서부(910)와, 개구(810) 주위로 연장되어 고정되는 고정부(920)를 포함한다. 예를 들어, 고정부(920)는 회로기판(800-1)의 너비 방향으로 연장되는 플랜지 형상일 수 있고, 고정부(920)는 회로기판(800-1)에 나사 또는 핀 결합구조로 결합되거나 접착제로 고정될 수 있다.
전자 디바이스(500)는 커버(600)와 회로기판(800-1) 사이에 차단부재(700)를 더 포함할 수 있다.
차단부재(700)는 필름 형태로 마련될 수 있다. 이 경우, 차단부재(700)는 커버(600)의 하면에 부착되거나 회로기판(800-1)의 상면에 부착될 수 있다. 위에서 설명한 바와 같이 커버(600) 하면의 형상이 단순해지면서 차단부재(700)를 마련하기 위해 스프레이 방식을 사용할 필요없이 필름 방식으로 시공하면서 제작 공정을 단순화하고 불량 발생율을 현저히 줄일 수 있다.
또는 차단부재(700)는 커버(600)와 일체로 형성될 수 있다. 여기서 일체로 형성된다는 의미는 기계적 결합을 하거나 별도의 접착제를 이용하여 부착하는 것이 아니라, 제작 공정 상(예를 들어, 사출 공정) 차단부재(700)가 커버(600)에 견고하게 고정될 수 있음을 의미한다. 예를 들어, 커버(600)는 광투과 레진(resin)을 이용하여 제작되고, 차단부재(700)는 커버(600)의 일 면에 비투과 레진을 이용하여 일체화시킬 수 있다. 차단부재(700)를 커버(600)에 일체화시키는 방법으로 이중 사출 공정이 사용될 수 있다. 이하, 도 9를 참조하여 해당 공정을 설명하기로 한다.
도 9는 이중 사출 공정으로 전자 디바이스(500-1)를 제작하는 공정을 설명하기 위한 도면이다.
도 9의 (a)를 참조하면, 광투과 레진을 소재로 하고, 사출 공정을 통해 커버(600)를 제작한다. 도 9의 (b)를 참조하면, 커버(600)의 일 면에 비투과 레진을 이용하여 이중 사출 공법으로 차단부재(700)를 형성한다. 차단부재(700)는 이중 사출 공정 동안에 커버(600)에 일체로 형성될 수 있다. 이 때, 비투과 레진(700)은 센싱유닛(900)이 배치되는 영역에 개구(710)를 형성하도록 사출된다. 이처럼, 이중 사출 공정을 이용함으로써 개구(710)를 형성하기 위해 별도 마스킹 공정을 추가할 필요가 없다. 마지막으로, 도 9의 (c)를 참조하면, 차단부재(700)의 일면에 회로기판(800-1)을 결합하고, 회로기판(800-1)의 개구(810)부에 센싱유닛(900)을 결합함으로써 공정이 완료될 수 있다.
도 10은 본 발명의 제2 실시예에 따른 전자 디바이스(500-2)를 나타내는 단면도이다.
도 10을 참조하면, 본 발명의 제2 실시예에 따른 전자 디바이스(500-2)는 커버(600-1)가 차단부재(700-1)가 형성되는 영역과 센싱유닛(900)이 배치되는 영역이 서로 다른 이중 구조로 형성될 수 있다. 구체적으로, 커버(600-1)는 차단부재(700-1)가 마련되는 영역이 내측으로 요입되고, 요입된 영역에 차단부재(700-1)가 마련될 수 있다. 동일한 의미로, 커버(600-1)는 센싱유닛(900)이 배치되는 위체에 대응되는 영역이 돌출되고, 돌출부 주위로 차단부재(700-1)가 마련될 수 있다.
도 10에 도시된 방법으로 이중 사출하는경우, 도 9와 같은 방법으로 이중 사출하는 것과 비교하여, 커버(600-1)와 차단부재(700-1)가 차지하는 두께가 감소한다는 장점이 있다.
도 11은 본 발명의 제3 실시예에 따른 전자 디바이스(500-3)를 나타내는 단면도이다.
도 11을 참조하면, 본 발명의 제3 실시예에 따른 전자 디바이스(500-3)는 센싱유닛(900-1)이 센서부(910) 주위에 차단 돌출부(930)를 구비함으로써, 커버(600)와 회로기판(800-1) 사이에 별도의 차단부재(700, 도 8 참조)를 사용하지 않을 수 있다.
구체적으로, 커버(600)의 일 면에 개구(810)가 형성되는 회로기판(800-1)이 결합되고, 회로기판(800-1)의 개구(810) 내에 센싱유닛(900-1)의 차단 돌출부(930)가 삽입 결합될 수 있다. 차단 돌출부(930)는 비투과 재질로 마련되거나, 내측에 비투과 재질이 코팅될 수 있다.
차단 돌출부(930)는 보스 형상으로 마련될 수 있다. 예를 들어, 회로기판(800-1)의 개구(810)는 원통 형상일 수 있고, 차단 돌출부(930)는 일정한 두께를 가지는 원통 형상일 수 있다. 이 때, 차단 돌출부(930)의 단부는 커버(600)에 밀착할 수 있고, 차단 돌출부(930)에 비투과 재질이 코팅되는 경우 커버(600)를 마주보면 면에도 비투과 재질이 코팅될 수 있다.
센서부(910)는 차단 돌출부(930) 내부의 공간으로 유입되는 외부 신호를 수신할 수 있다.
본 발명의 제3 실시예에 따른 전자 디바이스(500-3)는 시트 형상의 차단부재(700, 도 8 참조)를 생략함으로써 전체적인 두께를 감소시킬 수 있고, 제작 공정시간을 단축할 수 있다.
도 12는 본 발명의 제4 실시예에 따른 전자 디바이스(500-4)를 나타내는 단면도이다.
도 12를 참조하면, 본 발명의 제4 실시예에 따른 전자 디바이스(500-4)는 센싱유닛(900-2)에서 센서부(910)가 배치되는 영역이 회로기판(800-1)의 개구(810) 내측으로 삽입될 수 있다. 구체적으로, 센싱유닛(900-2)은 회로기판(800-1)의 개구(810)에 삽입되는 돌출 삽입부(940)와, 돌출 삽입부(940)의 일 측에서 외측으로 연장되어 회로기판(800-1)에 고정되는 고정부(920)를 포함한다. 예를 들어, 회로기판(800-1)의 개구(810)는 원통 형상일 수 있고, 돌출 삽입부(940)는 일 면에 센서부(910)가 마련되는 원통 형상일 수 있다. 이 때, 센서부(910)는 커버(600)와 일정 거리를 두고 배치될 수 있다.
본 발명의 제4 실시예에 따른 전자 디바이스(500-4)는 센서부(910)가 회로기판(800-1)의 개구(810) 내측에 배치됨으로써 전체적인 두께를 감소시킬 수 있다.
앞에서 설명된 본 발명의 어떤 실시예들 또는 다른 실시예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시예들 또는 다른 실시예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.
예를 들어 특정 실시예 및/또는 도면에 설명된 A 구성과 다른 실시예 및/또는 도면에 설명된 B 구성이 결합될 수 있음을 의미한다. 즉, 구성 간의 결합에 대해 직접적으로 설명하지 않은 경우라고 하더라도 결합이 불가능하다고 설명한 경우를 제외하고는 결합이 가능함을 의미한다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
[도면부호]
100: 증강현실 전자 디바이스, 101: 프레임부,
102: 렌즈, 103: 제어부,
104: 음향 출력부, 105: 디스플레이부,
106: 촬영수단, 107: 사용자 입력부,
200: 가상현실 전자 디바이스, 201: 헤드유닛,
202: 디스플레이유닛, 203: 커버부,
204: 디스플레이부, 205: 안면패드,
206: 촬영수단, 207: 센싱유닛,
210: 컨트롤러, 211: 그립부,
212: 헤드부, 213: 사용자 입력부,
214: 센싱유닛, 220: 위치추적장치,
230: 외부장치,
500: 전자 디바이스, 600: 커버,
700: 차단부재, 710: 개구,
800: 회로기판, 810: 개구,
900: 센싱유닛, 910: 센서부,
920: 고정부, 930: 차단 돌출부,
940: 돌출 삽입부, 1000: 프레임.

Claims (19)

  1. 외부의 신호가 통과할 수 있는 커버;
    상기 커버의 일 측에 마련되고, 상기 외부의 신호가 통과하는 제1 개구부가 형성되는 회로기판; 및
    상기 회로기판의 일 측에 마련되고, 상기 제1 개구부에 대응하는 위치에 마련되어 상기 외부의 신호를 수신하는 센서부가 구비되는 센싱유닛을 포함하는 전자 디바이스.
  2. 제1 항에 있어서,
    상기 커버와 상기 회로기판 사이에 마련되고, 상기 외부의 신호가 통과하지 못하는 차단부재를 더 포함하고,
    상기 차단부재는 상기 제1 개구부에 대응하는 위치에 제2 개구부가 형성되어 상이 외부의 신호를 통과시키는 전자 디바이스.
  3. 제1 항에 있어서,
    상기 센싱유닛은 상기 제1 개구부 주위에 고정되는 고정부와, 상기 제1 개구부 내측에 노출되는 개방부를 포함하고,
    상기 센서부는 상기 개방부에 마련되는 전자 디바이스.
  4. 제1 항에 있어서,
    상기 커버의 내측 면과 이에 마주보는 상기 회로기판의 일 면 사이의 거리는 상기 커버의 내측 면과 이에 마주보는 상기 센서부의 일 면 사이의 거리보다 가까운 전자 디바이스.
  5. 제2 항에 있어서,
    상기 차단부재의 일 면은 이에 마주보는 상기 회로기판의 일 면에 접촉하는 전자 디바이스.
  6. 제2 항에 있어서,
    상기 차단부재는 상기 회로기판의 일 면 상에 적층되는 전자 디바이스.
  7. 제2 항에 있어서,
    상기 차단부재는 상기 커버의 내측 면 상에 적층되는 전자 디바이스.
  8. 제 2항에 있어서,
    상기 커버는 상기 차단부재가 배치되는 영역의 두께 보다 상기 제2 개구부에 대응하는 영역의 두께가 더 두껍게 마련되고,
    상기 커버의 상기 제2 개구부에 대응하는 영역과 상기 차단부재의 내측 면은 동일 평면을 형성하는 전자 디바이스.
  9. 제1 항에 있어서,
    상기 센싱유닛은 상기 제1 개구부에 삽입되고, 상기 외부의 신호가 통과할 수 없는 차단 돌출부를 더 구비하고,
    상기 센서부는 상기 차단 돌출부의 내측에 마련되는 전자 디바이스.
  10. 제9 항에 있어서,
    상기 차단 돌출부 내측에는 상기 외부의 신호가 통과할 수 없는 차단코팅이 마련되는 전자 디바이스.
  11. 제9 항에 있어서,
    상기 차단 돌출부는 내측에 요입되는 홈이 형성되고, 상기 센서부는 상기 홈의 바닥면에 마련되는 전자 디바이스.
  12. 제1 항에 있어서,
    상기 센서부가 마련되는 상기 센싱유닛의 일 면은 상기 커버와 마주보는 면에 대향하는 상기 회로기판의 일 측면 보다 상기 커버에 가깝게 위치하는 전자 디바이스.
  13. 제12 항에 있어서,
    상기 센싱유닛은 상기 제1 개구부 내측에 삽입되는 삽입부가 마련되고, 상기 삽입부의 단부에 상기 센서부가 마련되는 전자 디바이스.
  14. 제13 항에 있어서,
    상기 센싱유닛은 상기 삽입부 주위에 방사 방향으로 둘출되고 상기 회로기판의 일 측면에 고정되는 고정부를 더 구비하는 전자 디바이스.
  15. 제1 항에 있어서,
    상기 전자 디바이스는 상기 외부의 신호를 수신하여 사용자의 신체일부의 위치 정보를 전달하여 증강 현실에 이용하는 것을 특징으로 하는,
    전자 디바이스.
  16. 외부의 신호를 수신하여 사용자의 신체 일부의 위치 정보를 전달하는 적어도 하나의 외부 컨트롤러와, 상기 외부 컨트롤러의 위치 정보를 화면에 표시하는 디스플레이장치를 포함하는 전자 디바이스에 있어서,
    상기 외부 컨트롤러는,
    상기 외부의 신호가 통과할 수 있는 커버;
    상기 커버의 일 측에 마련되고, 상기 외부의 신호가 통과하는 제1 개구부가 형성되는 회로기판; 및
    상기 회로기판의 일 측에 마련되고, 상기 제1 개구부에 대응하는 위치에 마련되어 상기 외부의 신호를 수신하는 센서부가 구비되는 센싱유닛을 포함하는 전자 디바이스.
  17. 제16 항에 있어서,
    상기 디스플레이장치는 헤드 마운티드 디스플레이(HMD)인 전자 디바이스.
  18. 외부의 신호를 수신하는 전자 디바이스를 제작하는 방법에 있어서,
    상기 외부의 신호가 통과할 수 있는 커버를 사출 방식으로 형성하고,
    상기 커버의 일 면에 상기 외부의 신호가 통과하지 못하는 차단부재를 이중사출 방식으로 형성하되, 상기 차단부재에 상기 외부의 신호가 통과할 수 있는 윈도우가 마련되도록 개구를 형성하고,
    개구부가 형성된 회로기판의 일 면에 센서부를 구비하는 센싱유닛을 고정하되, 상기 센서부를 상기 개구부에 대응하는 위치에 배치하고;
    상기 커버 또는 상기 차단부재 중 어느 하나와 상기 회로기판을 결합하되, 상기 회로기판의 상기 센싱유닛이 고정되는 면에 대향하는 면이 상기 차단부재에 근접하도록 배치하는 전자 디바이스를 제작하는 방법.
  19. 제18 항에 있어서,
    상기 전자 디바이스는 상기 외부의 신호를 수신하여 사용자의 신체 일부의 위치 정보를 전달하여 증강 현실에 이용하는 것을 특징으로 하는,
    전자 디바이스를 제작하는 방법.
PCT/KR2019/009715 2019-08-05 2019-08-05 전자 디바이스 및 이를 제작하는 방법 WO2021025190A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2019/009715 WO2021025190A1 (ko) 2019-08-05 2019-08-05 전자 디바이스 및 이를 제작하는 방법
US16/488,930 US20210360778A1 (en) 2019-08-05 2019-08-05 Electronic device and method for manufacturing the same
KR1020190116997A KR20190116195A (ko) 2019-08-05 2019-09-23 전자 디바이스 및 이를 제작하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/009715 WO2021025190A1 (ko) 2019-08-05 2019-08-05 전자 디바이스 및 이를 제작하는 방법

Publications (1)

Publication Number Publication Date
WO2021025190A1 true WO2021025190A1 (ko) 2021-02-11

Family

ID=68171300

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/009715 WO2021025190A1 (ko) 2019-08-05 2019-08-05 전자 디바이스 및 이를 제작하는 방법

Country Status (3)

Country Link
US (1) US20210360778A1 (ko)
KR (1) KR20190116195A (ko)
WO (1) WO2021025190A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002051268A (ja) * 2000-08-01 2002-02-15 Mitsubishi Electric Corp 撮像装置
JP2004120617A (ja) * 2002-09-27 2004-04-15 Konica Minolta Holdings Inc 撮像装置及び携帯端末
KR20110116847A (ko) * 2010-04-20 2011-10-26 삼성테크윈 주식회사 카메라 모듈 및 그 제조방법
KR101732040B1 (ko) * 2012-12-03 2017-05-02 후지필름 가부시키가이샤 고체 촬상 소자용 유지 기판 및 그 제조 방법, 고체 촬상 장치
KR20190075045A (ko) * 2016-08-25 2019-06-28 페이스북 테크놀로지스, 엘엘씨 깊이 매핑을 위한 어레이 검출기

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102374479B1 (ko) * 2015-08-13 2022-03-16 삼성전자주식회사 디스플레이와 센서를 포함한 전자 장치
US10602039B2 (en) * 2016-09-19 2020-03-24 Microsoft Technology Licensing, Llc Ultra-compact image sensor assembly for thin profile devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002051268A (ja) * 2000-08-01 2002-02-15 Mitsubishi Electric Corp 撮像装置
JP2004120617A (ja) * 2002-09-27 2004-04-15 Konica Minolta Holdings Inc 撮像装置及び携帯端末
KR20110116847A (ko) * 2010-04-20 2011-10-26 삼성테크윈 주식회사 카메라 모듈 및 그 제조방법
KR101732040B1 (ko) * 2012-12-03 2017-05-02 후지필름 가부시키가이샤 고체 촬상 소자용 유지 기판 및 그 제조 방법, 고체 촬상 장치
KR20190075045A (ko) * 2016-08-25 2019-06-28 페이스북 테크놀로지스, 엘엘씨 깊이 매핑을 위한 어레이 검출기

Also Published As

Publication number Publication date
US20210360778A1 (en) 2021-11-18
KR20190116195A (ko) 2019-10-14

Similar Documents

Publication Publication Date Title
WO2021040106A1 (ko) Ar 장치 및 그 제어 방법
WO2020226235A1 (ko) 전자 디바이스
WO2020189866A1 (ko) 머리에 착용할 수 있는 전자 디바이스
WO2021040076A1 (ko) 전자 디바이스
WO2021040119A1 (ko) 전자 디바이스
WO2019231306A2 (ko) 전자 디바이스
WO2020138640A1 (ko) 전자 디바이스
WO2019231307A2 (ko) 전자 디바이스
WO2021040107A1 (ko) Ar 장치 및 그 제어 방법
WO2021040117A1 (en) Electronic device
WO2021040116A1 (en) Electronic device
WO2020190082A1 (ko) 이동 단말기를 이용한 내비게이션 서비스 제공 방법 및 이동 단말기
WO2021040083A1 (ko) 머리에 착용할 수 있는 전자 디바이스
WO2021049694A1 (ko) 전자 디바이스
WO2021049693A1 (ko) 전자 디바이스
WO2022059893A1 (ko) 방열 구조를 포함하는 웨어러블 전자 장치
WO2022102954A1 (ko) 디스플레이를 포함하는 웨어러블 전자 장치
WO2020138636A1 (ko) 전자 기기
WO2021040084A1 (ko) 머리에 착용할 수 있는 전자 디바이스
WO2021029479A1 (ko) 전자 디바이스
WO2021040081A1 (ko) 전자 디바이스
WO2021040082A1 (ko) 전자 디바이스
WO2021033784A1 (ko) 표시 모듈을 포함하는 전자 디바이스
WO2021040097A1 (ko) 머리에 착용할 수 있는 전자 디바이스
WO2021040067A1 (ko) 근거리에 영상을 출력시킬 수 있는 광학 디바이스

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19940825

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19940825

Country of ref document: EP

Kind code of ref document: A1