WO2016006951A2 - System and method for processing information using wearable device - Google Patents

System and method for processing information using wearable device Download PDF

Info

Publication number
WO2016006951A2
WO2016006951A2 PCT/KR2015/007146 KR2015007146W WO2016006951A2 WO 2016006951 A2 WO2016006951 A2 WO 2016006951A2 KR 2015007146 W KR2015007146 W KR 2015007146W WO 2016006951 A2 WO2016006951 A2 WO 2016006951A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
wearable device
vehicle
user
information
Prior art date
Application number
PCT/KR2015/007146
Other languages
French (fr)
Korean (ko)
Other versions
WO2016006951A3 (en
Inventor
한성철
엄정한
김진영
이경현
김대중
김석기
유철현
김주천
김주원
Original Assignee
넥시스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140091839A external-priority patent/KR101592398B1/en
Priority claimed from KR1020140113234A external-priority patent/KR20160025840A/en
Priority claimed from KR1020150042540A external-priority patent/KR20160010294A/en
Priority claimed from KR1020150042539A external-priority patent/KR101684264B1/en
Application filed by 넥시스 주식회사 filed Critical 넥시스 주식회사
Publication of WO2016006951A2 publication Critical patent/WO2016006951A2/en
Publication of WO2016006951A3 publication Critical patent/WO2016006951A3/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Definitions

  • the present invention relates to an information processing system and method using a wearable device, and more particularly, to a system and method for information processing data acquired during an activity of a user having a wearable device.
  • the head mounted display device is mainly made of a safety glasses or a helmet type device to see the screen in front of the eyes, and was developed to realize virtual reality.
  • glass wearable devices Although various types of glass wearable devices have been researched and emerged, methods or services that wearers can conveniently utilize in daily life are very limited, and UI (User Interface) or UX (User Experience) suitable for glass wearable devices is very limited. Neither is it being developed. In addition, recently, glass-type wearable devices that can perform most functions by themselves, as well as glass-type wearable devices used in conjunction with mobile terminals such as smartphones, have been developed. Different from the mobile terminal of the need for a service suitable for the characteristics of the glass-type wearable device.
  • UI User Interface
  • UX User Experience
  • one object of the present invention is to provide a service suitable for a glass-type wearable device that can be utilized by the user or wearer of the glass-type wearable device.
  • an object of the present invention is to provide a service that is specific to a user by acquiring an image or image in front of a glass type wearable device including a specific image (for example, a bus, a truck, a traffic light, a traffic violation, etc.).
  • a specific image for example, a bus, a truck, a traffic light, a traffic violation, etc.
  • the present invention provides a system and a method for providing a service such as a bus arrival notice, an arrangement notice, a traffic light change notice, or a traffic law violation vehicle notification.
  • An information processing method using a wearable device includes: specifying a route number of a specific bus; Acquiring a front image or a front image by the glass type wearable device; Recognizing a route number of the vehicle appearing in the front image or the front image; And providing a bus arrival notification to a user when the recognized route number is the same as the designated route number.
  • the route number designation may be characterized by acquiring the front image or the front image including the route number attached to the stop and specifying the character through text recognition.
  • the route number designation may be characterized by designating the route number corresponding to the hand gesture in the front image or the front image.
  • the route number designation may be characterized by designating the route number by voice recognition of the user.
  • the method may further include providing wireless communication by receiving driving information of the route number bus, wherein the driving information includes location information of the route number bus close to a current position and estimated time of arrival of the route number bus in real time. It may be at least one of the previous stop departure notification information of the line number bus.
  • the method may further include providing a user with a rotation direction for acquiring a road image approaching the vehicle through the analysis of the front image.
  • the bus arrival notification providing step if the recognized route number is the same as the designated route number, the step of real-time measuring the distance away from the current location of the bus; And performing a voice guidance corresponding to the separated distance.
  • the route number recognition step the glass-type wearable device for measuring a high or low angle or azimuth; Calculating an expected arrangement range in the forward image of the route number by reflecting the high or low angle; And searching and recognizing the route number within the expected arrangement range.
  • an information processing method using a wearable device includes: acquiring, by a glass type wearable device, a front image or an image; Extracting a vehicle image of a target vehicle in the image or image; Acquiring target vehicle identification information from the extracted vehicle image; And comparing the target vehicle identification information with the wanted vehicle identification information and transmitting notification information to the outside through wireless communication, wherein the wanted vehicle identification information is received from an external server in real time or periodically.
  • Type is stored in a wearable device.
  • the obtaining of the target vehicle identification information may include extracting the vehicle number through text recognition in the vehicle image.
  • the method may further include obtaining current location information by the glass type wearable device; And acquiring driving direction information of the arrangement vehicle by analyzing the image or the image based on the gazing direction at the time of capturing the image or the image.
  • the transmitting of the notification information comprises: the location information and the It may be characterized by transmitting the driving direction information of the arrangement vehicle.
  • An information processing method using a wearable device includes the steps of: acquiring, by a glass type wearable device, a front image or an image; Extracting a vehicle image of a target vehicle in the image or image; Extracting a vehicle number of the target vehicle through character recognition in the vehicle image; Transmitting the vehicle number to an external server through wireless communication; And when the target vehicle is an arranging vehicle, the glass type wearable device receiving detailed information of the arranging vehicle from the external server and providing the same to the user.
  • the front image or the image acquiring step may include acquiring the front image when the license plate occupies a specific ratio or more of the photographed image.
  • the method may further include excluding a matched region from the search region of the front image or the image compared with the previous front image or the previous front image photographed before a specific time, wherein the search region is configured to extract the vehicle image. It may be an area in the front image or the image to be searched.
  • the extracting of the vehicle image may include recognizing and extracting a shape corresponding to a previously stored vehicle outline from the front image or the image.
  • the vehicle number extracting step may include extracting the vehicle number by recognizing the license plate on the basis of an attachment position of the license plate in the vehicle image or a ratio of the vehicle license plate in the vehicle image. It may be performed by at least one or more of the manner of extracting the vehicle number in the vehicle image through a format.
  • an information processing method using a wearable device includes: acquiring an image or an image by the glass type wearable device; Analyzing the image or the image to recognize a usage state of the glass type wearable device; Determining a shape of a signal lamp or a shape of a signal to be recognized by the glass type wearable device based on the use situation; Searching for the traffic light by the glass type wearable device; Recognizing a signal change of the searched traffic light; And providing the signal change notification to a user.
  • the use situation recognition step it may be characterized in that whether the user performs the driving through the analysis of the image or image.
  • the user can quickly and easily report when there is an inconvenience caused by a traffic violation violation vehicle. It is very easy because the report is performed to the external server of the report center only by photographing the image or image including the vehicle in violation of the traffic laws.
  • FIG. 9 is an exemplary screen for providing arrangement notification information using a glass type wearable device according to an embodiment of the present invention.
  • FIG. 12 is an exemplary diagram showing a signal change of a pedestrian traffic light on a display unit according to an embodiment of the present invention.
  • FIG. 14 is an exemplary diagram in which a glass type wearable device obtains an image or an image including a traffic violation violation vehicle according to an embodiment of the present invention.
  • FIG 2 is an exemplary view of a glass type wearable device related to one embodiment of the present invention.
  • the camera 120 is for inputting a video signal or an image signal, and two or more cameras 120 may be provided according to a configuration aspect of the device.
  • the camera 120 processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a photographing mode.
  • the processed image frame may be displayed on the display 310.
  • the image frame processed by the camera 120 may be stored in the memory 260 or transmitted to the outside through the wireless communication unit 250.
  • the control unit 210 transmits the image signal and the video signal.
  • the sensing unit 130 generates a sensing signal for controlling the operation of the device by detecting the current state of the device, such as whether the user wears the glass-shaped wearable device 10 or the position of the device.
  • the sensing unit 130 may perform a function of an input unit receiving an input signal for information processing of the device, and may perform various sensing functions such as whether an external device is connected or not.
  • the sensing unit 130 includes a proximity sensor, a pressure sensor 133, a motion sensor, a fingerprint recognition sensor, an iris recognition sensor 134, a heart rate detection sensor 135, a skin temperature sensor, a skin resistance sensor and an electrocardiogram sensor. And various sensors.
  • the distance sensor includes a distance measurement method between two points, a triangulation method (infrared ray type, natural light type), and ultrasonic type.
  • a triangulation method infrared ray type, natural light type
  • ultrasonic type As in the conventional triangulation principle, the distance between two points is displayed when the measured objects from the two paths are reflected by a right-angle prism and incident on the two image sensors so that the relative positions match.
  • the ultrasonic method is a method in which the distance is measured by transmitting an ultrasonic wave having a sharp directivity to the object to be measured and receiving a reflected wave from the object to be measured.
  • the receiving sensor uses a piezoelectric element.
  • the voice input unit 140 is for inputting a voice signal and may include a microphone.
  • the microphone receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes it into electrical voice data.
  • the processed voice data may be converted into a form transmittable to the mobile communication base station through the wireless communication unit 250 and output in the call mode.
  • various noise canceling algorithms may be used to remove noise generated while receiving an external sound signal.
  • the output unit 300 is for outputting an audio signal, an image signal, a video signal or an alarm signal.
  • the output unit 300 may include a display unit 310, a sound output unit 320, an alarm unit 330, and a haptic module 340.
  • the display unit 310 may be used as an input device in addition to the output device. If the display unit 310 is configured as a touch screen, the display unit 310 may include a touch screen panel and a touch screen panel controller.
  • the sound output unit 320 outputs audio data received from the wireless communication unit or stored in the memory 260 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output module 320 outputs a sound signal related to a function performed in the device, for example, a call signal reception sound and a message reception sound.
  • the sound output module 320 may include a speaker, a buzzer, and the like.
  • the haptic module 340 generates various haptic effects that a user can feel.
  • a representative example of the haptic effect generated by the haptic module 340 is a vibration effect.
  • the haptic module 340 When the haptic module 340 generates vibration by the tactile effect, the intensity and pattern of the vibration generated by the haptic module 340 may be converted, and may be output by combining different vibrations or sequentially.
  • the wireless communication unit 250 may include a broadcast receiving module, a mobile communication module, a wireless internet module, a short range communication module, and a location information module.
  • the broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network, and in this case, may be received by the mobile communication module.
  • Broadcast related information may exist in various forms.
  • the broadcast receiving module may receive a broadcast signal using various broadcast systems, and receive a digital broadcast signal using a digital broadcast system.
  • the broadcast receiving module may be configured to be suitable for all broadcast systems providing broadcast signals as well as such digital broadcast systems.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in the memory 260.
  • the mobile communication module transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to voice call signal, video call signal, or text / multimedia message transmission and reception.
  • the wireless internet module refers to a module for wireless internet access, and the wireless internet module may be embedded or external to the device.
  • Wireless Internet technologies include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), long term evolution (LTE), LTE-A Long Term Evolution-Advanced and the like can be used.
  • the short range communication module refers to a module for short range communication.
  • Beacon, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used as a short range communication technology.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • the location information module refers to a module that receives the positioning signal and measures the position of the glass type wearable device.
  • the position information module may correspond to a Global Position System (GPS) module, and the positioning signal may correspond to a GPS signal.
  • GPS Global Position System
  • the Global Position System (GPS) module receives position information from a plurality of GPS satellites.
  • the controller 210 typically controls the operation of each unit to perform a function of controlling the overall operation of the device. For example, perform related control and processing for voice calls, data communications, and the like. In addition, the controller 210 performs a function of processing data for multimedia reproduction. In addition, it performs a function of processing the data received from the input unit or the sensing unit 130.
  • the controller 210 performs face detection and face recognition for face recognition. That is, the controller 210 may include a face detection module and a face recognition module for face recognition.
  • the face detection module may extract only the face area from the camera image acquired by the camera unit 120. For example, the face detection module extracts a face region by recognizing feature elements in the face such as eyes, nose, and mouth.
  • the face recognition module may generate a template by extracting feature information from the extracted face region, and recognize a face by comparing a template with face information data in a face database.
  • the controller 210 may perform a function of recognizing a gaze direction based on an eyeball image or an image acquired by the second camera 122. That is, the controller 210 may include a gaze analysis module that performs gaze direction recognition. After measuring the gaze direction and the gaze direction of the user, it is possible to determine the direction that the user looks by calculating by synthesis.
  • the gaze direction refers to a direction of the face of the user and may be measured by the gyro sensor 131 or the acceleration sensor 132 of the sensing unit 130.
  • the gaze direction may be grasped by the gaze analysis module in a direction viewed by the user's pupil.
  • FIG. 4 is a flowchart illustrating a bus arrival notification method of the glass type wearable device according to an exemplary embodiment of the present invention.
  • the bus arrival notification method using the glass-type wearable device the step of specifying the route number of the particular bus (S100); Acquiring a front image or a front image by the glass type wearable device (S110); Recognizing a route number of the vehicle appearing in the front image or the front image (S120); And providing a bus arrival notification to the user when the recognized route number is the same as the designated route number (S130).
  • S100 the route number of the particular bus
  • S110 Acquiring a front image or a front image by the glass type wearable device
  • a bus arrival notification method using a glass type wearable device according to an embodiment of the present invention will be described in order.
  • the glass type wearable device 10 may designate a route number to be boarded by voice recognition of the user. That is, the glass type wearable device 10 receives a user's voice input for specifying the bus route number by the voice input unit 140, and recognizes the user's voice input by the voice recognition unit 220 to board the vehicle. You can specify the bus route number. If the user is visually impaired, low vision or elderly person who is difficult to find the route number attached to the bus stop, the user needs to input the desired bus number by voice command.
  • the glass type wearable device acquires a front image or a front image (S110). That is, the glass type wearable device 10 obtains a front image or image (ie, an image or image including cars passing through the road) including the road situation through the first camera 121.
  • a front image or image ie, an image or image including cars passing through the road
  • the glass type wearable device 10 recognizes a route number of a vehicle appearing in the front image or the front image (S120). As shown in FIG. 6, the glass type wearable device 10 recognizes a route number by extracting a number included in a front image or a front image.
  • the glass type wearable device 10 recognizes the vehicle from the acquired front image or the front image, and recognizes the number attached to the vehicle. Since the vehicle may include a number such as a vehicle number, a bus route number, and the like, the route number of the bus is extracted from one or more recognized numbers using the position of the attached number or letters around the number. For example, if the number is attached to the lower end of the vehicle is attached to the registration number of the vehicle, except that, if attached to the front glass of the vehicle is the route number of the bus is extracted. In addition, if one Hangul syllable is attached in front of the four digit number, it may correspond to the registration number of the vehicle, and the glass type wearable device 10 may automatically exclude the number.
  • the vehicle may include a number such as a vehicle number, a bus route number, and the like
  • the route number of the bus is extracted from one or more recognized numbers using the position of the attached number or letters around the number. For example, if the number is attached to the lower end of the vehicle is attached to
  • the glass type wearable device 10 may extract the bus image through the shape of the vehicle, the outline of the vehicle, the color, and the like, and recognize the route number in the bus image. Since a general vehicle other than a bus may include the same number as a bus route number, if only the image corresponding to the bus is extracted and the route number search is performed only within the bus image, the possibility of an error may be reduced. Accordingly, the glass type wearable device 10 may extract a bus image corresponding to the bus shape for line number recognition without excluding a vehicle such as a passenger car based on the bus shape from the search range.
  • the method of recognizing the route number of the bus is not limited thereto, and may be implemented by various methods such as a method of recognizing all numbers included in an image or an image and comparing the number with a designated route number.
  • the glass type wearable device 10 provides a bus arrival notification to the user (S130).
  • a notification providing method a method of displaying on the screen of the display 310, a method of providing a voice alarm, a method of providing a vibration alarm, and the like may be applied. That is, when the recognized line number and the designated line number are the same, the glass type wearable device 10 displays the arrival information on the display 310, sounds an alarm, transmits the arrival information by voice, or vibrates. Can be issued to notify the arrival of the bus of the designated route number.
  • the method may further include receiving and providing driving information of the route number bus through wireless communication.
  • the driving information may include location information of the route number bus close to the current location of the user, real-time arrival time information of the route number, departure stop notification information of the route bus, and the like.
  • the glass type wearable device 10 may receive location information such as a GPS signal of a route number bus that is close to the current location of the user. The glass type wearable device 10 may more accurately grasp the arrival of the designated route number bus through the GPS signal periodically received, and the user may anticipate the arrival of the bus.
  • the glass type wearable device 10 may allow the first camera 121 to acquire an image or an image. That is, when the glass type wearable device 10 continuously acquires the front image or the front image through the first camera, the power consumption is large, so that the bus is within a certain range based on the GPS signal (for example, the current position of the user). Within a certain radius), it is possible to reduce the power consumption by performing the route number recognition through forward image or image acquisition.
  • the method may further include providing a user with a rotation direction for acquiring a road image approaching the vehicle through the analysis of the front image.
  • the vehicle may not be included in the front image or the front image unless the user wears the glass type wearable device 10 and observes the road direction in which the vehicle approaches.
  • the glass type wearable device 10 may determine the direction in which the user looks by analyzing the front image or the front image. For example, the glass type wearable device 10 may determine the user's gaze direction based on the position of the road in the front image, the position of the bus stop, the moving direction of the vehicle, and the like.
  • the glass type wearable device 10 may calculate and provide a direction in which the user rotates to observe the direction in which the vehicle approaches.
  • the glass type wearable device 10 may calculate and provide a degree of rotation (eg, a rotation angle) for the user to observe the vehicle approach direction.
  • the glass type wearable device 10 may recognize that the gaze direction has reached within an appropriate range for capturing the approach of the vehicle as a front image through rotation and provide a notification.
  • the glass type wearable device 10 may recognize that a specific vehicle approaches and increases in size in the front image to reach an appropriate viewing direction.
  • the bus arrival notification providing step (S130) if the recognized route number is the same as the designated route number, the step of real-time measuring the distance away from the current location of the bus; And performing a voice guidance corresponding to the separated distance.
  • the glass type wearable device 10 may measure a distance in which the bus is away from the current location in real time. The distance may be measured in real time through a Doppler sensor or a distance sensor. Thereafter, the glass type wearable device 10 may provide voice guidance corresponding to a distance separated in real time. For example, the glass type wearable device 10 may read a distance away by voice and may provide a voice notification by adjusting a period of generating a notification sound according to the distance.
  • the route number recognition step (S120) the glass-type wearable device for measuring a high or low angle or azimuth; Calculating an expected arrangement range in the forward image of the route number by reflecting the high or low angle; And searching and recognizing the route number within the expected arrangement range.
  • the glass type wearable device 10 performs the route number search and extraction in the entire front image, it may take a long time, and thus the area to search for the route number needs to be limited.
  • the area where the route number is located in the front image may vary according to a direction in which the user wears and watches the glass type wearable device 10.
  • the user may hold his / her head slightly while wearing the glass wearable device 10, and the route number may be located in the lower region of the front image as compared to the front view. Therefore, the glass type wearable device 10 needs to measure a high or low angle or azimuth corresponding to the user's gaze direction, and determine an area to search for a bus route number in the front image by reflecting this.
  • the glass wearable device may measure a high or low angle. Thereafter, the glass type wearable device 10 may calculate an expected range of placement in the front image of the route number by reflecting a high or low angle or the azimuth. The glass type wearable device 10 may determine a vertical range to search for a route number through the measured high and low angles, and determine a horizontal range to search for a route number through the measured azimuth angle. Thereafter, the glass type wearable device 10 may search for and recognize the route number within the determined expected arrangement range.
  • the step of calculating the expected placement range may be calculated by reflecting the body information of the user. Since the estimated range of the route number may vary according to the height or eye level of the user, the estimated range of the range may be calculated by applying previously stored user's body information.
  • Bus arrival notification system using a glass-type wearable device includes a first camera 121, the control unit 210, the display unit 310.
  • the alarm unit 330 may further include.
  • the alarm unit 330 may perform a function of notifying the user of the bus arrival through voice or vibration.
  • the GPS module may further include a GPS module.
  • the GPS module performs a function of receiving location information of a route number bus close to the user's location.
  • the GPS module can identify the bus arrival information more accurately by grasping the location information of the corresponding route number bus which is the closest from the user.
  • the first camera 121 acquires an image or an image and recognizes the bus route number through a GPS module. Power consumption due to bus line number recognition can be reduced.
  • a situation in which the user of the glass wearable device misses the bus while performing another task with the glass wearable device while waiting for the bus at the bus stop may occur.
  • the visually impaired, low vision users such as to help the user to observe the direction of the bus, the bus arrival notification can be provided. Through this, it is possible to assist the visually impaired, low vision, etc. to use public transportation.
  • FIG. 7 is a flowchart illustrating a method of providing a notification to an external device 30 by recognizing an arrangement through a glass type wearable device according to another embodiment of the present invention.
  • a method for notifying a vehicle using a glass type wearable device may include: acquiring, by the glass type wearable device, a front image or a front image (S200); Extracting a vehicle image of a target vehicle in the image or image (S210); Acquiring target vehicle identification information from the extracted vehicle image (S220); And comparing the target vehicle identification information with the arrangement vehicle identification information and transmitting notification information to the outside through wireless communication (S230).
  • S200 acquiring, by the glass type wearable device, a front image or a front image
  • S210 Extracting a vehicle image of a target vehicle in the image or image
  • S220 Acquiring target vehicle identification information from the extracted vehicle image
  • S230 wireless communication
  • the glass type wearable device 10 may acquire the front image by recognizing it as a timing to acquire the front image. For example, the glass type wearable device 10 may recognize the license plate based on the color, the attachment position, or the shape of the license plate, and if the recognized license plate area occupies a specific ratio or more in the photographed image, the front image You can shoot.
  • the glass type wearable device 10 extracts a vehicle image of a target vehicle by analyzing an image or an image (S210). For example, the glass type wearable device 10 may recognize and extract a shape corresponding to a previously stored vehicle outline from the front image or the image. The glass type wearable device 10 may include contour information corresponding to various vehicles.
  • Target vehicle identification information is obtained from the extracted vehicle image (S220).
  • the identification information may be one or more of a vehicle number, a vehicle model, color, or appearance characteristic information (for example, tuning and scratching).
  • the vehicle model may be identified through a mark attached to the vehicle, a shape of a light, and the like.
  • the glass type wearable device 10 compares the target vehicle identification information with the arrangement information and transmits notification information to the outside through wireless communication (S230).
  • the arrangement information may be received from the external server 20 in real time or periodically and stored in the glass type wearable device. That is, the wireless communication unit 250 of the glass type wearable device 10 may periodically receive the arrangement identification information from the server and update the arrangement identification information in the memory 260. Through this, it is possible to prevent the wagon vehicle identification information that the glass type wearable device 10 needs to recognize is missing.
  • the user receiving the notification information may correspond to a person previously stored by the user of the glass type wearable device in order to transmit the arrangement position information.
  • the counterpart may be a fellow police officer.
  • the obtaining of the target vehicle identification information may include extracting the vehicle number through text recognition in the vehicle image.
  • the glass type wearable device 10 recognizes the license plate and extracts the license plate number based on the attachment position of the license plate in the vehicle image or the ratio of the license plate in the vehicle image, the vehicle number format.
  • the vehicle number may be extracted through a method of extracting the vehicle number from the vehicle image.
  • the method may further include obtaining current location information by the glass type wearable device; And acquiring driving direction information of the arrangement by analyzing the image or the image based on the gazing direction at the time of capturing the image or the image.
  • the transmitting of the notification information may include: Information and the driving direction information of the arrangement vehicle. That is, the notification information may include location information of the glass type wearable device having found the arrangement vehicle or driving direction information of the arrangement vehicle.
  • the glass type wearable device 10 may obtain current location information through a GPS module.
  • the glass type wearable device 10 may obtain driving direction information of the arrangement by analyzing the image or the image based on the gaze direction when the image or the image is captured.
  • the glass type wearable device 10 measures the azimuth angle and recognizes the gazing direction, and the vehicle is traveling in the opposite direction of the gazing direction. Can be identified.
  • the azimuth angle may be measured by a motion sensor such as an acceleration sensor 132 or a gyro sensor 131 of the glass type wearable device 10.
  • the glass type wearable device 10 compares the position of the vehicle in the previous image with the position of the vehicle in the current image, calculates the moving direction of the vehicle in the image, and reflects the driving direction information of the arrangement vehicle by reflecting the user's gaze direction. Can be calculated.
  • the glass type wearable device 10 may provide the other party with the position and the movement path of the wanted vehicle in association with the GPS information.
  • the method may include a step of excluding a matched region from the search region of the front image or the image compared with the previous front image or the previous front image photographed before a specific time.
  • the glass type wearable device 10 may set the specific area within the image or the image as the search area to search the target vehicle image and search the target vehicle identification information. That is, the search area may be a specific area within the front image or the image searched to extract the vehicle image.
  • the glass type wearable device 10 may exclude the matching area from the search area by comparing the previous front image or the previous front image and the previous front image or the current front image photographed before a specific time.
  • FIG. 8 is a flow chart of a method for providing detailed information on arrangements received from an external server 20 using a glass type wearable device according to an embodiment of the present invention.
  • a method for notifying a vehicle using a glass type wearable device may include: obtaining, by the glass type wearable device, a front image or an image (S300); Extracting a vehicle image of a target vehicle in the image or image (S310); Extracting a vehicle number of the target vehicle through character recognition in the vehicle image (S320); Transmitting the vehicle number to an external server 20 through wireless communication (S330); And when the target vehicle is an arranging vehicle, receiving the detailed information of the arranging vehicle from the external server 20 by the glass type wearable device (S340).
  • the arrangement of the vehicle notification method using the glass-type wearable device according to an embodiment of the present invention will be described in order. Hereinafter, detailed description of the above-described steps will be omitted.
  • the glass type wearable device acquires a front image or an image (S300; coincides with S200).
  • the glass type wearable device 10 extracts a vehicle number of the target vehicle through character recognition in the vehicle image (S320).
  • the glass type wearable device 10 recognizes the license plate and extracts the license plate number based on the attachment position of the license plate in the vehicle image or the ratio of the license plate in the vehicle image, the vehicle number format.
  • the vehicle number may be extracted by a method of extracting the vehicle number from the vehicle image.
  • the glass type wearable device 10 transmits the vehicle number to the external server 20 through wireless communication (S330).
  • the glass type wearable device 10 receives detailed information of the arranging vehicle from the external server 20 and provides it to the user (S340).
  • a method of providing detailed information of the arrangement vehicle a method of providing a voice notification, a method of displaying on the screen of the display unit, and the like may be applied.
  • the glass type wearable device 10 may provide a display screen by enlarging a license plate of a vehicle. In this case, a warning sound or vibration may be provided to attract the user's attention.
  • the method may further include excluding a matched region from the search region of the front image or the image by comparing the previous front image or the previous front image photographed before a specific time, wherein the search region extracts the vehicle image. May be an area in the front image or the image searched for.
  • the wireless communication unit 250 may perform a function of receiving the identification information of the arrangement.
  • the wireless communication unit 250 pre-registers the position information of the glass-shaped wearable device 10 and the detailed information of the arrangement, if the analyzed vehicle identification information corresponds to the identification information of the arrangement. You can send it to a user or an adjacent user.
  • the camera 120 performs a function of scanning road conditions as an image or an image.
  • the camera 120 may be one or more of a plurality of cameras attached to the glass type wearable device 10.
  • the controller 210 analyzes identification information of the vehicle captured in the scanned image or the image.
  • the output unit 300 performs a function of notifying whether the user of the glass type wearable device corresponds.
  • the output unit 300 may be one or more of the display unit 310, the voice output module 320, or the haptic module 340.
  • the detection rate of the arranging vehicle can be increased by transmitting location information on which the arranging vehicle is found and detailed information of the arranging vehicle to a pre-registered user or a neighboring user as soon as the arranging vehicle is found.
  • FIG. 10 is a flowchart illustrating a signal change notification method using a glass type wearable device according to an exemplary embodiment of the present invention.
  • the signal change notification method using the glass type wearable device may include: searching for a traffic light by the first camera 121 of the glass type wearable device (S400); Recognizing a signal change of the found traffic light (S410); And notifying the user of the signal change (S420).
  • searching for a traffic light by the first camera 121 of the glass type wearable device S400
  • Recognizing a signal change of the found traffic light S410
  • S420 notifying the user of the signal change
  • a signal change notification method using a glass type wearable device according to an embodiment of the present invention will be described in order.
  • the first camera 121 of the glass wearable device searches for a traffic light (S400).
  • the first camera 121 receives an image or an image in a direction viewed by the user, and the controller 210 searches for a traffic light in the input image or image.
  • the shape of the traffic light to be searched by the control unit 210 is stored in the storage unit 260, so that the control unit 210 receives the shape of the traffic light from the storage unit 260 and compares it with the shapes in the image or images. Find out.
  • the glass type wearable device 10 recognizes a signal change of the searched traffic light (S410). That is, when a signal change of the searched signal lamp occurs, the control unit 210 of the glass type wearable device 10 recognizes the signal change.
  • the recognition of the signal change may be performed by recognizing the color change of the traffic light or the change of the shape displayed on the traffic light.
  • the controller 210 recognizes the signal change according to the color of the signal, the controller 210 recognizes the red light as a stop signal and recognizes the green light as the straight signal.
  • the control unit 210 recognizes the signal change considering the existing signal and the changed signal together, if it is changed from the red light to the green light is recognized as a straight signal, if it is changed from the green light to the red light, it is recognized as a stop signal, and red light If the red light (or yellow light) is recognized again (or yellow light) after the (or yellow light), it can be recognized as a caution progress signal.
  • the glass type wearable device 10 may provide information on whether the crackdown area or the crackdown time is applicable based on the current location so that the user may determine whether a specific vehicle corresponds to a traffic law violation and decide to perform a report. have.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

Provided are a system and a method for processing information using a wearable device. The method for processing information using a wearable device according to the present invention comprises the steps of: (S100) designating a route number of a particular bus; (S110) a glasses-type wearable device acquiring a foreground video or image; (S120) recognizing the route number of a vehicle appearing in the foreground video or image; and (S130) if the recognized route number matches the designated route number, then providing a notice of the bus arrival to the user. According to the present invention, a situation in which a user, who is wearing a glasses-type wearable device and is waiting for a bus, misses a bus while engaged in other work via the glasses-type wearable device can be prevented from ocurring.

Description

웨어러블 디바이스를 이용한 정보처리 시스템 및 방법Information processing system and method using wearable device
본 발명은 웨어러블 디바이스를 이용한 정보처리 시스템 및 방법에 관한 것으로, 보다 자세하게는 웨어러블 디바이스를 보유한 사용자의 활동 중에 획득된 데이터를 정보 처리하는 시스템 및 방법에 관한 것이다.The present invention relates to an information processing system and method using a wearable device, and more particularly, to a system and method for information processing data acquired during an activity of a user having a wearable device.
정보화시대가 급속히 발전함에 따라 현실감 있는 화면을 구현하는 디스플레이 장치의 중요성이 강조되고 있으며, 일 예로서 두부 장착형 디스플레이 장치(head mounted display, HMD)가 있다. 두부 장착형 디스플레이 장치는 주로 보안경이나 헬멧형 기기로 눈앞에 있는 스크린을 보도록 이루어지며, 가상 현실감을 실현하기 위해 개발되었다. As the information age evolves rapidly, the importance of a display device for realizing a realistic screen is emphasized. An example is a head mounted display (HMD). The head mounted display device is mainly made of a safety glasses or a helmet type device to see the screen in front of the eyes, and was developed to realize virtual reality.
글라스형 웨어러블 디바이스는 양안(양쪽 눈)에 근접한 위치에 액정 등의 소형 디스플레이가 설치되어 영상을 투영하는 방식이 일반적이며, 현재는 우주 개발, 원자로, 군사 기관 및 의료 기관에서 사용하기 위한 것과 업무용이나 게임용 등에 대한 각종 개발이 진행되고 있다. 종래 기술에 따른 글라스형 웨어러블 디바이스는 미국 특허 등록 번호 US8,427,396에도 개시되어 있다.Glass-type wearable devices generally have a small display such as a liquid crystal installed at a position close to both eyes (both eyes) to project an image. Currently, the wearable device is for use in space development, nuclear reactors, military institutions, and medical institutions. Various developments for games and the like are in progress. A glass type wearable device according to the prior art is also disclosed in US Pat. No. US8,427,396.
다양한 형태의 글라스형 웨어러블 디바이스가 연구되고 등장하고 있으나, 착용자들이 일상생활에서 편리하게 활용할 수 있는 방법 또는 서비스는 매우 한정되어 있으며, 글라스형 웨어러블 디바이스에 적합한 UI(User Interface) 또는 UX(User Experience)도 개발되고 있지 않은 실정이다. 또한, 최근에는 스마트폰과 같은 이동단말기와 연동하여 사용하는 글라스형 웨어러블 디바이스뿐만 아니라 단독으로 대부분의 기능을 수행할 수 있는 글라스형 웨어러블 디바이스도 개발되고 있으므로, 글라스형 웨어러블 디바이스 시장의 활성화를 위해 기존의 이동단말기와 차이나는 글라스형 웨어러블 디바이스의 특성에 적합한 서비스가 필요하다.Although various types of glass wearable devices have been researched and emerged, methods or services that wearers can conveniently utilize in daily life are very limited, and UI (User Interface) or UX (User Experience) suitable for glass wearable devices is very limited. Neither is it being developed. In addition, recently, glass-type wearable devices that can perform most functions by themselves, as well as glass-type wearable devices used in conjunction with mobile terminals such as smartphones, have been developed. Different from the mobile terminal of the need for a service suitable for the characteristics of the glass-type wearable device.
이러한 문제점을 해결하기 위하여, 본 발명의 일목적은 글라스형 웨어러블 디바이스의 사용자 또는 착용자가 활용할 수 있는 글라스형 웨어러블 디바이스에 적합한 서비스를 제공하고자 한다.In order to solve this problem, one object of the present invention is to provide a service suitable for a glass-type wearable device that can be utilized by the user or wearer of the glass-type wearable device.
특히, 본 발명의 일목적은 글라스형 웨어러블 디바이스가 특정한 이미지(예를 들어, 버스, 수배차량, 신호등, 교통법규위반차량 등)를 포함하는 전방의 영상 또는 이미지를 획득하여 사용자에게 특정한 서비스(예를 들어, 버스 도착 알림, 수배차량 알림, 신호등 변경 알림, 교통법류 위반차량 해당 여부 알림 등의 서비스)를 제공하는 시스템 및 방법을 제공하고자 한다.Particularly, an object of the present invention is to provide a service that is specific to a user by acquiring an image or image in front of a glass type wearable device including a specific image (for example, a bus, a truck, a traffic light, a traffic violation, etc.). For example, the present invention provides a system and a method for providing a service such as a bus arrival notice, an arrangement notice, a traffic light change notice, or a traffic law violation vehicle notification.
본 발명의 일실시예에 따른 웨어러블 디바이스를 이용한 정보 처리 방법은, 특정한 버스의 노선번호 지정하는 단계; 상기 글라스형 웨어러블 디바이스가 전방영상 또는 전방이미지를 획득하는 단계; 상기 전방영상 또는 상기 전방이미지에 등장하는 차량의 노선번호를 인식하는 단계; 및 상기 인식된 노선번호가 상기 지정한 노선번호와 동일한 경우, 사용자에게 버스도착 알림을 제공하는 단계;를 포함한다.An information processing method using a wearable device according to an embodiment of the present invention includes: specifying a route number of a specific bus; Acquiring a front image or a front image by the glass type wearable device; Recognizing a route number of the vehicle appearing in the front image or the front image; And providing a bus arrival notification to a user when the recognized route number is the same as the designated route number.
또한, 상기 노선번호 지정은, 정류장에 부착된 상기 노선번호를 포함한 상기 전방영상 또는 상기 전방이미지를 획득하여 문자 인식을 통해 지정하는 것을 특징으로 할 수 있다.In addition, the route number designation may be characterized by acquiring the front image or the front image including the route number attached to the stop and specifying the character through text recognition.
또한, 상기 노선번호 지정은, 상기 전방영상 또는 상기 전방이미지 내 손 제스처에 대응되는 상기 노선번호를 지정하는 것을 특징으로 할 수 있다.In addition, the route number designation may be characterized by designating the route number corresponding to the hand gesture in the front image or the front image.
또한, 상기 노선번호 지정은, 상기 사용자의 음성인식으로 상기 노선번호를 지정하는 것을 특징으로 할 수 있다.In addition, the route number designation may be characterized by designating the route number by voice recognition of the user.
또한, 무선통신을 상기 노선번호 버스의 주행정보를 수신하여 제공하는 단계;를 더 포함하고, 상기 주행정보는 현재 위치에 근접한 상기 노선번호 버스의 위치 정보, 상기 노선번호 버스의 실시간 도착예정 시간정보, 상기 노선번호 버스의 이전 정류장 출발알림정보 중 적어도 하나 이상일 수 있다.The method may further include providing wireless communication by receiving driving information of the route number bus, wherein the driving information includes location information of the route number bus close to a current position and estimated time of arrival of the route number bus in real time. It may be at least one of the previous stop departure notification information of the line number bus.
또한, 상기 전방영상의 분석을 통해 상기 전방영상이 차량이 접근하는 도로영상을 획득하기 위한 회전방향을 사용자에게 제공하는 단계;를 더 포함할 수 있다.The method may further include providing a user with a rotation direction for acquiring a road image approaching the vehicle through the analysis of the front image.
또한, 상기 버스도착 알림 제공단계는, 상기 인식된 노선번호가 상기 지정한 노선번호와 동일한 경우, 상기 버스가 현재 위치로부터 떨어진 거리를 실시간 측정하는 단계; 및 상기 떨어진 거리에 상응하는 음성안내를 수행하는 단계;를 포함할 수 있다.In addition, the bus arrival notification providing step, if the recognized route number is the same as the designated route number, the step of real-time measuring the distance away from the current location of the bus; And performing a voice guidance corresponding to the separated distance.
또한, 상기 노선번호 인식단계는, 상기 글라스형 웨어러블 디바이스가 고저각 또는 방위각을 측정하는 단계; 상기 고저각 또는 상기 방위각을 반영하여 상기 노선번호의 상기 전방영상 내 예상배치범위를 산출하는 단계; 및 상기 예상배치범위 내에서 상기 노선번호를 탐색하여 인식하는 단계;를 포함할 수 있다.In addition, the route number recognition step, the glass-type wearable device for measuring a high or low angle or azimuth; Calculating an expected arrangement range in the forward image of the route number by reflecting the high or low angle; And searching and recognizing the route number within the expected arrangement range.
또한, 상기 예상배치범위 산출단계는, 상기 사용자의 신체정보를 반영하여 산출하는 것을 특징으로 할 수 있다.In addition, the expected placement range calculation step may be calculated by reflecting the body information of the user.
또한, 상기 노선번호 인식단계는, 상기 차량의 형상 또는 색상을 통해 상기 버스이미지를 추출하는 단계; 및 상기 버스이미지 내에서 상기 노선번호를 인식하는 단계;를 포함할 수 있다.In addition, the route number recognition step, the step of extracting the bus image through the shape or color of the vehicle; And recognizing the route number in the bus image.
본 발명의 다른 일실시예에 따른 웨어러블 디바이스를 이용한 정보처리 방법은, 글라스형 웨어러블 디바이스가 전방 영상 또는 이미지를 획득하는 단계; 상기 영상 또는 이미지 내 타겟차량의 차량이미지를 추출하는 단계; 상기 추출된 차량이미지에서 타겟차량 식별정보를 획득하는 단계; 및 상기 타겟차량 식별정보와 수배차량 식별정보를 비교하여 일치하면 무선통신을 통해 외부로 알림정보를 전송하는 단계;를 포함하며, 상기 수배차량 식별정보는 외부서버로부터 실시간 또는 주기적으로 수신되어 상기 글라스형 웨어러블 디바이스에 저장된다.In accordance with another aspect of the present invention, an information processing method using a wearable device includes: acquiring, by a glass type wearable device, a front image or an image; Extracting a vehicle image of a target vehicle in the image or image; Acquiring target vehicle identification information from the extracted vehicle image; And comparing the target vehicle identification information with the wanted vehicle identification information and transmitting notification information to the outside through wireless communication, wherein the wanted vehicle identification information is received from an external server in real time or periodically. Type is stored in a wearable device.
또한, 상기 식별정보는, 차량 번호, 차종, 색상 또는 외관 특징정보 중 하나 이상인 것을 특징으로 할 수 있다.The identification information may be at least one of a vehicle number, a vehicle model, color, and appearance characteristic information.
또한, 상기 식별정보가 차량번호인 경우, 상기 타겟차량 식별정보 획득단계는 상기 차량이미지 내 문자인식을 통해 상기 차량번호를 추출하는 단계;를 포함할 수 있다.In addition, when the identification information is a vehicle number, the obtaining of the target vehicle identification information may include extracting the vehicle number through text recognition in the vehicle image.
또한, 상기 글라스형 웨어러블 디바이스가 현재 위치정보를 획득하는 단계; 및 상기 영상 또는 이미지 촬영 시의 주시방향을 바탕으로, 상기 영상 또는 이미지를 분석하여 상기 수배차량의 주행방향정보를 획득하는 단계;를 더 포함하고, 상기 알림정보 전송단계는, 상기 위치정보 및 상기 수배차량의 주행방향정보를 전송하는 것을 특징으로 할 수 있다.The method may further include obtaining current location information by the glass type wearable device; And acquiring driving direction information of the arrangement vehicle by analyzing the image or the image based on the gazing direction at the time of capturing the image or the image. The transmitting of the notification information comprises: the location information and the It may be characterized by transmitting the driving direction information of the arrangement vehicle.
본 발명의 또 다른 일실시예에 따른 웨어러블 디바이스를 이용한 정보처리 방법은, 글라스형 웨어러블 디바이스가 전방 영상 또는 이미지를 획득하는 단계; 상기 영상 또는 이미지 내 타겟차량의 차량이미지를 추출하는 단계; 상기 차량이미지 내 문자인식을 통해 상기 타겟차량의 차량번호를 추출하는 단계; 상기 차량번호를 무선통신으로 외부서버로 전송하는 단계; 및 상기 타겟차량이 수배차량인 경우, 상기 글라스형 웨어러블 디바이스가 상기 외부서버로부터 상기 수배차량의 상세정보를 수신하여 사용자에게 제공하는 단계;를 포함한다.An information processing method using a wearable device according to another embodiment of the present invention includes the steps of: acquiring, by a glass type wearable device, a front image or an image; Extracting a vehicle image of a target vehicle in the image or image; Extracting a vehicle number of the target vehicle through character recognition in the vehicle image; Transmitting the vehicle number to an external server through wireless communication; And when the target vehicle is an arranging vehicle, the glass type wearable device receiving detailed information of the arranging vehicle from the external server and providing the same to the user.
또한, 상기 전방 영상 또는 이미지 획득단계는, 상기 차량번호판이 촬영영상의 특정 비율 이상을 차지하면 상기 전방 이미지를 획득하는 것을 특징으로 할 수 있다.The front image or the image acquiring step may include acquiring the front image when the license plate occupies a specific ratio or more of the photographed image.
또한, 특정시간 이전에 촬영된 종전전방영상 또는 종전전방이미지와 비교하여 일치하는 영역을 상기 전방 영상 또는 이미지의 탐색영역에서 제외하는 단계;를 포함하고, 상기 탐색영역은 상기 차량이미지를 추출하기 위해 탐색되는 상기 전방 영상 또는 이미지 내 영역일 수 있다.The method may further include excluding a matched region from the search region of the front image or the image compared with the previous front image or the previous front image photographed before a specific time, wherein the search region is configured to extract the vehicle image. It may be an area in the front image or the image to be searched.
또한, 상기 차량이미지 추출단계는, 기저장된 차량 윤곽선에 상응하는 형상을 상기 전방 영상 또는 이미지에서 인식하여 추출하는 것을 특징으로 할 수 있다.The extracting of the vehicle image may include recognizing and extracting a shape corresponding to a previously stored vehicle outline from the front image or the image.
또한, 상기 차량번호 추출단계는, 상기 차량이미지 내 차량번호판의 부착위치 또는 상기 차량이미지 내에서 상기 차량번호판이 차지하는 비율을 바탕으로 상기 차량번호판을 인식하여 상기 차량번호를 추출하는 방식, 상기 차량번호 형식을 통해 상기 차량이미지 내에서 상기 차량번호를 추출하는 방식 중 적어도 하나 이상에 의해 수행되는 것을 특징으로 할 수 있다.The vehicle number extracting step may include extracting the vehicle number by recognizing the license plate on the basis of an attachment position of the license plate in the vehicle image or a ratio of the vehicle license plate in the vehicle image. It may be performed by at least one or more of the manner of extracting the vehicle number in the vehicle image through a format.
본 발명의 또 다른 일실시예에 따른 웨어러블 디바이스를 이용한 정보처리 방법은, 상기 글라스형 웨어러블 디바이스가 영상 또는 이미지를 획득하는 단계; 상기 영상 또는 이미지를 분석하여 상기 글라스형 웨어러블 디바이스의 이용상황을 인식하는 단계; 상기 이용상황을 바탕으로, 상기 글라스형 웨어러블 디바이스가 인식할 신호등의 형태 또는 신호의 형태를 결정하는 단계; 상기 글라스형 웨어러블 디바이스가 상기 신호등을 탐색하는 단계; 상기 탐색된 신호등의 신호변경을 인식하는 단계; 및 사용자에게 상기 신호변경 알림을 제공하는 단계;를 포함한다.In accordance with another aspect of the present invention, an information processing method using a wearable device includes: acquiring an image or an image by the glass type wearable device; Analyzing the image or the image to recognize a usage state of the glass type wearable device; Determining a shape of a signal lamp or a shape of a signal to be recognized by the glass type wearable device based on the use situation; Searching for the traffic light by the glass type wearable device; Recognizing a signal change of the searched traffic light; And providing the signal change notification to a user.
또한, 상기 이용상황 인식단계는, 상기 영상 또는 이미지의 분석을 통해 사용자의 운전수행여부를 인식하는 것을 특징으로 할 수 있다.In addition, the use situation recognition step, it may be characterized in that whether the user performs the driving through the analysis of the image or image.
또한, 상기 이용상황 인식단계는, 상기 사용자가 운전 중으로 인식되면, 차량의 통행방향을 인식하는 것을 특징으로 할 수 있다In addition, the use situation recognition step, when the user is recognized as driving, it may be characterized by recognizing the traffic direction of the vehicle.
본 발명의 또 다른 일실시예에 따른 웨어러블 디바이스를 이용한 정보처리 방법은, 상기 글라스형 웨어러블 디바이스가 사용자로부터 이용모드를 선택받는 단계; 상기 글라스형 웨어러블 디바이스가 상기 이용모드에 부합하는 신호등을 파악하여 탐색하는 단계; 상기 탐색된 신호등의 신호변경을 인식하는 단계; 및 사용자에게 상기 신호변경 알림을 제공하는 단계;를 포함한다.An information processing method using a wearable device according to another embodiment of the present invention may include: receiving, by the glass type wearable device, a user's selection of a usage mode; The glass type wearable device identifying and searching for a signal lamp corresponding to the usage mode; Recognizing a signal change of the searched traffic light; And providing the signal change notification to a user.
또한, 상기 이용모드 선택단계는, 상기 사용자로부터 운전수행여부, 차량 통행방향, 사용국가 중 적어도 하나 이상을 선택받는 것을 특징으로 할 수 있다.In addition, the use mode selection step may be characterized in that the user is selected at least one or more of the driving performance, the vehicle traffic direction, the country of use.
또한, 상기 이용모드 선택단계는, 상기 사용자의 터치 조작을 통해 선택받는 방식, 상기 사용자의 음성명령을 인식하는 방식, 상기 사용자의 제스처를 인식하여 선택받는 방식, 상기 사용자의 눈깜박임을 인식하여 선택받는 방식 중 적어도 어느 하나에 의해 수행되는 것을 특징으로 할 수 있다.In addition, the use mode selection step, the method of being selected by the user's touch operation, the method of recognizing the voice command of the user, the method of receiving the selection by recognizing the user's gesture, the user's blink of the eye to select It may be characterized in that performed by at least one of the receiving manner.
본 발명의 또 다른 일실시예에 따른 웨어러블 디바이스를 이용한 정보처리 방법은, 제1카메라로 교통법규위반차량을 포함하는 영상 또는 이미지를 획득하는 단계; 현재 시간 및 현재위치를 인식하여 상기 영상 또는 이미지에 기록하는 단계; 및 상기 글라스형 웨어러블 디바이스가 신고센터의 외부서버로 교통법규위반차량정보를 무선통신으로 전송하여 신고하는 단계;를 포함한다.In accordance with another aspect of the present invention, an information processing method using a wearable device includes: obtaining an image or an image including a traffic law violation vehicle with a first camera; Recognizing a current time and a current position and recording the image or image; And transmitting, by the glass type wearable device, the traffic law violation vehicle information to a external server of the report center by wireless communication.
또한, 신고할 교통법규위반 유형을 선택하는 단계;를 더 포함할 수 있다.The method may further include selecting a type of traffic law violation to be reported.
또한, 상기 현재위치 정보를 상기 외부서버로 전송하여, 단속구역 또는 단속시간 해당여부 정보를 수신하여 제공하는 단계;를 더 포함할 수 있다.The method may further include transmitting and receiving the current location information to the external server, and receiving and providing information on whether the crackdown area or the crackdown time corresponds.
또한, 상기 신고 처리결과를 수신하여 사용자에게 제공하는 단계;를 더 포함할 수 있다.The method may further include receiving and providing the report processing result to a user.
또한, 상기 영상 또는 이미지에서 상기 교통법규위반차량의 번호판부분을 추출하여 확대이미지를 생성하는 단계;를 더 포함할 수 있다.The method may further include extracting a license plate portion of the traffic violation violation vehicle from the image or the image to generate an enlarged image.
또한, 상기 영상 또는 이미지에서 문자인식을 통해 차량번호를 파악하는 단계;를 더 포함할 수 있다.The method may further include identifying a vehicle number through text recognition in the image or image.
본 발명의 실시예들에 따르면, 아래와 같은 다양한 효과들을 가진다.According to embodiments of the present invention, it has various effects as follows.
첫째, 글라스형 웨어러블 디바이스 사용자가 버스정류장에서 버스를 기다리는 도중에 글라스형 웨어러블 디바이스로 다른 작업을 수행하다가 버스를 놓치는 상황이 발생하는 것을 방지할 수 있다. First, while the user of the glass wearable device waits for the bus at the bus stop, a situation in which the user wears the glass wearable device while performing another task and misses the bus may be prevented from occurring.
둘째, 사용자는 버스정류장의 버스도착확인시스템을 계속 확인하거나 들어오는 버스의 노선번호를 계속 확인하는 불편함을 해소할 수 있다. 또한, 사용자가 어플리케이션을 통해 버스의 위치를 계속 확인해야 하는 번거로움을 줄일 수 있다.Second, the user can eliminate the inconvenience of continuously checking the bus arrival confirmation system of the bus stop or checking the line number of the incoming bus. It also saves users the hassle of having to keep track of the location of the bus through the application.
셋째, 시각장애인, 저시력자 등의 사용자가 버스 접근방향을 주시할 수 있도록 도와주며, 버스 도착 알림을 제공받을 수 있다. 이를 통해, 시각장애인, 저시력자 등이 대중교통을 이용할 수 있도록 보조할 수 있다. Third, help the visually impaired, low vision users, such as the user to observe the bus approach direction, can receive a bus arrival notification. Through this, it is possible to assist the visually impaired, low vision, etc. to use public transportation.
넷째, 글라스형 웨어러블 디바이스를 이용하여, 도난 및 수배차량을 무의식적으로 인지할 수 있다. 뿐만 아니라, 수배차량을 발견하는 즉시 사전 등록된 사용자 또는 인접 사용자에게 수배차량을 발견한 위치 정보 및 수배차량의 상세정보를 전송함으로써 수배차량의 검거율을 높일 수 있다.Fourth, it is possible to unknowingly recognize theft and arranging vehicles using the glass type wearable device. In addition, the detection rate of the arranging vehicle can be increased by transmitting location information on which the arranging vehicle is found and detailed information of the arranging vehicle to a pre-registered user or a neighboring user as soon as the arranging vehicle is found.
다섯째, 상기 글라스형 웨어러블 디바이스의 사용자는 신호등을 응시하고 있지 않아도 신호변경을 인식할 수 있다. 운전자가 정지신호 시에 조수석 탑승자와 대화를 하다가 신호를 인지하지 못하여 교통정체가 생기는 상황 등이 발생하는 것을 방지할 수 있다.Fifth, a user of the glass type wearable device may recognize a signal change even without staring at a traffic light. When the driver talks to the passenger seat occupant at the stop sign, the driver may not recognize the signal and may cause traffic jams.
여섯째, 상기 사용자가 색각이상이 있거나 시각장애인인 경우, 상기 신호변경 알림시스템 및 알림방법을 이용하여, 음성알림이 되지 않는 신호등에서 신호변경을 인식하여 보행할 수 있다. 이를 통해 시각장애인 또는 색각이상자가 보행신호를 제대로 파악하지 못해 교통사고가 발생하는 것을 방지할 수 있다.Sixth, when the user has color vision abnormality or is visually impaired, the user may walk by recognizing a signal change in a signal that does not sound a voice by using the signal change notification system and a notification method. Through this, the visually impaired person or color vision impaired person does not properly grasp the walking signal, thereby preventing traffic accidents from occurring.
일곱째, 각국별 상황에 맞도록 상기 시스템이 설정될 수 있어서, 자동차의 주행방향이 반대인 일본, 영국 등에서도 유용하게 사용할 수 있다.Seventh, the system can be set to suit the situation of each country, it can be usefully used in Japan, the United Kingdom, and the like, the driving direction of the car is reversed.
여덟째, 사용자는 교통법규위반차량에 의해 불편함을 겪는 경우에 신속하고 간편하게 신고를 수행할 수 있다. 사용자가 교통법규를 위반한 차량을 포함하는 영상 또는 이미지를 촬영하는 것만으로 신고센터의 외부서버로 신고가 수행되므로 매우 간편하다.Eighth, the user can quickly and easily report when there is an inconvenience caused by a traffic violation violation vehicle. It is very easy because the report is performed to the external server of the report center only by photographing the image or image including the vehicle in violation of the traffic laws.
아홉째, 시민들이 간편하게 교통법규위반차량을 신고할 수 있어, 차량 운전자들이 주변에 경찰이나 단속카메라가 없는 경우에도 교통법규를 준수하도록 하는 효과가 있다. 시민들이 감시자 역할을 하여 언제든지 위반차량을 신고할 수 있으므로, 차량 운전자가 시민의 신고에 의해 벌금을 징수 받는 상황을 피하기 위해서 교통법규를 충실히 준수하게 된다.Ninth, citizens can easily report traffic violations, so that drivers can comply with traffic laws even when there are no police or cameras around. Citizens can act as watchers and report violations at any time, so they obey traffic laws in order to avoid getting drivers fines from citizen reports.
열번째, 경찰들의 교통법규 위반 단속을 위한 순찰 횟수를 줄일 수 있으며, 단속을 위해 설치하는 카메라의 수도 줄일 수 있어, 비용절감의 효과가 있다.Tenth, it is possible to reduce the number of patrols for police to crack down on traffic laws, and to reduce the number of cameras installed for crackdowns, thereby reducing costs.
열한번째, 사용자가 현재 위치가 교통위반 단속구간에 해당하는 지 파악하고 신고를 수행할지 여부를 결정할 수 있어, 교통위반에 해당하지 않는 신고의 수를 줄일 수 있는 효과가 있다.Eleventh, the user can determine whether the current location corresponds to the traffic violation enforcement section and decide whether to perform a report, thereby reducing the number of reports that do not correspond to the traffic violation.
도 1은 본 발명의 일 실시예들과 관련된 글라스형 웨어러블 디바이스 시스템의 블록 구성도(block diagram)이다.1 is a block diagram of a glass type wearable device system according to an exemplary embodiment of the present invention.
도 2는 본 발명의 일 실시예들과 관련된 글라스형 웨어러블 디바이스의 예시도면이다.2 is an exemplary view of a glass type wearable device related to one embodiment of the present invention.
도 3은 본 발명의 일 실시예들과 관련된 글라스형 웨어러블 디바이스, 외부서버 및 외부디바이스의 연결관계도이다.3 is a diagram illustrating a connection relationship between a glass type wearable device, an external server, and an external device according to an exemplary embodiment of the present invention.
도 4은 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 버스 도착 알림방법의 순서도이다.4 is a flowchart illustrating a bus arrival notification method using a glass type wearable device according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 따라 글라스형 웨어러블 디바이스가 노선번호를 포함한 전방영상 또는 전방이미지를 획득하여 노선번호를 지정하는 예시도면이다.5 is an exemplary diagram in which a glass-type wearable device acquires a forward image or a forward image including a route number and specifies a route number according to an embodiment of the present invention.
도 6는 본 발명의 일실시예에 따라 글라스형 웨어러블 디바이스가 사용자가 지정한 노선번호 버스의 도착을 인식하여 화면상에 표시한 예시도면이다.FIG. 6 is an exemplary view in which a glass type wearable device recognizes the arrival of a route number bus designated by a user and displays it on a screen according to an embodiment of the present invention.
도 7은 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 통해 수배차량을 인식하여 외부디바이스에 알림을 제공하는 방법의 순서도이다.7 is a flowchart illustrating a method of providing a notification to an external device by recognizing an arrangement through a glass type wearable device according to an embodiment of the present invention.
도 8는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용하여 외부서버로부터 수신한 수배차량 상세정보를 제공하는 방법의 순서도이다. 8 is a flow chart of a method for providing detailed information of arrangements received from an external server using a glass type wearable device according to an embodiment of the present invention.
도 9는 본 발명의 일실시예에 따라 글라스형 웨어러블 디바이스를 이용하여 수배차량 알림정보를 제공하는 예시화면이다.9 is an exemplary screen for providing arrangement notification information using a glass type wearable device according to an embodiment of the present invention.
도 10는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 신호변경 알림방법에 대한 순서도이다.10 is a flowchart illustrating a signal change notification method using a glass type wearable device according to an embodiment of the present invention.
도 11는 본 발명의 일실시예에 따라 운전자 신호등의 신호변경을 디스플레이부에 표시한 예시도면이다.FIG. 11 is an exemplary view of displaying a signal change of a driver traffic light on a display unit according to an embodiment of the present invention. FIG.
도 12은 본 발명의 일실시예에 따라 보행자 신호등의 신호변경을 디스플레이부에 표시한 예시도면이다.12 is an exemplary diagram showing a signal change of a pedestrian traffic light on a display unit according to an embodiment of the present invention.
도 13는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 교통법규위반 차량 신고방법의 순서도이다.13 is a flowchart illustrating a traffic law violation vehicle reporting method using a glass type wearable device according to an embodiment of the present invention.
도 14은 본 발명의 일실시예에 따라 글라스형 웨어러블 디바이스가 교통법규위반차량을 포함한 영상 또는 이미지를 획득하는 예시도면이다.14 is an exemplary diagram in which a glass type wearable device obtains an image or an image including a traffic violation violation vehicle according to an embodiment of the present invention.
도 15는 본 발명의 일실시예에 따라 외부서버로부터 수신한 단속구간 및 단속시간 정보를 표시한 디스플레이부의 예시도면이다.15 is an exemplary diagram of a display unit displaying interruption interval and interruption time information received from an external server according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms. It is provided to fully convey the scope of the invention to those skilled in the art, the invention being defined only by the scope of the claims. Meanwhile, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and / or “comprising” refers to the presence of one or more other components, steps, operations and / or elements. Or does not exclude additions. In addition, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.
도 1은 본 발명의 일 실시예들과 관련된 글라스형 웨어러블 디바이스 시스템(10)의 블록 구성도(block diagram)이다. 1 is a block diagram of a glass type wearable device system 10 according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시예들과 관련된 글라스형 웨어러블 디바이스 시스템(10)은 입력부(100), 사용자입력부(110), 키보드(111), 터치패드(112), 카메라부(120), 제1카메라(121), 제2카메라(122), 제3카메라(123), 센싱부(130), 자이로센서(131), 가속도센서(132), 압력센서(133), 홍채인식센서(134), 심박검출센서(135), 근전도센서(136), 음성입력부(140), 정보처리부(210), 음성인식부(220), 상황평가모듈(230), 음성-텍스트변환모듈(240), 무선통신부(250), 메모리(260), 인터페이스부(230), 출력부(300), 디스플레이부(310), 음향출력부(320), 알람부(330), 및 햅틱모듈(340)의 전부 또는 일부를 포함한다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 글라스형 웨어러블 디바이스가 구현될 수도 있다.Referring to FIG. 1, the glass type wearable device system 10 according to an exemplary embodiment of the present invention may include an input unit 100, a user input unit 110, a keyboard 111, a touch pad 112, and a camera unit 120. ), The first camera 121, the second camera 122, the third camera 123, the sensing unit 130, the gyro sensor 131, the acceleration sensor 132, the pressure sensor 133, iris recognition sensor 134, heart rate detection sensor 135, EMG sensor 136, voice input unit 140, information processing unit 210, voice recognition unit 220, situation evaluation module 230, voice-to-text conversion module 240 ), A wireless communication unit 250, a memory 260, an interface unit 230, an output unit 300, a display unit 310, an audio output unit 320, an alarm unit 330, and a haptic module 340. It includes all or part of. The components shown in FIG. 1 are not essential, so a glassy wearable device with more or less components may be implemented.
도 2는 본 발명의 일 실시예들과 관련된 글라스형 웨어러블 디바이스의 예시도면이다.2 is an exemplary view of a glass type wearable device related to one embodiment of the present invention.
상기 구성요소들은 도 2에서와 같은 글라스형 웨어러블 디바이스의 내부 또는 일측에 구비될 수 있다.The components may be provided inside or on one side of the glass type wearable device as shown in FIG. 2.
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
입력부(100)는 오디오 신호, 비디오 신호, 사용자의 조작신호, 생체신호 등의 입력을 위한 것이다. 입력부(100)는 사용자입력부(110), 카메라부(120), 센싱부(130), 음성입력부(140)를 포함한다.The input unit 100 is for inputting an audio signal, a video signal, a user's manipulation signal, a biosignal, and the like. The input unit 100 includes a user input unit 110, a camera unit 120, a sensing unit 130, and a voice input unit 140.
사용자입력부(110)는 사용자가 디바이스의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자입력부(110)는 키패드(key pad), 키보드(111), 돔 스위치(dome switch), 터치패드(정압/정전)(112), 조그 휠, 조그 스위치, 핑거 마우스 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(310)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.The user input unit 110 generates key input data input by the user for controlling the operation of the device. The user input unit 110 may include a keypad, a keyboard 111, a dome switch, a touch pad (static pressure / capacitance) 112, a jog wheel, a jog switch, a finger mouse, and the like. In particular, when the touch pad forms a mutual layer structure with the display unit 310 to be described later, this may be referred to as a touch screen.
카메라(120)는 비디오 신호 또는 이미지 신호 입력을 위한 것으로, 디바이스의 구성 태양에 따라 2개 이상이 구비될 수도 있다. 카메라(120)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(310)에 표시될 수 있다. 또한, 카메라(120)에서 처리된 화상 프레임은 메모리(260)에 저장되거나 무선통신부(250)를 통하여 외부로 전송될 수 있다. 또한, 이미지 신호 또는 비디오 신호가 정보처리를 위한 입력으로 쓰이는 경우, 제어부(210)로 이미지 신호 및 비디오 신호를 전달한다.The camera 120 is for inputting a video signal or an image signal, and two or more cameras 120 may be provided according to a configuration aspect of the device. The camera 120 processes image frames such as still images or moving images obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display 310. In addition, the image frame processed by the camera 120 may be stored in the memory 260 or transmitted to the outside through the wireless communication unit 250. In addition, when an image signal or a video signal is used as an input for information processing, the control unit 210 transmits the image signal and the video signal.
카메라부(120)는 촬영하는 영상의 방향 또는 목적에 따라 하나 이상의 카메라를 포함할 수 있다. 제1카메라(121)는 글라스형 웨어러블 디바이스의 일측에 구비되어 전방의 영상을 촬영할 수 있다. 제2카메라(122)는 글라스형 웨어러블 디바이스의 일측에 구비되어 안구 방향의 영상 또는 이미지를 획득할 수 있다. 제3카메라(123)는 상기 글라스형 웨어러블 디바이스(10)의 후방 또는 측방에 구비되어, 후방 또는 측방의 영상 또는 이미지를 획득할 수 있다.The camera unit 120 may include one or more cameras according to the direction or purpose of the captured image. The first camera 121 may be provided at one side of the glass type wearable device to capture an image of the front side. The second camera 122 may be provided at one side of the glass type wearable device to acquire an image or an image in an eyeball direction. The third camera 123 may be provided at the rear or side of the glass type wearable device 10 to acquire an image or an image of the rear or side.
센싱부(130)는 사용자의 글라스형 웨어러블 디바이스(10)의 착용여부, 디바이스의 위치 등과 같이 디바이스의 현 상태를 감지하여 디바이스의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 센싱부(130)는 디바이스의 정보처리를 위한 입력신호를 받는 입력부의 기능을 담당할 수 있으며, 외부 기기 연결 여부 인식 등의 다양한 센싱 기능을 담당할 수 있다.The sensing unit 130 generates a sensing signal for controlling the operation of the device by detecting the current state of the device, such as whether the user wears the glass-shaped wearable device 10 or the position of the device. In addition, the sensing unit 130 may perform a function of an input unit receiving an input signal for information processing of the device, and may perform various sensing functions such as whether an external device is connected or not.
센싱부(130)는 근접센서(Proximity Sensor), 압력센서(133), 모션 센서, 지문인식센서, 홍채인식센서(134), 심박검출센서(135), 피부온도센서, 피부저항센서 및 심전도센서 등의 다양한 센서를 포함할 수 있다. The sensing unit 130 includes a proximity sensor, a pressure sensor 133, a motion sensor, a fingerprint recognition sensor, an iris recognition sensor 134, a heart rate detection sensor 135, a skin temperature sensor, a skin resistance sensor and an electrocardiogram sensor. And various sensors.
근접센서는 접근하는 물체나, 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. 근접센서는 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. 근접센서는 구성 태양에 따라 2개 이상이 구비될 수 있다.The proximity sensor can detect the presence or absence of an approaching object or an object present in the vicinity without mechanical contact. The proximity sensor can detect a proximity object by using a change in an alternating magnetic field or a change in a static magnetic field, or by using a change rate of capacitance. Two or more proximity sensors may be provided according to the configuration aspect.
압력센서(133)는 디바이스에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. 압력센서(133)는 사용환경에 따라 디바이스에서 압력의 검출이 필요한 부위에 설치될 수 있다. 만일, 압력센서(133)가 디스플레이부(310)에 설치되는 경우, 압력센서(133)에서 출력되는 신호에 따라, 디스플레이부(310)를 통한 터치 입력과, 터치 입력보다 더 큰 압력이 가해지는 압력터치 입력을 식별할 수 있다. 또한, 압력센서(133)에서 출력되는 신호에 따라, 압력터치 입력 시에 디스플레이부(310)에 가해지는 압력의 크기도 알 수 있다.The pressure sensor 133 may detect whether pressure is applied to the device, the magnitude of the pressure, and the like. The pressure sensor 133 may be installed at a portion of the device requiring detection of pressure according to the use environment. If the pressure sensor 133 is installed in the display 310, a touch input through the display 310 and a greater pressure than the touch input are applied according to the signal output from the pressure sensor 133. The pressure touch input can be identified. In addition, according to the signal output from the pressure sensor 133, it is also possible to know the magnitude of the pressure applied to the display 310 when the pressure touch input.
모션 센서는 자이로센서(131), 가속도센서(132), 지자기센서 등의 센서 중에서 하나 이상을 포함하며, 이를 이용하여 디바이스의 위치나 움직임 등을 감지한다. 모션 센서에 사용될 수 있는 가속도센서(132)는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있다. 또한, 자이로센서(131)는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향을 감지할 수 있다.The motion sensor includes one or more of sensors such as a gyro sensor 131, an acceleration sensor 132, and a geomagnetic sensor, and detects the position or movement of the device using the same. The acceleration sensor 132 that can be used for a motion sensor is a device that converts an acceleration signal in one direction into an electrical signal, and is widely used with the development of micro-electromechanical systems (MEMS) technology. In addition, the gyro sensor 131 is a sensor for measuring the angular velocity, and may sense a direction returned to the reference direction.
심박검출센서(135)는 심장 박동에 의한 혈관 굵기의 변화에 따른 광혈류량의 변화를 측정한다. 피부 온도 센서는 온도 변화에 반응하여 저항값이 변화하는 것에 따라 피부 온도를 측정한다. 피부 저항 센서는 피부의 전기 저항을 측정한다.The heart rate detection sensor 135 measures the change in the light blood flow rate according to the change in blood vessel thickness due to the heartbeat. The skin temperature sensor measures the skin temperature as the resistance value changes in response to the temperature change. Skin resistance sensors measure the electrical resistance of the skin.
홍채인식센서(134)는 사람마다 고유한 특성을 가진 안구의 홍채 정보를 이용해 사람을 인식하는 기능을 수행한다. 사람의 홍채는 생후 18개월 이후 완성된 뒤, 홍채의 내측연 가까이에 융기되어 있는 원형의 홍채 패턴은 한번 정해지면 거의 변하지 않고, 또 사람마다 모양이 모두 다르다. 따라서 홍채인식은 사람마다 각기 다른 홍채의 특성을 정보화해 이를 보안용 인증기술로 응용한 것이다. 즉, 홍채의 모양과 색깔, 망막 모세혈관의 형태소 등을 분석해 사람을 식별하기 위한 수단으로 개발한 인증방식이다.The iris recognition sensor 134 performs a function of recognizing a person using iris information of an eye having unique characteristics for each person. The human iris is completed after 18 months of age, and then the circular iris pattern, which is raised near the inner edge of the iris, is almost unchanged once determined. Therefore, iris recognition is the application of security authentication technology by informatizing the characteristics of different iris for each person. In other words, it is an authentication method developed as a means of identifying people by analyzing the shape and color of the iris and the morphology of the retinal capillaries.
홍채인식센서(134)는 홍채의 패턴을 코드화해 이를 영상신호로 바꾸어 비교판단하는데, 일반적인 작동 원리는 다음과 같다. 먼저 일정한 거리에서 홍채인식기 중앙에 있는 거울에 사용자의 눈이 맞춰지면, 적외선을 이용한 카메라가 줌렌즈를 통해 초점을 조절한다. 이어 홍채 카메라가 사용자의 홍채를 사진으로 이미지화한 뒤, 홍채 인식 알고리즘이 홍채의 명암 패턴을 영역별로 분석해 개인 고유의 홍채 코드를 생성한다. 마지막으로 홍채 코드가 데이터베이스에 등록되는 것과 동시에 비교 검색이 이루어진다. 상기 홍채인식센서(134)는 안구방향으로 배치된 제2카메라(122)에 내부에 구비될 수 있으며, 이러한 경우 홍채인식센서의 기능을 상기 제2카메라(122)가 수행할 수 있다.The iris recognition sensor 134 codes and compares the iris pattern with an image signal, and determines the comparison. The general operation principle is as follows. First, when the user's eyes are focused on the mirror in the center of the iris recognizer at a certain distance, the infrared camera adjusts the focus through the zoom lens. Then, the iris camera images the user's iris into a photograph, and the iris recognition algorithm analyzes the iris contrast patterns by area to generate a unique iris code. Finally, a comparison search is performed as soon as the iris code is registered in the database. The iris recognition sensor 134 may be provided inside the second camera 122 disposed in the eye direction, and in this case, the second camera 122 may perform a function of the iris recognition sensor.
거리센서는 2점간 거리 측정방식, 3각 측량방식(적외선 이용식, 자연광 이용식), 초음파 방식 등이 있다. 종래의 3각측량의 원리와 같이, 2개의 경로에서 온 피측정물을 직각 프리즘으로 반사시켜 2개의 이미지 센서에 입사시켜 상대적 위치가 합치했을 때, 2점간의 거리가 표시된다. 이 경우, 자연광으로 하는 방법(수동식)과 적외선을 발사하여 행하는 방법이 있다. 초음파방식은 피측정물에 지향성이 날카로운 초음파를 송신하여 피측정물로부터의 반사파를 수신하기까지의 시간을 측정하여 거리를 아는 방식인데, 수신센서는 압전소자가 사용된다.The distance sensor includes a distance measurement method between two points, a triangulation method (infrared ray type, natural light type), and ultrasonic type. As in the conventional triangulation principle, the distance between two points is displayed when the measured objects from the two paths are reflected by a right-angle prism and incident on the two image sensors so that the relative positions match. In this case, there are a method of generating natural light (passive type) and a method of emitting infrared rays. The ultrasonic method is a method in which the distance is measured by transmitting an ultrasonic wave having a sharp directivity to the object to be measured and receiving a reflected wave from the object to be measured. The receiving sensor uses a piezoelectric element.
상기 도플러레이더는 레이더의 한 방식으로, 반사파의 위상변화 즉, 파의 도플러 효과를 이용한 레이더이다. 상기 도플러레이더는 펄스 변조되지 않는 사인파를 송ㆍ수신하는 연속파 레이더와 전자파 신호파형으로서 방형파에 펄스 변조된 전파를 사용하는 펄스 레이더가 있다.The Doppler radar is a radar that utilizes a phase change of the reflected wave, that is, a Doppler effect of the wave. The doppler radar includes a continuous wave radar that transmits and receives a sine wave which is not pulse modulated, and a pulse radar that uses pulse modulated radio waves as an electromagnetic wave signal waveform.
연속파 레이더에서는 도플러 주파수 필터의 성능을 얻기 쉽게 하기 위해서 변조주파수를 비교적 높게 취하기 때문에 원거리를 대상으로 한 레이더에는 부적당하나, 도플러 주파수를 가청주파수대로 택함으로써 인체나 차량 등의 움직임을 안정감 있는 소리로서 재생할 수 있는 특징이 있다. 펄스 레이더는 펄스 송신에서 반사 에코 수신까지의 시간에 의해 목표까지의 거리를 계측한다. 송신 펄스폭 내에서 주파수 변조나 위상 변조를 가하는 펄스 압축 레이더라 일컬어지는 방식이 있다. Continuous wave radar is unsuitable for long range radar because modulating frequency is relatively high in order to obtain the performance of Doppler frequency filter. There are features that can be. The pulse radar measures the distance to the target by the time from pulse transmission to reflection echo reception. There is a method called pulse compression radar that applies frequency modulation or phase modulation within the transmission pulse width.
음성입력부(140)는 음성신호의 입력을 위한 것으로 마이크 등이 포함될 수 있다. 마이크는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고 처리된 음성 데이터는 통화 모드인 경우 무선통신부(250)를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 사용될 수 있다.The voice input unit 140 is for inputting a voice signal and may include a microphone. The microphone receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes it into electrical voice data. The processed voice data may be converted into a form transmittable to the mobile communication base station through the wireless communication unit 250 and output in the call mode. As a microphone, various noise canceling algorithms may be used to remove noise generated while receiving an external sound signal.
출력부(300)는 오디오 신호, 이미지신호, 비디오 신호 또는 알람(alarm) 신호 등의 출력을 위한 것이다. 출력부(300)에는 디스플레이부(310), 음향출력부(320), 알람부(330), 및 햅틱 모듈(340) 등이 포함될 수 있다.The output unit 300 is for outputting an audio signal, an image signal, a video signal or an alarm signal. The output unit 300 may include a display unit 310, a sound output unit 320, an alarm unit 330, and a haptic module 340.
디스플레이부(310)는 디바이스에서 처리되는 정보를 표시 출력한다. 예를 들어 디바이스가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 디바이스가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다. The display 310 displays and outputs information processed by the device. For example, when the device is in a call mode, the device displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the device is in a video call mode or a photographing mode, the captured or received images may be displayed at the same time or simultaneously, and the UI and the GUI may be displayed.
한편, 전술한 바와 같이, 디스플레이부(310)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이부(310)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 만일, 디스플레이부(310)가 터치스크린으로 구성되는 경우, 터치스크린 패널, 터치스크린 패널 제어기 등을 포함할 수 있다. On the other hand, as described above, when the display unit 310 and the touch pad form a mutual layer structure to form a touch screen, the display unit 310 may be used as an input device in addition to the output device. If the display unit 310 is configured as a touch screen, the display unit 310 may include a touch screen panel and a touch screen panel controller.
이외에도 디스플레이부(310)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. 그리고, 디바이스의 구현 형태에 따라 디스플레이부(310)가 2개 이상 존재할 수도 있다. 예를 들어, 디바이스에 외부 디스플레이부(310)와 내부 디스플레이부(310)가 동시에 구비될 수 있다.In addition, the display unit 310 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. It may include at least one of (3D display). In addition, two or more display units 310 may exist according to the implementation form of the device. For example, the external display unit 310 and the internal display unit 310 may be simultaneously provided in the device.
디스플레이부(310)는 HUD(Head up Display), HMD(Head mounted Display) 등으로 구현될 수 있다. HMD(Head mounted Display)란 안경처럼 머리에 쓰고 대형 영상을 즐길 수 있는 영상표시장치다. HUD(Head up Display)는 사용자의 가시영역 내의 유리에 가상 화상(virtual image)을 투영시키는 영상표시장치이다.The display unit 310 may be implemented as a head up display (HUD), a head mounted display (HMD), or the like. HMD (Head mounted Display) is a video display device that you can wear on your head like glasses and enjoy large images. A head up display (HUD) is an image display device for projecting a virtual image onto glass in a user's visible area.
음향출력부(320)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부로부터 수신되거나 메모리(260)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(320)은 디바이스에서 수행되는 기능, 예를 들어, 호신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. 이러한 음향출력 모듈(320)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 320 outputs audio data received from the wireless communication unit or stored in the memory 260 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 320 outputs a sound signal related to a function performed in the device, for example, a call signal reception sound and a message reception sound. The sound output module 320 may include a speaker, a buzzer, and the like.
알람부(330)는 디바이스의 이벤트 발생을 알리기 위한 신호를 출력한다. 디바이스에서 발생하는 이벤트의 예로는 호신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(330)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 알람부(330)는 호신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 신호를 출력할 수 있다. 또한. 알람부(330)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. 이러한 알람부(330)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. 디바이스에서 이벤트 발생 알림을 위한 신호는 디스플레이부(310)나 음향출력부(320)를 통해서도 출력될 수 있다.The alarm unit 330 outputs a signal for notifying occurrence of an event of the device. Examples of events occurring in the device include call signal reception, message reception, and key signal input. The alarm unit 330 outputs a signal for notifying occurrence of an event in a form other than an audio signal or a video signal. For example, the signal may be output in the form of vibration. The alarm unit 330 may output a signal to notify the call signal when the call signal is received or a message is received. Also. When the key signal is input, the alarm unit 330 may output the signal as a feedback to the key signal input. The user may recognize the occurrence of an event through the signal output from the alarm unit 330. The signal for notifying the event occurrence in the device may also be output through the display 310 or the sound output unit 320.
햅틱 모듈(haptic module)(340)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(340)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. 햅틱 모듈(340)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(340)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 340 generates various haptic effects that a user can feel. A representative example of the haptic effect generated by the haptic module 340 is a vibration effect. When the haptic module 340 generates vibration by the tactile effect, the intensity and pattern of the vibration generated by the haptic module 340 may be converted, and may be output by combining different vibrations or sequentially.
무선통신부(250)는 방송수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈, 및 위치정보모듈 등을 포함할 수 있다.The wireless communication unit 250 may include a broadcast receiving module, a mobile communication module, a wireless internet module, a short range communication module, and a location information module.
방송수신 모듈은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 방송관리 서버는, 방송신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기 생성된 방송 신호 및 방송관련 정보 중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다.The broadcast receiving module receives at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel. In this case, the broadcast channel may include a satellite channel, a terrestrial channel, and the like. The broadcast management server may mean a server that generates and transmits at least one of a broadcast signal and broadcast related information, or a server that receives at least one of the pre-generated broadcast signal and broadcast related information and transmits the same to a terminal.
방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈에 의해 수신될 수 있다. 방송관련 정보는 다양한 형태로 존재할 수 있다. The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network, and in this case, may be received by the mobile communication module. Broadcast related information may exist in various forms.
방송수신 모듈은, 각종 방송 시스템을 이용하여 방송 신호를 수신하며, 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 또한, 방송수신 모듈은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. 방송수신 모듈을 통해 수신된 방송신호 및/또는 방송 관련 정보는 메모리(260)에 저장될 수 있다.The broadcast receiving module may receive a broadcast signal using various broadcast systems, and receive a digital broadcast signal using a digital broadcast system. In addition, the broadcast receiving module may be configured to be suitable for all broadcast systems providing broadcast signals as well as such digital broadcast systems. The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in the memory 260.
이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to voice call signal, video call signal, or text / multimedia message transmission and reception.
무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈은 디바이스에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(long term evolution), LTE-A(Long Term Evolution-Advanced) 등이 이용될 수 있다. The wireless internet module refers to a module for wireless internet access, and the wireless internet module may be embedded or external to the device. Wireless Internet technologies include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), long term evolution (LTE), LTE-A Long Term Evolution-Advanced and the like can be used.
근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 비콘(Beacon), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다. The short range communication module refers to a module for short range communication. Beacon, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used as a short range communication technology.
위치정보모듈은 측위신호를 수신하여 글라스형 웨어러블 디바이스의 위치를 측정하는 모듈을 말한다. 예를 들어, 상기 위치정보모듈은 GPS(Global Position System) 모듈이 해당될 수 있으며, 측위신호는 GPS 신호가 해당될 수 있다. GPS(Global Position System) 모듈은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다.The location information module refers to a module that receives the positioning signal and measures the position of the glass type wearable device. For example, the position information module may correspond to a Global Position System (GPS) module, and the positioning signal may correspond to a GPS signal. The Global Position System (GPS) module receives position information from a plurality of GPS satellites.
메모리(260)는 제어부(210)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 260 may store a program for processing and controlling the controller 210, and may perform a function for temporarily storing input or output data (eg, a message, a still image, a video, etc.). It may be.
메모리(260)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스는 인터넷(internet) 상에서 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다. 메모리(260)는 이하 저장부(260)로 표현될 수 있다.The memory 260 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM The storage medium may include at least one type of storage medium. In addition, the device may operate a web storage that performs a storage function of a memory on the Internet. The memory 260 may be referred to as a storage 260 hereinafter.
인터페이스부(230)는 디바이스에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 디바이스에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리 카드(Memory card), SIM(Subscriber Identification Module)이나 UIM(User Identity Module) 카드 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자, 이어폰 등이 있다. 인터페이스부(230)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 디바이스 내부의 각 구성 요소에 전달할 수 있고, 디바이스 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The interface unit 230 serves as an interface with all external devices connected to the device. Examples of external devices that connect to the device include wired / wireless headsets, external chargers, wired / wireless data ports, memory cards, card sockets such as Subscriber Identification Module (SIM) or User Identity Module (UIM) cards, Audio I / O (Input / Output) terminals, video I / O (Input / Output) terminals, earphones, and the like. The interface unit 230 may receive data from such an external device or receive power and transfer the power to each component inside the device, and allow the data inside the device to be transmitted to the external device.
제어부(210)는 통상적으로 상기 각부의 동작을 제어하여 디바이스의 전반적인 동작을 제어하는 기능을 수행한다. 예를 들어 음성 통화, 데이터 통신 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(210)는 멀티미디어 재생을 위해 데이터를 처리하는 기능을 수행한다. 또한, 입력부 또는 센싱부(130)로부터 입력받은 데이터를 처리하는 기능을 수행한다. The controller 210 typically controls the operation of each unit to perform a function of controlling the overall operation of the device. For example, perform related control and processing for voice calls, data communications, and the like. In addition, the controller 210 performs a function of processing data for multimedia reproduction. In addition, it performs a function of processing the data received from the input unit or the sensing unit 130.
또한, 제어부(210)는 얼굴인식을 위한 얼굴 검출 및 얼굴 인식을 수행한다. 즉, 제어부(210)는 얼굴인식을 위한 얼굴검출모듈 및 얼굴인식모듈을 포함할 수 있다. 얼굴검출모듈은 카메라부(120)에 의해 획득된 카메라 영상에서 얼굴영역만을 추출할 수 있다. 예를 들어, 얼굴검출모듈은 눈, 코, 입 등의 얼굴 내 특징요소를 인식하여 얼굴영역을 추출할 수 있다. 얼굴인식모듈은 추출된 얼굴영역에서 특징정보를 추출하여 템플릿을 생성하고, 얼굴데이터베이스 내의 얼굴정보 데이터와 탬플릿 비교를 수행하여 얼굴을 인식할 수 있다.In addition, the controller 210 performs face detection and face recognition for face recognition. That is, the controller 210 may include a face detection module and a face recognition module for face recognition. The face detection module may extract only the face area from the camera image acquired by the camera unit 120. For example, the face detection module extracts a face region by recognizing feature elements in the face such as eyes, nose, and mouth. The face recognition module may generate a template by extracting feature information from the extracted face region, and recognize a face by comparing a template with face information data in a face database.
또한, 제어부(210)는 카메라부(120)에 의해 획득된 영상 또는 이미지 내에서 문자를 추출하여 인식하는 기능을 수행할 수 있다. 즉, 제어부(210)는 문자인식을 위한 문자인식모듈을 포함할 수 있다. 상기 문자인식모듈의 문자 인식 방법으로 광학문자인식(Optical Character Recognition; OCR)방식을 적용할 수 있다. 상기 OCR방식은 이미지 스캔으로 얻을 수 있는 사람이 쓰거나 기계로 인쇄한 문서의 활자 영상을 컴퓨터가 편집 가능한 문자코드 등의 형식으로 변환하는 것으로, 소프트웨어로 구현이 가능한 방식이다. 예를 들어, 상기 OCR방식은 미리 준비된 몇 개의 표준 패턴문자와 입력문자를 비교하여 표준 패턴문자와 가장 유사한 것을 해당 문자로 선정할 수 있다. 상기 문자인식모듈이 다양한 언어의 표준 패턴문자를 구비하면, 다양한 언어의 인쇄된 활자를 판독할 수 있다. 이러한 방식을 OCR방식 중 Pattern matching기법이라고 하며, 상기 OCR방식은 이에 한정되지 아니하고 다양한 방법이 적용될 수 있다. 또한, 문자인식모듈의 문자인식 방식은 OCR방식에 한정되지 아니하고, 이미 인쇄되어 있는 오프라인상의 문자를 인식할 수 있는 다양한 방식이 적용될 수 있다.In addition, the controller 210 may perform a function of extracting and recognizing a character from an image or an image acquired by the camera unit 120. That is, the controller 210 may include a character recognition module for character recognition. Optical character recognition (OCR) may be applied as a character recognition method of the character recognition module. The OCR method converts a typeface image of a document written by a person who can be obtained by an image scan or printed by a machine into a format such as a computer code that can be edited by a computer, and can be implemented by software. For example, the OCR method may compare several standard pattern letters and input characters prepared in advance and select the most similar to the standard pattern letters as the corresponding letters. If the character recognition module includes standard pattern letters of various languages, it is possible to read printed characters of various languages. Such a method is called a pattern matching method among the OCR methods, and the OCR method is not limited thereto, and various methods may be applied. In addition, the character recognition method of the character recognition module is not limited to the OCR method, various methods for recognizing the character on the offline already printed may be applied.
또한, 제어부(210)는 제2카메라(122)가 획득한 안구방향 영상 또는 이미지를 바탕으로 시선방향을 인식하는 기능을 수행할 수 있다. 즉, 제어부(210)는 시선방향 인식을 수행하는 시선분석모듈을 포함할 수 있다. 사용자의 주시방향과 시선방향을 측정한 후 합성에 의해 계산하여 사용자가 바라보는 방향을 파악할 수 있다. 상기 주시방향은, 사용자의 얼굴 방향을 의미하여, 센싱부(130)의 자이로센서(131) 또는 가속도센서(132)에 의해 측정될 수 있다. 상기 시선방향은, 사용자의 동공이 바라보는 방향으로, 시선분석모듈에 의해 파악될 수 있다. 시선분석모듈은, 실시간 카메라 이미지의 분석을 통해 동공의 움직임을 검출하고, 각막에 반사된 고정 위치를 기준으로 시선의 방향을 계산하는 방식 등을 적용할 수 있다. 예를 들어, 영상처리 방법을 통해 동공의 중심 및 조명에 의한 각막 반사광의 위치를 추출하여 이들의 위치 관계를 통해 시선 위치를 계산할 수 있다.In addition, the controller 210 may perform a function of recognizing a gaze direction based on an eyeball image or an image acquired by the second camera 122. That is, the controller 210 may include a gaze analysis module that performs gaze direction recognition. After measuring the gaze direction and the gaze direction of the user, it is possible to determine the direction that the user looks by calculating by synthesis. The gaze direction refers to a direction of the face of the user and may be measured by the gyro sensor 131 or the acceleration sensor 132 of the sensing unit 130. The gaze direction may be grasped by the gaze analysis module in a direction viewed by the user's pupil. The gaze analysis module may detect a movement of a pupil through analysis of a real-time camera image, and apply a method of calculating a direction of a gaze based on a fixed position reflected by the cornea. For example, through the image processing method, the position of the corneal reflected light by the center of the pupil and the illumination may be extracted and the gaze position may be calculated through the positional relationship thereof.
제어부(210)는 이하 정보처리부(210)로 표현될 수 있다.The controller 210 may be represented by the information processor 210.
전원 공급부는 제어부(210)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit receives an external power source and an internal power source under the control of the controller 210 to supply power for operation of each component.
음성인식부(220)는 자동적 수단에 의하여 음성으로부터 언어적 의미 내용을 식별하는 기능을 수행한다. 구체적으로 음성파형을 입력하여 단어나 단어열을 식별하고 의미를 추출하는 처리 과정이며, 크게 음성 분석, 음소 인식, 단어 인식, 문장 해석, 의미 추출의 5가지로 분류된다. 음성인식부(220)는 저장된 음성과 입력된 음성이 동일한지 비교하는 음성평가모듈을 더 포함할 수 있다. 또한, 음성인식부(220)는 입력된 음성을 텍스트로 변환하거나, 텍스트를 음성으로 변환하는 음성-텍스트변환모듈(240)도 더 포함할 수 있다.The speech recognition unit 220 performs a function of identifying linguistic meaning content from the speech by automatic means. Specifically, the process of identifying a word or word sequence and extracting meaning by inputting a speech waveform is classified into five categories: speech analysis, phoneme recognition, word recognition, sentence interpretation, and meaning extraction. The voice recognition unit 220 may further include a voice evaluation module for comparing whether the stored voice and the input voice are the same. In addition, the voice recognition unit 220 may further include a voice-to-text conversion module 240 for converting an input voice into text or converting a text into voice.
뇌파동조신호발생부는 인간의 뇌파를 동조시키기 위한 주파수와 파형을 갖는 뇌파동조신호를 발생시킨다. 즉, 뇌파동조신호발생부는 뇌파 주파수의 진동을 두개골에 전달하여 뇌파를 동조하는 기능을 수행한다. 뇌파란 뇌신경 신호가 전달될 때 생기는 전기의 흐름을 말한다. 이러한 뇌파는 잠잘 때 아주 느린 뇌파인 델타파가, 활동할 때는 빠른 뇌파인 베타파가, 명상을 할 때는 중간 정도 속도의 알파파 등이 증가된다. 따라서 뇌파동조신호발생부는 알파파와 세타파를 유도함으로써 학습보조 및 정신집중의 효과를 발휘하도록 할 수 있다.The EEG signal generation unit generates an EEG signal having a frequency and a waveform for tuning human EEG. That is, the EEG signal generator transmits the vibration of the EEG frequency to the skull to perform the function of tuning the EEG. EEG is the flow of electricity that occurs when a cranial nerve signal is transmitted. These brain waves are delta waves, which are very slow when you sleep, beta waves, which are fast when you are active, and alpha waves, which are medium speeds when you meditate. Therefore, the EEG signal generator may induce alpha waves and theta waves to exert the effects of learning assistance and mental concentration.
도 3은 본 발명의 일 실시예들과 관련된 글라스형 웨어러블 디바이스(10), 외부서버(20) 및 외부디바이스(30)의 연결관계도이다.3 is a diagram illustrating a connection relationship between the glass type wearable device 10, the external server 20, and the external device 30 according to an embodiment of the present invention.
글라스형 웨어러블 디바이스(10)는 정보처리를 위한 수행 과정을 내부에서 모두 수행할 수도 있으나, 외부서버(20)가 정보처리의 일부를 수행할 수 있다. 따라서, 글라스형 웨어러블 디바이스(10)는 입력부(100)를 통해 획득된 데이터 또는 일부 정보처리가 수행된 데이터를 정보처리요청데이터로 외부서버(20)에 전송할 수 있다. 글라스형 웨어러블 디바이스(10)는 외부서버(20)에서 정보처리 수행된 정보처리결과데이터를 무선통신을 통해 수신할 수 있다. 글라스형 웨어러블 디바이스(10)는 수신된 정보처리결과데이터를 출력부(300)를 통해 다양한 방식으로 사용자에게 제공할 수 있다. 상기 외부서버(20)는 글라스형 웨어러블 디바이스(10)에서 수행되는 서비스에 따라 상이할 수 있다. The glass type wearable device 10 may perform all the processing for information processing therein, but the external server 20 may perform some of the information processing. Accordingly, the glass type wearable device 10 may transmit the data acquired through the input unit 100 or data on which some information processing is performed to the external server 20 as information processing request data. The glass type wearable device 10 may receive information processing result data performed by the external server 20 through wireless communication. The glass type wearable device 10 may provide the received information processing result data to the user through the output unit 300 in various ways. The external server 20 may be different according to a service performed by the glass type wearable device 10.
글라스형 웨어러블 디바이스(10)는 자체의 출력부(300)를 통해 사용자에게 정보처리결과데이터를 제공할 수 있고, 외부디바이스(30)를 이용하여 정보처리결과데이터를 제공할 수도 있다. 즉, 글라스형 웨어러블 디바이스(10)가 정보처리 과정 전체를 수행하는 경우, 외부디바이스(30)는 글라스형 웨어러블 디바이스(10)로부터 수신된 정보처리결과데이터를 출력할 수 있다. 또한, 외부서버(20)가 글라스형 웨어러블 디바이스(10)로부터 정보처리요청데이터를 수신하여 일부 정보처리 과정을 수행하는 경우, 외부디바이스(30)는 외부서버(20)로부터 수신된 정보처리결과데이터를 출력할 수 있다. 외부디바이스(30)은, 스마트폰, 태블릿PC, 스마트 TV, 자동차 내부에 구비된 출력부(예를 들어, 차량 유리에 구비된 디스플레이부 또는 차량 내부 음향출력부) 등의 다양한 디바이스가 포함될 수 있다.The glass type wearable device 10 may provide the information processing result data to the user through its output unit 300, or may provide the information processing result data using the external device 30. That is, when the glass type wearable device 10 performs the entire information processing process, the external device 30 may output information processing result data received from the glass type wearable device 10. In addition, when the external server 20 receives the information processing request data from the glass type wearable device 10 to perform some information processing, the external device 30 receives the information processing result data received from the external server 20. You can output The external device 30 may include various devices such as a smartphone, a tablet PC, a smart TV, and an output unit (for example, a display unit provided in the vehicle glass or an internal vehicle sound output unit) provided in the vehicle. .
이하, 도면을 참조하여 본 발명의 실시예들에 따른 글라스형 웨어러블 디바이스를 이용한 버스 도착 알림 시스템, 방법 및 프로그램에 대해 설명하기로 한다.Hereinafter, a bus arrival notification system, method, and program using a glass type wearable device according to embodiments of the present invention will be described with reference to the accompanying drawings.
도 4은 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스의 버스도착 알림방법의 순서도이다. 4 is a flowchart illustrating a bus arrival notification method of the glass type wearable device according to an exemplary embodiment of the present invention.
도 4을 참조하면, 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 버스도착 알림방법은, 특정한 버스의 노선번호 지정하는 단계(S100); 상기 글라스형 웨어러블 디바이스가 전방영상 또는 전방이미지를 획득하는 단계(S110); 상기 전방영상 또는 상기 전방이미지에 등장하는 차량의 노선번호를 인식하는 단계(S120); 및 상기 인식된 노선번호가 상기 지정한 노선번호와 동일한 경우, 사용자에게 버스도착 알림을 제공하는 단계(S130);를 포함한다. 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 버스도착 알림방법을 순서대로 설명한다. 4, the bus arrival notification method using the glass-type wearable device according to an embodiment of the present invention, the step of specifying the route number of the particular bus (S100); Acquiring a front image or a front image by the glass type wearable device (S110); Recognizing a route number of the vehicle appearing in the front image or the front image (S120); And providing a bus arrival notification to the user when the recognized route number is the same as the designated route number (S130). A bus arrival notification method using a glass type wearable device according to an embodiment of the present invention will be described in order.
특정한 버스의 노선번호 지정한다(S100). 글라스형 웨어러블 디바이스(10)는 정류장에 부착된 노선번호를 포함한 전방영상 또는 전방이미지를 획득하여 문자 인식을 통해 특정한 노선번호를 지정할 수 있다. 도 5에서와 같이, 글라스형 웨어러블 디바이스는 제1카메라를 통해 정류장에 부착된 노선번호를 포함하는 영상 또는 이미지를 촬영하고, 전방 영상 또는 이미지에 포함된 노선번호를 OCR방식 등을 통해 인식할 수 있다. Specify the route number of the specific bus (S100). The glass type wearable device 10 may acquire a front image or a front image including a route number attached to a stop and designate a specific route number through character recognition. As shown in FIG. 5, the glass type wearable device may capture an image or an image including a route number attached to a stop through a first camera, and recognize the route number included in the front image or the image through an OCR method. have.
또한, 글라스형 웨어러블 디바이스(10)는 상기 전방영상 또는 전방이미지 내 손 제스처에 대응되는 노선번호를 지정할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스가 제1카메라를 통해 획득한 전방 영상 또는 전방 이미지에는 하나 이상의 버스 노선번호가 포함될 수 있으므로, 사용자의 손가락이 가리키는 노선번호 또는 사용자의 특정한 손 제스처 영역에 포함되는 노선번호를 지정할 노선번호로 인식할 수 있다.In addition, the glass type wearable device 10 may designate a route number corresponding to the hand gesture in the front image or the front image. For example, the front image or the front image acquired by the glass type wearable device through the first camera may include one or more bus route numbers, and thus, the route number indicated by the user's finger or the route included in the user's specific hand gesture area. It can be recognized as a route number to designate a number.
또한, 글라스형 웨어러블 디바이스(10)는 사용자의 음성인식으로 탑승을 원하는 노선번호를 지정할 수 있다. 즉, 글라스형 웨어러블 디바이스(10)는 음성입력부(140)에 의해 버스 노선번호를 특정하기 위한 사용자의 음성입력을 수신하고, 음성인식부(220)에 의해 사용자의 음성입력을 인식하여 탑승하고자 하는 버스의 노선번호 지정할 수 있다. 사용자가 버스정류장에 부착된 노선번호를 찾기 어려운 시각장애인, 저시력자 또는 노약자인 경우, 사용자는 원하는 버스번호를 음성명령으로 입력할 필요가 있다.In addition, the glass type wearable device 10 may designate a route number to be boarded by voice recognition of the user. That is, the glass type wearable device 10 receives a user's voice input for specifying the bus route number by the voice input unit 140, and recognizes the user's voice input by the voice recognition unit 220 to board the vehicle. You can specify the bus route number. If the user is visually impaired, low vision or elderly person who is difficult to find the route number attached to the bus stop, the user needs to input the desired bus number by voice command.
글라스형 웨어러블 디바이스가 전방영상 또는 전방이미지를 획득한다(S110). 즉, 글라스형 웨어러블 디바이스(10)는 제1카메라(121)를 통해 도로상황을 포함하는 전방 영상 또는 이미지(즉, 도로를 지나는 차들을 포함한 영상 또는 이미지)를 획득한다.The glass type wearable device acquires a front image or a front image (S110). That is, the glass type wearable device 10 obtains a front image or image (ie, an image or image including cars passing through the road) including the road situation through the first camera 121.
글라스형 웨어러블 디바이스(10)는 전방영상 또는 전방이미지에 등장하는 차량의 노선번호를 인식한다(S120). 도 6에서와 같이, 글라스형 웨어러블 디바이스(10)는 전방영상 또는 전방이미지에 포함된 숫자를 추출하여 노선번호를 인식한다.The glass type wearable device 10 recognizes a route number of a vehicle appearing in the front image or the front image (S120). As shown in FIG. 6, the glass type wearable device 10 recognizes a route number by extracting a number included in a front image or a front image.
노선번호 인식방법의 일실시예로, 글라스형 웨어러블 디바이스(10)는 획득된 전방영상 또는 전방이미지에서 차량을 파악하고, 차량에 부착된 숫자를 인식한다. 차량에는 차량번호, 버스 노선번호 등의 숫자가 포함될 수 있으므로, 부착된 숫자의 위치 또는 숫자 주변의 문자 등을 이용하여 하나 이상의 인식된 숫자 중에서 버스의 노선번호를 추출한다. 예를 들어, 숫자가 부착된 위치에 따라 차량의 하단부에 부착되어 있으면 차량의 등록번호에 해당하므로 제외하고, 차량의 전면 유리에 부착되어 있으면 버스의 노선번호이므로 이를 추출한다. 또한, 네 자리 숫자의 앞에 한글 음절 하나가 붙어 있으면 차량의 등록번호에 해당할 수 있으므로, 글라스형 웨어러블 디바이스(10)는 상기 숫자를 자동으로 제외할 수 있다. In one embodiment of the route number recognition method, the glass type wearable device 10 recognizes the vehicle from the acquired front image or the front image, and recognizes the number attached to the vehicle. Since the vehicle may include a number such as a vehicle number, a bus route number, and the like, the route number of the bus is extracted from one or more recognized numbers using the position of the attached number or letters around the number. For example, if the number is attached to the lower end of the vehicle is attached to the registration number of the vehicle, except that, if attached to the front glass of the vehicle is the route number of the bus is extracted. In addition, if one Hangul syllable is attached in front of the four digit number, it may correspond to the registration number of the vehicle, and the glass type wearable device 10 may automatically exclude the number.
또한, 노선번호 인식방법의 일실시예로, 글라스형 웨어러블 디바이스(10)가 차량의 형상, 차량의 윤곽선, 색상 등을 통해 버스이미지를 추출하고, 버스 이미지 내에서 노선번호를 인식할 수 있다. 버스가 아닌 일반차량에도 버스 노선번호와 동일한 숫자가 포함될 수 있으므로, 버스에 해당하는 이미지만을 추출하여 버스이미지 내에서만 노선번호 탐색을 수행하면, 오차가 발생할 가능성을 줄일 수 있다. 따라서, 글라스형 웨어러블 디바이스(10)는 버스 형상을 바탕으로 버스가 아닌 승용차 등의 차량을 탐색범위에서 제외하고, 버스 형상에 상응하는 버스이미지만 노선번호 인식을 위해 추출할 수 있다. In addition, as an embodiment of the route number recognition method, the glass type wearable device 10 may extract the bus image through the shape of the vehicle, the outline of the vehicle, the color, and the like, and recognize the route number in the bus image. Since a general vehicle other than a bus may include the same number as a bus route number, if only the image corresponding to the bus is extracted and the route number search is performed only within the bus image, the possibility of an error may be reduced. Accordingly, the glass type wearable device 10 may extract a bus image corresponding to the bus shape for line number recognition without excluding a vehicle such as a passenger car based on the bus shape from the search range.
또한, 버스 노선번호의 종류(예를 들어, 광역버스, 간선버스, 지선버스, 마을버스, 순환버스)에 따른 색상 차이를 바탕으로 노선번호 탐색을 위해 추출할 버스이미지의 범위를 줄일 수 있다. 다만, 버스의 노선번호를 인식하는 방법은 이에 한정되지 아니하고, 영상 또는 이미지에 포함된 숫자를 모두 인식하여 지정된 노선번호와 비교하는 방법 등 다양한 방법으로 구현될 수 있다.In addition, it is possible to reduce the range of the bus image to be extracted for the route number search based on the color difference according to the type of bus route number (for example, wide area bus, trunk bus, branch bus, village bus, loop bus). However, the method of recognizing the route number of the bus is not limited thereto, and may be implemented by various methods such as a method of recognizing all numbers included in an image or an image and comparing the number with a designated route number.
인식된 노선번호와 지정한 노선번호가 일치하는 경우, 글라스형 웨어러블 디바이스(10)는 사용자에게 버스도착 알림을 제공한다(S130). 알림 제공방식으로는 디스플레이부(310)의 화면상에 표시하는 방식, 음성 알람을 제공하는 방식, 진동 알람을 제공하는 방식 등을 적용할 수 있다. 즉, 인식된 노선번호와 지정된 노선번호가 동일하면, 글라스형 웨어러블 디바이스(10)는 디스플레이부(310)에 도착정보를 표시하거나, 음성알람이 울리거나, 음성으로 도착정보를 전달하거나, 진동을 발생하여 지정된 노선번호의 버스도착을 알릴 수 있다.If the recognized line number and the designated line number match, the glass type wearable device 10 provides a bus arrival notification to the user (S130). As a notification providing method, a method of displaying on the screen of the display 310, a method of providing a voice alarm, a method of providing a vibration alarm, and the like may be applied. That is, when the recognized line number and the designated line number are the same, the glass type wearable device 10 displays the arrival information on the display 310, sounds an alarm, transmits the arrival information by voice, or vibrates. Can be issued to notify the arrival of the bus of the designated route number.
또한, 무선통신을 통해 상기 노선번호 버스의 주행정보를 수신하여 제공하는 단계;를 더 포함할 수 있다. 주행정보는, 사용자의 현재 위치에 근접한 노선번호 버스의 위치 정보, 노선번호의 실시간 도착예정 시간정보, 노선버스의 이전 정류장 출발알림정보 등을 포함할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스(10)는 사용자의 현재 위치로부터 근접한 노선번호 버스의 GPS신호 등의 위치정보를 수신할 수 있다. 글라스형 웨어러블 디바이스(10)는 주기적으로 수신되는 GPS신호를 통해 지정된 노선번호 버스의 도착을 더 정확하게 파악할 수 있으며, 사용자는 버스 도착시기를 예상할 수 있다. The method may further include receiving and providing driving information of the route number bus through wireless communication. The driving information may include location information of the route number bus close to the current location of the user, real-time arrival time information of the route number, departure stop notification information of the route bus, and the like. For example, the glass type wearable device 10 may receive location information such as a GPS signal of a route number bus that is close to the current location of the user. The glass type wearable device 10 may more accurately grasp the arrival of the designated route number bus through the GPS signal periodically received, and the user may anticipate the arrival of the bus.
또한, 글라스형 웨어러블 디바이스(10)는, 해당 노선버스의 GPS신호가 사용자로부터 특정 범위 내에 진입하면, 제1카메라(121)가 영상 또는 이미지를 획득하도록 할 수 있다. 즉, 글라스형 웨어러블 디바이스(10)가 제1카메라를 통해 계속해서 전방영상 또는 전방이미지를 획득하면 전력소모가 크므로, GPS신호를 바탕으로 버스가 특정 범위 이내(예를 들어, 사용자의 현재 위치로부터 특정 반경 이내)에 진입하면 전방 영상 또는 이미지 획득을 통한 노선번호 인식을 수행하도록 하여 전력 소모를 줄일 수 있는 효과가 있다.In addition, when the GPS signal of the corresponding route bus enters a specific range from the user, the glass type wearable device 10 may allow the first camera 121 to acquire an image or an image. That is, when the glass type wearable device 10 continuously acquires the front image or the front image through the first camera, the power consumption is large, so that the bus is within a certain range based on the GPS signal (for example, the current position of the user). Within a certain radius), it is possible to reduce the power consumption by performing the route number recognition through forward image or image acquisition.
또한, 근접한 노선번호 버스가 GPS로 파악된 위치로부터 사용자의 위치까지 도착하는데 걸리는 최단시간을 계산하는 단계;를 더 포함할 수 있다. GPS로 위치정보를 수신하여 사용자의 위치까지 도착하는데 걸리는 최단시간을 계산하게 되면, 최단 도착예정시간의 일정시간 이전부터 글라스형 웨어러블 디바이스(10)가 차의 노선번호 인식을 수행하도록 하여 GPS신호를 계속 수신함에 따라 발생하는 전력소모를 줄일 수 있다.The method may further include calculating the shortest time it takes for the adjacent line number bus to arrive from the position identified by the GPS to the user's position. When receiving the location information by GPS and calculating the shortest time to reach the user's location, the glass-type wearable device 10 performs the GPS signal by detecting the vehicle's route number from a certain time before the shortest arrival time. It can reduce power consumption caused by continuous reception.
또한, 상기 전방영상의 분석을 통해 상기 전방영상이 차량이 접근하는 도로영상을 획득하기 위한 회전방향을 사용자에게 제공하는 단계;를 더 포함할 수 있다. 사용자가 글라스형 웨어러블 디바이스(10)를 착용하고 차량이 접근하는 도로방향을 주시하지 않으면 전방영상 또는 전방이미지 내에 차량이 포함될 수 없다. 특히, 글라스형 웨어러블 디바이스(10)의 사용자가 시각장애인인 경우, 사용자는 차량이 접근하는 도로방향을 파악하는데 어려움을 겪을 수 있다. 따라서, 글라스형 웨어러블 디바이스(10)는 전방영상 또는 전방이미지를 분석하여 사용자가 주시하는 방향을 판단할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스(10)는 전방영상 내의 도로의 위치, 버스정류장의 위치, 차량의 진행방향 등을 바탕으로 사용자의 주시방향을 파악할 수 있다. 그 후, 글라스형 웨어러블 디바이스(10)는 차량이 접근하는 방향을 사용자가 주시하기 위해 회전할 방향을 산출하여 제공할 수 있다. 또한, 글라스형 웨어러블 디바이스(10)는 사용자가 차량 접근방향을 주시하기 위한 회전정도(예를 들어, 회전각도)를 산출하여 제공할 수 있다. The method may further include providing a user with a rotation direction for acquiring a road image approaching the vehicle through the analysis of the front image. The vehicle may not be included in the front image or the front image unless the user wears the glass type wearable device 10 and observes the road direction in which the vehicle approaches. In particular, when the user of the glass type wearable device 10 is visually impaired, the user may have difficulty in identifying a road direction in which the vehicle approaches. Therefore, the glass type wearable device 10 may determine the direction in which the user looks by analyzing the front image or the front image. For example, the glass type wearable device 10 may determine the user's gaze direction based on the position of the road in the front image, the position of the bus stop, the moving direction of the vehicle, and the like. Thereafter, the glass type wearable device 10 may calculate and provide a direction in which the user rotates to observe the direction in which the vehicle approaches. In addition, the glass type wearable device 10 may calculate and provide a degree of rotation (eg, a rotation angle) for the user to observe the vehicle approach direction.
또한, 글라스형 웨어러블 디바이스(10)는 회전을 통해 차량의 접근을 전방영상으로 촬영할 수 있는 적절한 범위 내에 주시방향이 도달하였음을 인식하여 알림 제공할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스(10)는 전방영상에서 특정한 차량이 접근하여 크기가 커짐을 인식하여 적절한 주시방향에 도달하였음을 인식할 수 있다.In addition, the glass type wearable device 10 may recognize that the gaze direction has reached within an appropriate range for capturing the approach of the vehicle as a front image through rotation and provide a notification. For example, the glass type wearable device 10 may recognize that a specific vehicle approaches and increases in size in the front image to reach an appropriate viewing direction.
또한, 상기 버스도착 알림 제공단계(S130)는, 상기 인식된 노선번호가 상기 지정한 노선번호와 동일한 경우, 상기 버스가 현재 위치로부터 떨어진 거리를 실시간 측정하는 단계; 및 상기 떨어진 거리에 상응하는 음성안내를 수행하는 단계;를 포함할 수 있다. 글라스형 웨어러블 디바이스(10)의 사용자가 시각장애인인 경우, 지정한 노선번호의 버스를 탑승하기 위해서는 해당 버스가 사용자를 기준으로 어느 위치에 도달하였는지를 인식할 필요가 있다. 따라서 글라스형 웨어러블 디바이스(10)는 버스가 현재 위치로부터 떨어진 거리를 실시간 측정할 수 있다. 상기 떨어진 거리는, 도플러센서 또는 거리센서 등을 통해 실시간으로 측정될 수 있다. 그 후, 글라스형 웨어러블 디바이스(10)는 실시간 떨어진 거리에 상응하는 음성안내를 제공할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스(10)는 떨어진 거리를 음성으로 읽어줄 수 있으며, 떨어진 거리에 따라 알림음 발생 주기를 조절하여 음성 알림을 제공할 수 있다. In addition, the bus arrival notification providing step (S130), if the recognized route number is the same as the designated route number, the step of real-time measuring the distance away from the current location of the bus; And performing a voice guidance corresponding to the separated distance. When the user of the glass type wearable device 10 is visually impaired, in order to board a bus having a designated route number, it is necessary to recognize which location the bus has reached based on the user. Therefore, the glass type wearable device 10 may measure a distance in which the bus is away from the current location in real time. The distance may be measured in real time through a Doppler sensor or a distance sensor. Thereafter, the glass type wearable device 10 may provide voice guidance corresponding to a distance separated in real time. For example, the glass type wearable device 10 may read a distance away by voice and may provide a voice notification by adjusting a period of generating a notification sound according to the distance.
또한, 상기 노선번호 인식단계(S120)는, 글라스형 웨어러블 디바이스가 고저각 또는 방위각을 측정하는 단계; 상기 고저각 또는 상기 방위각을 반영하여 상기 노선번호의 상기 전방영상 내 예상배치범위를 산출하는 단계; 및 상기 예상배치범위 내에서 상기 노선번호를 탐색하여 인식하는 단계;를 포함할 수 있다. 글라스형 웨어러블 디바이스(10)가 전방영상 전체 내에서 노선번호 탐색 및 추출을 수행하면 시간이 오래 걸릴 수 있어서 노선번호를 탐색할 영역을 제한할 필요가 있다. 또한, 사용자가 글라스형 웨어러블 디바이스(10)를 착용하고 바라보는 방향에 따라 전방 영상 내에 노선번호가 위치할 영역이 달라질 수 있다. 예를 들어, 사용자가 글라스형 웨어러블 디바이스(10)를 착용한 채 고개를 약간 들고 있으며 정면을 바라볼 때에 비해 노선번호는 전방 영상의 아래영역에 위치할 수 있다. 따라서, 글라스형 웨어러블 디바이스(10)는 사용자의 주시방향에 해당하는 고저각 또는 방위각을 측정하고, 이를 반영하여 전방영상 내에서 버스 노선번호를 탐색할 영역을 결정할 필요가 있다.In addition, the route number recognition step (S120), the glass-type wearable device for measuring a high or low angle or azimuth; Calculating an expected arrangement range in the forward image of the route number by reflecting the high or low angle; And searching and recognizing the route number within the expected arrangement range. When the glass type wearable device 10 performs the route number search and extraction in the entire front image, it may take a long time, and thus the area to search for the route number needs to be limited. In addition, the area where the route number is located in the front image may vary according to a direction in which the user wears and watches the glass type wearable device 10. For example, the user may hold his / her head slightly while wearing the glass wearable device 10, and the route number may be located in the lower region of the front image as compared to the front view. Therefore, the glass type wearable device 10 needs to measure a high or low angle or azimuth corresponding to the user's gaze direction, and determine an area to search for a bus route number in the front image by reflecting this.
먼저, 글라스형 웨어러블 디바이스가 고저각 또는 방위각을 측정할 수 있다. 그 후, 글라스형 웨어러블 디바이스(10)는 고저각 또는 상기 방위각을 반영하여 상기 노선번호의 상기 전방영상 내 예상배치범위를 산출할 수 있다. 글라스형 웨어러블 디바이스(10)는 측정된 고저각을 통해 노선번호를 탐색할 수직방향의 범위를 결정할 수 있고, 측정된 방위각을 통해 노선번호를 탐색할 수평방향의 범위를 결정할 수 있다. 그 후, 글라스형 웨어러블 디바이스(10)는 결정된 예상배치범위 내에서 노선번호를 탐색하여 인식할 수 있다.First, the glass wearable device may measure a high or low angle. Thereafter, the glass type wearable device 10 may calculate an expected range of placement in the front image of the route number by reflecting a high or low angle or the azimuth. The glass type wearable device 10 may determine a vertical range to search for a route number through the measured high and low angles, and determine a horizontal range to search for a route number through the measured azimuth angle. Thereafter, the glass type wearable device 10 may search for and recognize the route number within the determined expected arrangement range.
또한, 상기 예상배치범위 산출단계는, 상기 사용자의 신체정보를 반영하여 산출할 수 있다. 사용자의 키 또는 눈높이에 따라 노선번호의 예상배치범위는 달라질 수 있으므로, 기저장된 사용자의 신체정보를 적용하여 예상배치범위를 산출할 수 있다. In addition, the step of calculating the expected placement range may be calculated by reflecting the body information of the user. Since the estimated range of the route number may vary according to the height or eye level of the user, the estimated range of the range may be calculated by applying previously stored user's body information.
본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 버스도착 알림시스템은 제1카메라(121), 제어부(210), 디스플레이부(310)를 포함한다.Bus arrival notification system using a glass-type wearable device according to another embodiment of the present invention includes a first camera 121, the control unit 210, the display unit 310.
제1카메라(121)는 사용자가 탑승하고자 하는 버스의 노선번호가 포함된 영상 또는 이미지를 입력받고, 도로상황을 영상 또는 이미지로 스캔하는 기능을 수행할 수 있다. 제어부(210)는 상기 영상 또는 이미지에서 노선번호를 인식하는 기능을 수행할 수 있다. 디스플레이부(310)는 스캔된 영상 또는 이미지로부터 인식된 노선번호가 상기 지정한 노선번호와 일치하는 경우, 사용자에게 버스 도착을 표시하는 기능을 수행할 수 있다.The first camera 121 may receive an image or an image including a route number of a bus to be boarded by the user, and perform a function of scanning road conditions as an image or an image. The controller 210 may perform a function of recognizing a route number in the image or image. If the line number recognized from the scanned image or image matches the designated line number, the display 310 may perform a function of indicating the bus arrival to the user.
또한, 알람부(330)를 더 포함할 수 있다. 알람부(330)는 음성 또는 진동 등을 통해 사용자에게 버스도착을 알리는 기능을 수행할 수 있다.In addition, the alarm unit 330 may further include. The alarm unit 330 may perform a function of notifying the user of the bus arrival through voice or vibration.
또한, 본 발명의 일실시예는 음성입력부(140) 및 음성인식부(220)를 더 포함할 수 있다. 음성입력부(140)는 버스 노선번호를 특정하기 위한 사용자의 음성입력을 받는 기능을 수행한다. 음성인식부(220)는 상기 사용자의 음성입력을 인식하여 탑승하고자 하는 버스의 노선번호 지정하는 기능을 수행할 수 있다.In addition, one embodiment of the present invention may further include a voice input unit 140 and a voice recognition unit 220. The voice input unit 140 performs a function of receiving a voice input of a user for specifying a bus route number. The voice recognition unit 220 may perform a function of recognizing the voice input of the user and designating the route number of the bus to be boarded.
또한, GPS모듈을 더 포함할 수 있다. GPS모듈은 사용자의 위치로부터 근접한 노선번호 버스의 위치 정보를 수신하는 기능을 수행한다. GPS모듈이 사용자로부터 가장 근거리에 있는 해당 노선번호 버스의 위치정보를 파악하여 버스도착정보를 더 정확하게 파악할 수 있다. 또한, GPS모듈을 통해 글라스형 웨어러블 디바이스가 상기 버스의 위치가 사용자의 위치로부터 일정범위 내 에 들어오게 되면 제1카메라(121)가 영상 또는 이미지를 획득하여 버스 노선번호를 인식하도록 함으로써, 장기간의 버스 노선번호 인식으로 인한 전력소모를 줄일 수 있다.In addition, it may further include a GPS module. The GPS module performs a function of receiving location information of a route number bus close to the user's location. The GPS module can identify the bus arrival information more accurately by grasping the location information of the corresponding route number bus which is the closest from the user. In addition, when the position of the bus enters a predetermined range from the user's position through the GPS module, the first camera 121 acquires an image or an image and recognizes the bus route number through a GPS module. Power consumption due to bus line number recognition can be reduced.
본 발명에 따르면, 글라스형 웨어러블 디바이스 사용자가 버스정류장에서 버스를 기다리는 도중에 글라스형 웨어러블 디바이스로 다른 작업을 수행하다가 버스를 놓치는 상황이 발생하는 것을 방지할 수 있다. According to the present invention, a situation in which the user of the glass wearable device misses the bus while performing another task with the glass wearable device while waiting for the bus at the bus stop may occur.
또한, 사용자는 버스정류장의 버스도착확인시스템을 계속 확인하거나 들어오는 버스의 노선번호를 계속 확인하는 불편함을 해소할 수 있다. 또한, 사용자가 어플리케이션을 통해 버스의 위치를 계속 확인해야 하는 번거로움을 줄일 수 있다.In addition, the user can eliminate the inconvenience of continuously checking the bus arrival confirmation system of the bus stop or checking the line number of the incoming bus. It also saves users the hassle of having to keep track of the location of the bus through the application.
또한, 시각장애인, 저시력자 등의 사용자가 버스 접근방향을 주시할 수 있도록 도와주며, 버스 도착 알림을 제공받을 수 있다. 이를 통해, 시각장애인, 저시력자 등이 대중교통을 이용할 수 있도록 보조할 수 있다. In addition, the visually impaired, low vision users, such as to help the user to observe the direction of the bus, the bus arrival notification can be provided. Through this, it is possible to assist the visually impaired, low vision, etc. to use public transportation.
이하, 도면을 참조하여 본 발명의 실시예들에 따른 글라스형 웨어러블 디바이스를 이용한 수배차량 알림 시스템 및 방법에 대해 설명하기로 한다.Hereinafter, a vehicle arrangement notification system and method using a glass type wearable device according to embodiments of the present invention will be described with reference to the accompanying drawings.
도 7은 본 발명의 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 통해 수배차량을 인식하여 외부디바이스(30)에 알림을 제공하는 방법의 순서도이다. FIG. 7 is a flowchart illustrating a method of providing a notification to an external device 30 by recognizing an arrangement through a glass type wearable device according to another embodiment of the present invention.
도 7을 참조하면, 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 수배차량 알림 방법은, 글라스형 웨어러블 디바이스가 전방 영상 또는 전방이미지를 획득하는 단계(S200); 상기 영상 또는 이미지 내 타겟차량의 차량이미지를 추출하는 단계(S210); 상기 추출된 차량이미지에서 타겟차량 식별정보를 획득하는 단계(S220); 및 상기 타겟차량 식별정보와 수배차량 식별정보를 비교하여 일치하면 무선통신을 통해 외부로 알림정보를 전송하는 단계(S230);를 포함한다. 이하, 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 수배차량 알림 방법을 순서대로 설명한다.Referring to FIG. 7, a method for notifying a vehicle using a glass type wearable device according to an embodiment of the present invention may include: acquiring, by the glass type wearable device, a front image or a front image (S200); Extracting a vehicle image of a target vehicle in the image or image (S210); Acquiring target vehicle identification information from the extracted vehicle image (S220); And comparing the target vehicle identification information with the arrangement vehicle identification information and transmitting notification information to the outside through wireless communication (S230). Hereinafter, an arrangement notice method using a glass type wearable device according to an embodiment of the present invention will be described in order.
글라스형 웨어러블 디바이스가 전방 영상 또는 이미지를 획득한다(S200). 상기 전방 영상 또는 이미지는 도로상황을 포함하는 영상 또는 이미지로, 글라스형 웨어러블 디바이스(10)의 제1카메라(121)에 의해서 획득된다. 제1카메라(121)는 도로상황을 포함하는 영상데이터 또는 이미지데이터를 획득하여 메모리(260)에 저장한다. 상기 데이터는 일정시간이 지나면 메모리(260)에서 자동으로 삭제됨으로써 불필요한 메모리(260)를 낭비하는 것을 방지할 수 있다.The glass type wearable device acquires a front image or an image (S200). The front image or image is an image or image including a road situation, and is obtained by the first camera 121 of the glass type wearable device 10. The first camera 121 acquires image data or image data including a road situation and stores the image data in the memory 260. The data may be automatically deleted from the memory 260 after a certain time, thereby preventing unnecessary waste of the memory 260.
또한, 글라스형 웨어러블 디바이스(10)가 전방이미지를 획득하는 경우에는 전방이미지를 획득할 시기(Timing)의 결정이 필요하다. 따라서, 글라스형 웨어러블 디바이스(10)는 차량번호판이 촬영영상의 특정 비율 이상을 차지하면 전방이미지를 획득할 시기(Timing)로 인식하여 전방 이미지를 획득할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스(10)는 차량번호판의 색상, 부착위치, 또는 형상을 바탕으로 차량번호판을 인식할 수 있고, 인식된 차량번호판 영역이 촬영영상 내 특정비율 이상을 차지하면 전방이미지를 촬영할 수 있다.In addition, when the glass type wearable device 10 acquires the front image, it is necessary to determine timing of acquiring the front image. Therefore, when the license plate occupies a specific ratio or more of the photographed image, the glass type wearable device 10 may acquire the front image by recognizing it as a timing to acquire the front image. For example, the glass type wearable device 10 may recognize the license plate based on the color, the attachment position, or the shape of the license plate, and if the recognized license plate area occupies a specific ratio or more in the photographed image, the front image You can shoot.
글라스형 웨어러블 디바이스(10)는 영상 또는 이미지를 분석하여 타겟차량의 차량이미지를 추출한다(S210). 예를 들어, 글라스형 웨어러블 디바이스(10)는 기저장된 차량 윤곽선에 상응하는 형상을 상기 전방 영상 또는 이미지에서 인식하여 추출할 수 있다. 글라스형 웨어러블 디바이스(10)는 다양한 차량에 상응하는 윤곽선 정보를 포함할 수 있다.The glass type wearable device 10 extracts a vehicle image of a target vehicle by analyzing an image or an image (S210). For example, the glass type wearable device 10 may recognize and extract a shape corresponding to a previously stored vehicle outline from the front image or the image. The glass type wearable device 10 may include contour information corresponding to various vehicles.
상기 추출된 차량이미지에서 타겟차량 식별정보를 획득한다(S220). 상기 식별정보는, 차량 번호, 차종, 색상 또는 외관 특징정보(예를 들어, 튜닝, 스크래치) 중 하나 이상일 수 있다. 예를 들어, 상기 차종은, 차량에 부착된 마크, 라이트의 형상 등을 통해 확인할 수 있다.Target vehicle identification information is obtained from the extracted vehicle image (S220). The identification information may be one or more of a vehicle number, a vehicle model, color, or appearance characteristic information (for example, tuning and scratching). For example, the vehicle model may be identified through a mark attached to the vehicle, a shape of a light, and the like.
글라스형 웨어러블 디바이스(10)는 상기 타겟차량 식별정보와 수배차량 식별정보를 비교하여 일치하면 무선통신을 통해 외부로 알림정보를 전송한다(S230). 상기 수배차량 식별정보는, 외부서버(20)로부터 실시간 또는 주기적으로 수신되어 상기 글라스형 웨어러블 디바이스에 저장될 수 있다. 즉, 글라스형 웨어러블 디바이스(10)의 무선통신부(250)는 주기적으로 서버로부터 수배차량 식별정보를 수신하여 메모리(260) 내 수배차량식별정보를 업데이트할 수 있다. 이를 통해, 글라스형 웨어러블 디바이스(10)가 인식하여야 하는 수배차량 식별정보가 누락되는 것을 방지할 수 있다.The glass type wearable device 10 compares the target vehicle identification information with the arrangement information and transmits notification information to the outside through wireless communication (S230). The arrangement information may be received from the external server 20 in real time or periodically and stored in the glass type wearable device. That is, the wireless communication unit 250 of the glass type wearable device 10 may periodically receive the arrangement identification information from the server and update the arrangement identification information in the memory 260. Through this, it is possible to prevent the wagon vehicle identification information that the glass type wearable device 10 needs to recognize is missing.
상기 알림정보를 수신하는 사용자는, 글라스형 웨어러블 디바이스의 사용자가 수배차량 위치정보를 전송하기 위해 미리 저장해 둔 인원에 해당할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스(10)의 사용자가 경찰인 경우, 상대방은 동료 경찰이 될 수 있다. The user receiving the notification information may correspond to a person previously stored by the user of the glass type wearable device in order to transmit the arrangement position information. For example, when the user of the glass type wearable device 10 is a police officer, the counterpart may be a fellow police officer.
또한, 상기 식별정보가 차량번호인 경우, 상기 타겟차량 식별정보 획득단계는, 상기 차량이미지 내 문자인식을 통해 상기 차량번호를 추출하는 단계;를 포함할 수 있다. 글라스형 웨어러블 디바이스(10)는 차량이미지 내 상기 차량번호판의 부착위치 또는 상기 차량이미지 내에서 상기 차량번호판이 차지하는 비율을 바탕으로 상기 차량번호판을 인식하여 상기 차량번호를 추출하는 방식, 상기 차량번호 형식을 통해 상기 차량이미지 내에서 상기 차량번호를 추출하는 방식 등을 통해 차량번호를 추출할 수 있다.In addition, when the identification information is a vehicle number, the obtaining of the target vehicle identification information may include extracting the vehicle number through text recognition in the vehicle image. The glass type wearable device 10 recognizes the license plate and extracts the license plate number based on the attachment position of the license plate in the vehicle image or the ratio of the license plate in the vehicle image, the vehicle number format. The vehicle number may be extracted through a method of extracting the vehicle number from the vehicle image.
또한, 상기 글라스형 웨어러블 디바이스가 현재 위치정보를 획득하는 단계; 및 상기 영상 또는 이미지 촬영 시의 주시 방향을 바탕으로, 상기 영상 또는 이미지를 분석하여 상기 수배차량의 주행방향정보를 획득하는 단계;를 더 포함하고, 상기 알림정보 전송단계(S230)는, 상기 위치정보 및 상기 수배차량의 주행방향정보를 전송하는 것을 특징으로 할 수 있다. 즉, 알림정보는, 수배차량을 발견한 글라스형 웨어러블 디바이스의 위치정보 또는 수배차량의 주행방향정보를 포함할 수 있다. 상기 글라스형 웨어러블 디바이스(10)는 GPS모듈을 통해 현재 위치정보를 획득할 수 있다. 또한, 글라스형 웨어러블 디바이스(10)는 상기 영상 또는 이미지 촬영 시의 주시방향을 바탕으로, 상기 영상 또는 이미지를 분석하여 상기 수배차량의 주행방향정보를 획득할 수 있다. 예를 들어, 전방영상 또는 전방이미지에 포함된 차량이 사용자를 향해 접근하는 경우, 글라스형 웨어러블 디바이스(10)가 방위각을 측정하여 주시방향을 인식하고, 차량이 주시방향의 반대방향으로 주행하고 있음을 파악할 수 있다. 상기 방위각은 글라스형 웨어러블 디바이스(10)의 가속도센서(132), 자이로센서(131) 등의 모션센서에 의해 측정될 수 있다. 또한, 글라스형 웨어러블 디바이스(10)는 이전영상 내 차량의 위치와 현재영상 내 차량의 위치를 비교하여 영상 내 차량의 진행방향을 계산하고, 사용자의 주시 방향을 반영하여 수배차량의 주행방향정보를 산출할 수 있다.The method may further include obtaining current location information by the glass type wearable device; And acquiring driving direction information of the arrangement by analyzing the image or the image based on the gazing direction at the time of capturing the image or the image. The transmitting of the notification information (S230) may include: Information and the driving direction information of the arrangement vehicle. That is, the notification information may include location information of the glass type wearable device having found the arrangement vehicle or driving direction information of the arrangement vehicle. The glass type wearable device 10 may obtain current location information through a GPS module. In addition, the glass type wearable device 10 may obtain driving direction information of the arrangement by analyzing the image or the image based on the gaze direction when the image or the image is captured. For example, when the vehicle included in the front image or the front image approaches the user, the glass type wearable device 10 measures the azimuth angle and recognizes the gazing direction, and the vehicle is traveling in the opposite direction of the gazing direction. Can be identified. The azimuth angle may be measured by a motion sensor such as an acceleration sensor 132 or a gyro sensor 131 of the glass type wearable device 10. In addition, the glass type wearable device 10 compares the position of the vehicle in the previous image with the position of the vehicle in the current image, calculates the moving direction of the vehicle in the image, and reflects the driving direction information of the arrangement vehicle by reflecting the user's gaze direction. Can be calculated.
또한, 수배차량의 주행방향정보를 획득하는 방식으로, 글라스형 웨어러블 디바이스(10)에 의해 측정된 피사체(즉, 수배차량)와의 실시간 거리값, 주시방향, 및 현재 위치정보를 종합하여 파악하는 방식을 적용할 수 있다. 즉, 글라스형 웨어러블 디바이스(10)는 사용자의 현재 위치를 기준으로 상기 차량이 가까워지는지를 파악하여 주행방향을 판단할 수 있다.In addition, a method of acquiring driving direction information of the arranging vehicle, and a method of combining the real-time distance value, the gaze direction, and the current location information with the subject (ie, the arranging vehicle) measured by the glass type wearable device 10. Can be applied. That is, the glass type wearable device 10 may determine the driving direction by determining whether the vehicle is approaching based on the current location of the user.
이를 통해, 글라스형 웨어러블 디바이스(10)는 GPS 정보와 연계하여 수배차량의 위치 및 이동경로를 상대방에게 제공할 수 있다. Through this, the glass type wearable device 10 may provide the other party with the position and the movement path of the wanted vehicle in association with the GPS information.
또한, 특정시간 이전에 촬영된 종전전방영상 또는 종전전방이미지와 비교하여 일치하는 영역을 상기 전방 영상 또는 이미지의 탐색영역에서 제외하는 단계;를 포함할 수 있다. 글라스형 웨어러블 디바이스가 영상 전체에 대해 타겟차량에 상응하는 이미지 탐색 및 타겟차량 식별정보 획득을 수행하면, 소요시간이 길어지며 분석데이터량이 많아져서 일부 차량의 탐색이 누락될 위험이 있다. 따라서 글라스형 웨어러블 디바이스(10)는 영상 또는 이미지 내의 특정영역만을 탐색영역으로 설정하여 타겟차량 이미지 탐색 및 타겟차량 식별정보 탐색을 수행할 수 있다. 즉, 탐색영역은, 차량이미지를 추출하기 위해 탐색하는 상기 전방 영상 또는 이미지 내 특정영역일 수 있다. 이를 위해, 글라스형 웨어러블 디바이스(10)는 특정시간 이전에 촬영된 종전전방영상 또는 종전전방이미지와 현재전방영상 또는 현재전방이미지를 비교하여, 일치하는 영역을 탐색영역에서 제외할 수 있다.The method may include a step of excluding a matched region from the search region of the front image or the image compared with the previous front image or the previous front image photographed before a specific time. When the glass type wearable device performs image search and target vehicle identification information corresponding to the target vehicle for the entire image, the time required is long and the amount of analysis data increases, so that the search of some vehicles may be missed. Therefore, the glass type wearable device 10 may set the specific area within the image or the image as the search area to search the target vehicle image and search the target vehicle identification information. That is, the search area may be a specific area within the front image or the image searched to extract the vehicle image. To this end, the glass type wearable device 10 may exclude the matching area from the search area by comparing the previous front image or the previous front image and the previous front image or the current front image photographed before a specific time.
도 8는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용하여 외부서버(20)로부터 수신한 수배차량 상세정보를 제공하는 방법의 순서도이다. 8 is a flow chart of a method for providing detailed information on arrangements received from an external server 20 using a glass type wearable device according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 수배차량 알림방법은, 글라스형 웨어러블 디바이스가 전방 영상 또는 이미지를 획득하는 단계(S300); 상기 영상 또는 이미지 내 타겟차량의 차량이미지를 추출하는 단계(S310); 상기 차량이미지 내 문자인식을 통해 상기 타겟차량의 차량번호를 추출하는 단계(S320); 상기 차량번호를 무선통신으로 외부서버(20)로 전송하는 단계(S330); 및 상기 타겟차량이 수배차량인 경우, 상기 글라스형 웨어러블 디바이스가 상기 외부서버(20)로부터 상기 수배차량의 상세정보를 수신하여 사용자에게 제공하는 단계(S340);를 포함한다. 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 수배차량 알림 방법을 순서대로 설명한다. 이하, 기설명한 단계에 대한 구체적인 설명은 생략한다.Referring to FIG. 8, a method for notifying a vehicle using a glass type wearable device according to another embodiment of the present invention may include: obtaining, by the glass type wearable device, a front image or an image (S300); Extracting a vehicle image of a target vehicle in the image or image (S310); Extracting a vehicle number of the target vehicle through character recognition in the vehicle image (S320); Transmitting the vehicle number to an external server 20 through wireless communication (S330); And when the target vehicle is an arranging vehicle, receiving the detailed information of the arranging vehicle from the external server 20 by the glass type wearable device (S340). The arrangement of the vehicle notification method using the glass-type wearable device according to an embodiment of the present invention will be described in order. Hereinafter, detailed description of the above-described steps will be omitted.
글라스형 웨어러블 디바이스가 전방 영상 또는 이미지를 획득한다(S300; S200과 일치한다).The glass type wearable device acquires a front image or an image (S300; coincides with S200).
상기 영상 또는 이미지 내 타겟차량의 차량이미지를 추출한다(S310). 예를 들어, 글라스형 웨어러블 디바이스(10)는 기저장된 차량 윤곽선에 상응하는 형상을 상기 전방 영상 또는 이미지에서 인식하여 차량이미지를 추출할 수 있다.The vehicle image of the target vehicle in the image or image is extracted (S310). For example, the glass type wearable device 10 may extract a vehicle image by recognizing a shape corresponding to a previously stored vehicle outline in the front image or the image.
글라스형 웨어러블 디바이스(10)는 상기 차량이미지 내 문자인식을 통해 상기 타겟차량의 차량번호를 추출한다(S320). 글라스형 웨어러블 디바이스(10)는 차량이미지 내 상기 차량번호판의 부착위치 또는 상기 차량이미지 내에서 상기 차량번호판이 차지하는 비율을 바탕으로 상기 차량번호판을 인식하여 상기 차량번호를 추출하는 방식, 상기 차량번호 형식을 통해 상기 차량이미지 내에서 상기 차량번호를 추출하는 방식 등에 의해 차량번호를 추출할 수 있다.The glass type wearable device 10 extracts a vehicle number of the target vehicle through character recognition in the vehicle image (S320). The glass type wearable device 10 recognizes the license plate and extracts the license plate number based on the attachment position of the license plate in the vehicle image or the ratio of the license plate in the vehicle image, the vehicle number format. The vehicle number may be extracted by a method of extracting the vehicle number from the vehicle image.
글라스형 웨어러블 디바이스(10)는 상기 차량번호를 무선통신으로 외부서버(20)로 전송한다(S330).The glass type wearable device 10 transmits the vehicle number to the external server 20 through wireless communication (S330).
상기 타겟차량이 수배차량인 경우, 글라스형 웨어러블 디바이스(10)는 상기 외부서버(20)로부터 상기 수배차량의 상세정보를 수신하여 사용자에게 제공한다(S340). 수배차량 상세정보를 제공하는 방식으로는, 음성 알림을 제공하는 방식, 디스플레이부의 화면 상에 표시하는 방식 등을 적용할 수 있다. 예를 들어, 글라스형 웨어러블 디바이스(10)는, 도 9에서와 같이, 사용자에게 수배차량의 번호판을 확대하여 디스플레이 화면제공을 할 수 있다. 이 경우, 사용자의 주의를 끌기 위하여 경고음이 울린다거나 진동제공을 할 수 있다.When the target vehicle is an arranging vehicle, the glass type wearable device 10 receives detailed information of the arranging vehicle from the external server 20 and provides it to the user (S340). As a method of providing detailed information of the arrangement vehicle, a method of providing a voice notification, a method of displaying on the screen of the display unit, and the like may be applied. For example, as shown in FIG. 9, the glass type wearable device 10 may provide a display screen by enlarging a license plate of a vehicle. In this case, a warning sound or vibration may be provided to attract the user's attention.
또한, 특정시간 이전에 촬영된 종전전방영상 또는 종전전방이미지와 비교하여 일치하는 영역을 상기 전방 영상 또는 이미지의 탐색영역에서 제외하는 단계;를 포함하고, 상기 탐색영역은, 상기 차량이미지를 추출하기 위해 탐색하는 상기 전방 영상 또는 이미지 내 영역일 수 있다.The method may further include excluding a matched region from the search region of the front image or the image by comparing the previous front image or the previous front image photographed before a specific time, wherein the search region extracts the vehicle image. May be an area in the front image or the image searched for.
본 발명의 다른 일실시예에 따른 글라스형 웨어러블 디바이스(10)를 이용한 수배차량 알림 시스템은, 무선통신부(250), 카메라(120), 제어부(210), 출력부(300)를 포함한다. 이하, 본 발명의 다른 일실시예에 따른 수배차량 알림시스템의 구성요소에 대하여 설명한다.The arrangement notice system using the glass-shaped wearable device 10 according to another embodiment of the present invention, the wireless communication unit 250, the camera 120, the control unit 210, the output unit 300. Hereinafter, the components of the arrangement notice system according to another embodiment of the present invention will be described.
상기 무선통신부(250)는 상기 수배차량의 식별정보를 전송 받는 기능을 수행할 수 있다. 또한, 상기 무선통신부(250)는 상기 분석된 차량의 식별정보가 상기 수배차량의 식별정보와 상응하는 경우, 상기 글라스형 웨어러블 디바이스(10)의 위치정보 및 상기 수배차량의 상세정보를 사전 등록된 사용자 또는 인접한 사용자에게 전송할 수 있다.The wireless communication unit 250 may perform a function of receiving the identification information of the arrangement. In addition, the wireless communication unit 250 pre-registers the position information of the glass-shaped wearable device 10 and the detailed information of the arrangement, if the analyzed vehicle identification information corresponds to the identification information of the arrangement. You can send it to a user or an adjacent user.
카메라(120)는 도로상황을 영상 또는 이미지로 스캔하는 기능을 수행한다. 상기 카메라(120)는 글라스형 웨어러블 디바이스(10)에 부착된 다수의 카메라 중 하나 이상일 수 있다. The camera 120 performs a function of scanning road conditions as an image or an image. The camera 120 may be one or more of a plurality of cameras attached to the glass type wearable device 10.
제어부(210)은 스캔된 영상 또는 이미지에 포착된 차량의 식별정보를 분석하는 기능을 수행한다.The controller 210 analyzes identification information of the vehicle captured in the scanned image or the image.
출력부(300)는, 상기 분석된 차량의 식별정보가 상기 수배차량의 식별정보와 상응하는 경우, 상기 글라스형 웨어러블 디바이스의 사용자에게 상응여부를 통지하는 기능을 수행한다. 출력부(300)는 디스플레이부(310), 음성출력모듈(320) 또는 햅틱 모듈(340) 중 하나 이상일 수 있다.If the analyzed vehicle identification information corresponds to the identification information of the arrangement vehicle, the output unit 300 performs a function of notifying whether the user of the glass type wearable device corresponds. The output unit 300 may be one or more of the display unit 310, the voice output module 320, or the haptic module 340.
본 발명에 의하면, 글라스형 웨어러블 디바이스를 이용하여, 도난 및 수배차량을 무의식적으로 인지할 수 있다. 뿐만 아니라, 수배차량을 발견하는 즉시 사전 등록된 사용자 또는 인접 사용자에게 수배차량을 발견한 위치 정보 및 수배차량의 상세정보를 전송함으로써 수배차량의 검거율을 높일 수 있다.According to the present invention, it is possible to unknowingly recognize theft and arranging vehicles using a glass type wearable device. In addition, the detection rate of the arranging vehicle can be increased by transmitting location information on which the arranging vehicle is found and detailed information of the arranging vehicle to a pre-registered user or a neighboring user as soon as the arranging vehicle is found.
이하, 도면을 참조하여 본 발명의 실시예들에 따른 글라스형 웨어러블 디바이스를 이용한 신호변경 알림시스템 및 방법에 대해 설명하기로 한다.Hereinafter, a signal change notification system and method using a glass type wearable device according to embodiments of the present invention will be described with reference to the accompanying drawings.
도 10는 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 신호변경 알림방법에 대한 순서도이다.10 is a flowchart illustrating a signal change notification method using a glass type wearable device according to an exemplary embodiment of the present invention.
도 10를 참조하면, 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 신호변경 알림방법은, 글라스형 웨어러블 디바이스의 제1카메라(121)가 신호등을 탐색하는 단계(S400); 상기 탐색된 신호등의 신호변경을 인식하는 단계(S410); 및 상기 신호변경을 사용자에게 알리는 단계(S420);를 포함한다. 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 신호변경 알림방법을 순서대로 설명한다.Referring to FIG. 10, the signal change notification method using the glass type wearable device according to an exemplary embodiment of the present invention may include: searching for a traffic light by the first camera 121 of the glass type wearable device (S400); Recognizing a signal change of the found traffic light (S410); And notifying the user of the signal change (S420). A signal change notification method using a glass type wearable device according to an embodiment of the present invention will be described in order.
상기 글라스형 웨어러블 디바이스의 상기 제1카메라(121)가 신호등을 탐색한다(S400). 제1카메라(121)는 사용자가 바라보는 방향의 영상 또는 이미지를 입력받고, 제어부(210)가 입력된 상기 영상 또는 이미지 내에서 신호등을 탐색한다. 제어부(210)가 탐색하여야 하는 상기 신호등의 형상은 저장부(260)에 저장되어 있어, 제어부(210)가 저장부(260)로부터 신호등의 형상을 전송받아 상기 영상 또는 이미지 내의 형상들과 비교하여 찾아낸다.The first camera 121 of the glass wearable device searches for a traffic light (S400). The first camera 121 receives an image or an image in a direction viewed by the user, and the controller 210 searches for a traffic light in the input image or image. The shape of the traffic light to be searched by the control unit 210 is stored in the storage unit 260, so that the control unit 210 receives the shape of the traffic light from the storage unit 260 and compares it with the shapes in the image or images. Find out.
글라스형 웨어러블 디바이스(10)는 상기 탐색된 신호등의 신호변경을 인식한다(S410). 즉, 상기 탐색된 신호등의 신호변경이 발생하면, 글라스형 웨어러블 디바이스(10)의 제어부(210)는 신호변경을 인식한다. 상기 신호변경의 인식은 상기 신호등의 색상 변경 또는 신호등에 표시된 형상의 변경을 인식하여 수행될 수 있다.The glass type wearable device 10 recognizes a signal change of the searched traffic light (S410). That is, when a signal change of the searched signal lamp occurs, the control unit 210 of the glass type wearable device 10 recognizes the signal change. The recognition of the signal change may be performed by recognizing the color change of the traffic light or the change of the shape displayed on the traffic light.
예를 들어, 상기 제어부(210)가 신호변경을 신호의 색상에 따라 인식한다면, 상기 제어부(210)이 빨간불을 인식하면 정지신호로 파악하고 녹색불을 인식하면 직진신호로 파악할 수 있다. 또한, 상기 제어부(210)이 신호변경을 기존 신호와 변경된 신호를 함께 고려하는 인식한다면, 빨간불에서 녹색불로 변경되는 경우 직진신호로 인식, 녹색불에서 빨간불로 변경되는 경우 정지신호로 인식, 및 빨간불(또는 노란불) 후에 다시 빨간불(또는 노란불)이 인식되는 경우(즉, 깜박이는 신호등에 해당되는 경우) 주의 진행 신호로 인식할 수 있다. For example, if the controller 210 recognizes the signal change according to the color of the signal, the controller 210 recognizes the red light as a stop signal and recognizes the green light as the straight signal. In addition, if the control unit 210 recognizes the signal change considering the existing signal and the changed signal together, if it is changed from the red light to the green light is recognized as a straight signal, if it is changed from the green light to the red light, it is recognized as a stop signal, and red light If the red light (or yellow light) is recognized again (or yellow light) after the (or yellow light), it can be recognized as a caution progress signal.
또한, 예를 들어, 상기 제어부(210)가 신호변경을 신호등에 표시된 형상의 변경에 따라 인식하는 경우, 글라스형 웨어러블 디바이스(10)는 보행자 신호등에 표시된 정지신호형상 및 보행신호형상을 구분하여 신호를 파악할 수 있다. 또한, 운전자 신호등에서도 직진신호와 회전신호를 인식하기 위해, 글라스형 웨어러블 디바이스(10)는 각 신호형상을 구분하여 인식할 수 있다. 다만, 상기 탐색된 신호등의 신호변경을 인식하는 방법은 기 제시된 방식에 한정되지 아니하고, 상기 신호등의 색상변경과 상기 신호등에 표시된 신호형상 변경을 함께 적용하는 방법 등 신호등의 신호변경을 인식할 수 있는 다양한 방법이 적용될 수 있다.For example, when the control unit 210 recognizes the signal change according to the change of the shape displayed on the traffic light, the glass type wearable device 10 distinguishes the stop signal shape and the walking signal shape displayed on the pedestrian traffic light and signals the signal. Can be identified. In addition, in order to recognize the straight signal and the rotation signal in the driver signal, the glass type wearable device 10 may recognize each signal shape separately. However, the method of recognizing the signal change of the searched traffic light is not limited to the previously presented method, and the signal change of the traffic light may be recognized, such as a method of applying the color change of the traffic light and the change of the signal shape displayed on the traffic light together. Various methods can be applied.
글라스형 웨어러블 디바이스(10)는 상기 신호변경을 사용자에게 알린다(S420). 즉, 신호를 주시하고 있지 않은 보행자 또는 운전자, 보행신호를 확인할 수 없는 시각장애인, 또는 신호 색상을 구분하기 어려운 색각 이상인 보행자 또는 운전자에게 신호가 변경되었음을 알려준다. 상기 신호변경의 알림은, 음향출력부(320)에 의한 알림, 디스플레이부(310)에 표시하는 알림, 진동에 의한 알림 등에 의해 수행될 수 있다.The glass type wearable device 10 notifies the user of the signal change (S420). That is, the signal is changed to the pedestrian or driver who is not watching the signal, the visually impaired person who cannot confirm the walking signal, or the pedestrian or driver who has difficulty in distinguishing the color of the signal. The notification of the signal change may be performed by a notification by the sound output unit 320, a notification displayed on the display 310, a notification by vibration, or the like.
상기 음향출력부(320)에 의한 알림은, 음향출력부(320)를 통해 신호변경에 해당하는 경고음이 울리거나, 신호변경 메시지를 음성으로 읽어줌으로써 사용자가 인식하도록 구현할 수 있다.The notification by the sound output unit 320 may be implemented so that the user recognizes the sound by a warning sound corresponding to a signal change through the sound output unit 320 or reads a signal change message by voice.
상기 디스플레이부(310)에 표시하는 알림은, 도 11 또는 도 12에서와 같이, 상기 신호변경 정보를 상기 디스플레이부(310)에 메시지로 표시하여 사용자가 인식할 수 있도록 한다. 또한, 상기 디스플레이부(310)에 상기 제1카메라(121)로 스캔한 신호등 이미지를 확대하여 표시할 수 있다.The notification displayed on the display 310 displays the signal change information as a message on the display 310 as shown in FIG. 11 or 12 so that the user can recognize it. In addition, an image of a traffic light scanned by the first camera 121 may be enlarged and displayed on the display 310.
상기 진동에 의한 알림은 상기 글라스형 웨어러블 디바이스의 진동알람부가 진동을 발생시켜 사용자가 인식할 수 있도록 한다.The notification by the vibration causes the vibration alarm unit of the glass type wearable device to generate a vibration so that the user can recognize the vibration.
다만, 사용자에게 신호변경을 알리는 방법은 기 제시된 방법에 한정되지 않고, 상기 글라스형 웨어러블 디바이스의 상기 출력부를 통해 다양한 방법으로 구현될 수 있다.However, the method of notifying the user of the signal change is not limited to the previously presented method, and may be implemented in various ways through the output unit of the glass type wearable device.
또한, 상기 신호변경 알림단계(S420)는, 상기 신호의 유형에 따라 알림방식을 달리하는 것을 특징으로 할 수 있다. 예를 들어, 정지신호는 진동알림으로 사용자에게 알리고, 직진신호는 음향출력에 의해 알릴 수 있다. 또한, 진동신호의 패턴을 신호별로 달리 결정하여, 인식된 신호에 따라 진동패턴을 적용할 수도 있다. 신호의 유형에 따라 알림방식을 결정하는 방법은 이에 한정되지 않고, 다양한 조합으로 결정될 수 있다.In addition, the signal change notification step (S420), it may be characterized in that the notification method is different depending on the type of the signal. For example, the stop signal may be notified to the user by the vibration notification, and the straight signal may be notified by the sound output. In addition, the pattern of the vibration signal may be determined differently for each signal, and the vibration pattern may be applied according to the recognized signal. The method of determining the notification method according to the type of signal is not limited thereto, and may be determined in various combinations.
또한, 상기 신호변경 알림단계(S420)는, 무선통신을 통해 연동된 외부디바이스(30)로 상기 신호변경 정보를 전송하는 단계; 및 상기 연동된 외부디바이스(30)에 의해 사용자에게 상기 신호변경을 알리는 단계;를 포함할 수 있다.In addition, the signal change notification step (S420), the step of transmitting the signal change information to the external device (30) linked via wireless communication; And informing the user of the signal change by the interworking external device 30.
먼저, 글라스형 웨어러블 디바이스(10)는 무선통신을 통해 연동된 외부디바이스(30)로 상기 신호변경 정보를 전송할 수 있다. 상기 연동된 외부디바이스(30)는 사용자가 운행하는 자동차의 디스플레이부 또는 음향출력부, 스마트폰 등의 통신기기, 또는 상기 글라스형 웨어러블 디바이스의 부수기재 등이 해당될 수 있다.First, the glass type wearable device 10 may transmit the signal change information to the external device 30 interworking through wireless communication. The interlocked external device 30 may correspond to a display unit or an audio output unit of a vehicle in which a user operates, a communication device such as a smartphone, or an accessory material of the glass type wearable device.
그 후, 글라스형 웨어러블 디바이스(10)는 상기 연동된 외부디바이스(30)에 의해 사용자에게 신호변경을 알릴 수 있다. 즉, 글라스형 웨어러블 디바이스(10)는 상기 연동된 외부디바이스(30)의 음향출력부, 디스플레이부, 진동알람부 등을 통해 사용자가 신호변경을 인식하도록 할 수 있다.Thereafter, the glass type wearable device 10 may notify the user of a signal change by the interworking external device 30. That is, the glass type wearable device 10 may allow a user to recognize a signal change through the sound output unit, the display unit, and the vibration alarm unit of the interworking external device 30.
또한, 본 발명의 일실시예는,상기 제1카메라(121)가 영상 또는 이미지를 입력받는 단계; 상기 영상 또는 이미지를 분석하여 상기 글라스형 웨어러블 디바이스의 이용상황을 파악하는 단계; 및 상기 이용상황을 바탕으로, 상기 제1카메라(121)가 인식하여야 할 신호등의 형태 또는 신호의 형태를 결정하는 단계;를 더 포함할 수 있다. In addition, an embodiment of the present invention, the first camera 121, the step of receiving an image or an image; Analyzing the image or the image to determine a usage state of the glass type wearable device; And determining a shape of a signal lamp or a shape of a signal to be recognized by the first camera 121 based on the use situation.
상기 글라스형 웨어러블 디바이스의 사용자가 상기 디바이스를 사용하는 이용상황을 인식하여야 적절한 신호변경 인식이 가능할 수 있다. 예를 들어, 사용자가 보행 중인지, 운전 중인지를 파악하여야 한다. 또한, 국가별로 차량의 통행방향이 달라서 회전신호의 방향이 다를 수 있으므로, 운전 중이라면 우측통행인지, 좌측통행인지 파악하여야 한다. Appropriate signal change recognition may be possible only when the user of the glass type wearable device recognizes the use situation of using the device. For example, it is necessary to know whether the user is walking or driving. In addition, since the direction of rotation of the vehicle may be different because the traffic direction of the vehicle is different for each country, it is necessary to determine whether the vehicle is on the right side or the left side when driving.
따라서, 제1카메라(121)가 영상 또는 이미지를 수신하고, 제어부(210)는 영상 또는 이미지의 분석을 통해 운전여부, 및 운전 중에 해당하면 자동차의 통행방향을 인식할 수 있다. 인식된 운전여부 및 운전 중 통행방향 등을 바탕으로, 글라스형 웨어러블 디바이스(10)는 인식할 신호등의 형태 또는 신호의 형태를 결정할 수 있다. 이를 통해, 글라스형 웨어러블 디바이스(10)는 신호등을 포함하는 최초 영상 또는 이미지를 획득함에 따라 사용자의 이용상황에 적합한 설정을 수행할 수 있다.Accordingly, the first camera 121 receives an image or an image, and the controller 210 may recognize whether the driver is driving through the analysis of the image or the image and, if applicable, the driving direction of the vehicle. The glass type wearable device 10 may determine a shape of a signal lamp or a shape of a signal to be recognized based on the recognized driving status and a driving direction during driving. Through this, the glass type wearable device 10 may perform a setting suitable for a user's usage situation as the first image or image including a traffic light is acquired.
일실시예로, 상기 운전수행여부 인식 방법은, 제1카메라(121)에 의해 획득되는 영상 또는 이미지 내에 차량 내부 구성이 포함되는지 여부 또는 다른 차량의 후면 이미지가 포함되는지 여부를 통해 인식할 수 있다. In one embodiment, the method of recognizing whether the driving is performed may be recognized based on whether the internal configuration of the vehicle is included in the image or image acquired by the first camera 121 or whether the rear image of the other vehicle is included. .
일실시예로, 상기 자동차의 통행방향을 인식하는 방법은 마주 오는 자동차의 위치가 사용자의 차량의 좌측인지 우측인지를 파악하여 인식할 수 있고, 이에 한정되지 않고 상기 자동차의 통행방향을 인식할 수 있는 다양한 방법이 적용될 수 있다.In one embodiment, the method of recognizing the traffic direction of the vehicle may recognize by detecting whether the position of the vehicle coming to the left or the right of the user's vehicle, and is not limited thereto, and may recognize the traffic direction of the vehicle. Various methods may be applied.
다른 일실시예로, 글라스형 웨어러블 디바이스(10)는 영상 또는 이미지 내에 포함된 신호등의 형상 또는 신호 형상의 인식을 통해 사용되고 있는 국가를 자동으로 인식할 수 있다. 즉, 국가별로 회전방향, 신호등의 형상, 신호의 형상, 신호등이 부착된 위치 등이 상이할 수 있으므로, 글라스형 웨어러블 디바이스(10)는 신호등을 포함하는 영상 또는 이미지에서 특징정보를 추출하여 사용국가를 자동으로 인식할 수 있다.In another embodiment, the glass type wearable device 10 may automatically recognize a country being used by recognizing a shape of a signal lamp or a signal shape included in an image or an image. That is, since the rotation direction, the shape of the traffic light, the shape of the signal, the position where the signal light is attached, etc. may be different for each country, the glass type wearable device 10 may extract feature information from an image or an image including a traffic light and use the country. Can be recognized automatically.
또한, 글라스형 웨어러블 디바이스의 이용모드를 선택하는 단계;를 더 포함할 수 있다. 사용자는 운전모드 또는 보행모드를 선택할 수 있고, 운전모드 중에서 자동차 통행방향을 선택할 수 있다. 뿐만 아니라, 사용자는, 사용하는 국가에 따라 신호등의 형상, 신호등 내 신호 형상, 신호등의 위치 등이 상이할 수 있으므로, 운전 또는 보행하는 국가를 선택할 수 있다. 이에 따라, 글라스형 웨어러블 디바이스(10)는 사용자에 의해 선택된 국가를 바탕으로 제1카메라(121)에 의해 획득된 이미지 내에서 탐색할 신호등의 형상, 신호 형상, 신호등의 위치 등을 설정할 수 있다.The method may further include selecting a usage mode of the glass type wearable device. The user may select a driving mode or a walking mode, and may select a driving direction of the vehicle from the driving mode. In addition, since the shape of the traffic light, the signal shape in the traffic light, the position of the traffic light, etc. may be different depending on the country of use, the user can select a country for driving or walking. Accordingly, the glass type wearable device 10 may set the shape of the signal lamp, the signal shape, the location of the signal lamp, etc. to be searched in the image acquired by the first camera 121 based on the country selected by the user.
상기 이용모드 선택 방법은, 상기 사용자입력부(110)를 이용하여 터치 조작으로 선택하는 방식, 상기 음성입력부(140)에 의해 사용자의 음성을 입력받아 상기 음성인식부(220)에서 사용자의 음성명령을 인식하는 방식, 상기 제1카메라(121)에 의해 상기 사용자의 제스처를 인식하여 명령입력을 수신하는 방식, 상기 제2카메라(122)에 의해 사용자의 눈 깜박임을 인식하여 명령입력을 수신하는 방식 중 적어도 하나 이상에 의해서 구현될 수 있다. The usage mode selection method includes a method of selecting a touch operation using the user input unit 110, receiving a user's voice by the voice input unit 140, and receiving a voice command of the user from the voice recognition unit 220. Recognizing method, a method of receiving a command input by recognizing the gesture of the user by the first camera 121, a method of receiving a command input by recognizing the blink of the user by the second camera 122 It may be implemented by at least one or more.
본 발명의 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 신호변경 알림시스템은, 제1카메라(121); 제어부(210); 저장부(260); 및 알람부(330);를 포함한다.Signal change notification system using the glass-type wearable device according to another embodiment of the present invention, the first camera 121; Control unit 210; Storage unit 260; And an alarm unit 330.
상기 제1카메라(121)는, 글라스형 웨어러블 디바이스(10)의 전면부에 부착되어 사용자의 진행방향에 위치한 신호등을 탐색하고, 신호등이 포함된 영상 또는 이미지를 수신하는 기능을 수행할 수 있다.The first camera 121 may be attached to a front surface of the glass type wearable device 10 to search for a traffic light located in a moving direction of the user and to receive an image or an image including the traffic light.
상기 제어부(210)은 상기 제1카메라(121)에 의해 획득된 영상 또는 이미지를 분석하여 상기 탐색된 신호등의 신호변경을 인식할 수 있다. 상기 신호변경 인식은, 신호등의 색상 변경 또는 신호등에 표시된 형상 변경 등의 인식을 통해 수행될 수 있다. 다만, 상기 탐색된 신호등의 신호변경을 인식하는 방법은 기제시된 방식에 한정되지 아니하고, 신호등의 색상변경과 신호등에 표시된 신호형상 변경을 함께 적용하는 방법 등 신호등의 신호변경을 인식할 수 있는 다양한 방법이 적용될 수 있다.The controller 210 may recognize a signal change of the searched signal lamp by analyzing an image or an image acquired by the first camera 121. The signal change recognition may be performed by recognizing a color change of a traffic light or a shape change displayed on the traffic light. However, the method of recognizing the signal change of the searched traffic light is not limited to the method described, and various methods of recognizing the signal change of the traffic light, such as a method of applying the color change of the traffic light and the change of the signal shape displayed on the traffic light together. This can be applied.
상기 저장부(260)는 제어부(210)가 인식하여야 하는 신호 유형 및 상기 신호 유형에 따른 알림 방식을 저장할 수 있다. 예를 들어, 제어부(210)가 인식하여야 하는 신호 유형은 운전 중이면 정지신호, 직진신호, 좌회전(또는 우회전)신호, 깜빡임 신호(주의신호), 직진 및 회전신호 외의 주행신호가 포함될 수 있고, 보행 중이면 정지신호, 보행신호, 보행 신호의 깜박임 신호가 포함될 수 있다. 또한, 저장부(260)는 사용자가 보행 중인 경우, 정지신호이면 음향출력에 의한 알림, 보행신호이면 디스플레이 표시에 의한 알림, 보행신호의 깜박임 신호이면 진동 알림과 같이 상기 신호 유형에 따른 알림 방식을 저장할 수 있다. 저장된 상기 신호 유형 및 상기 신호 유형에 따른 알림 방식은 이에 한정되지 않고, 다양한 유형 및 방식으로 정해져서 저장부(260)에 저장될 수 있다.The storage unit 260 may store a signal type that the control unit 210 should recognize and a notification method according to the signal type. For example, the signal type to be recognized by the controller 210 may include a stop signal, a straight signal, a left turn (or a right turn) signal, a blink signal (attention signal), a driving signal other than the straight and the turn signal while driving. When walking, a stop signal, a walking signal, and a blinking signal of the walking signal may be included. In addition, the storage unit 260 provides a notification method according to the signal type, such as a notification by an audio output when the user is a stop signal, a notification by a display indication when a walking signal, and a vibration notification by a blinking signal of the walking signal. Can be stored. The stored signal type and the notification method according to the signal type are not limited thereto, and may be determined in various types and methods and stored in the storage unit 260.
상기 알람부(330)는 상기 신호변경을 사용자에게 알리는 기능을 수행한다. 특히, 상기 알람부(330)는, 상기 음향출력부(320), 상기 햅틱모듈, 상기 진동알람부 중 적어도 하나 이상을 포함할 수 있다.The alarm unit 330 notifies the user of the signal change. In particular, the alarm unit 330 may include at least one of the sound output unit 320, the haptic module, and the vibration alarm unit.
또한, 본 발명의 일실시예는 상황평가모듈(230);을 더 포함할 수 있다. 상기 상황평가모듈(230)은 상기 글라스형 웨어러블 디바이스의 이용상황을 파악하고, 상기 이용상황을 바탕으로 상기 제1카메라(121)가 인식하여야 할 신호등의 형태 또는 신호의 형상를 결정하는 기능을 수행한다.In addition, an embodiment of the present invention may further include a situation evaluation module 230. The situation evaluation module 230 determines a use situation of the glass type wearable device and determines a shape of a signal lamp or a shape of a signal to be recognized by the first camera 121 based on the use situation. .
또한, 디스플레이부(310);를 더 포함할 수 있다. 상기 디스플레이부(310)는 상기 제어부(210)에 의해 상기 신호변경이 인식되는 경우, 상기 제1카메라(121)로 스캔한 신호등을 확대하여 표시하고, 상기 신호변경 정보을 메시지로 표시하는 기능을 수행할 수 있다.In addition, the display unit 310 may further include a. When the signal change is recognized by the control unit 210, the display unit 310 enlarges and displays the signal lamp scanned by the first camera 121 and displays the signal change information as a message. can do.
또한, 상기 사용자입력부(110);를 더 포함할 수 있다. 상기 사용자입력부(110)는 사용자가 상기 글라스형 웨어러블 디바이스 사용모드를 선택할 수 있도록 조작 인터페이스를 제공하는 기능을 수행한다. 상기 사용자입력부(110)는 상기 글라스형 웨어러블 디바이스의 일측에 구비될 수 있고, 상기 디스플레이부(310)와 결합되는 경우에는 터치스크린으로 구현될 수 있다. 사용자는, 사용자입력부(110)가 상기 디바이스의 일측에 구비된 경우, 상기 사용자입력부(110)를 조작하는 횟수에 따라 선택하도록 할 수 있다. 또한, 터치스크린의 형태인 경우, 사용자는 디스플레이부(310) 상의 해당 모드가 표시된 부분을 터치하여 원하는 모드를 선택할 수 있다. 다만, 사용자입력부(110)에 의한 사용모드 선택 방식은 이에 한정되지 않고, 사용자입력부(110)를 슬라이드는 하는 방향에 따른 모드를 선택할 수 있도록 하는 등의 상기 사용자입력부(110)로 구현할 수 있는 다양한 방식이 적용될 수 있다.In addition, the user input unit 110 may further include a. The user input unit 110 performs a function of providing an operation interface so that a user can select the glass type wearable device use mode. The user input unit 110 may be provided at one side of the glass type wearable device and may be implemented as a touch screen when combined with the display unit 310. When the user input unit 110 is provided at one side of the device, the user may select the user input unit 110 according to the number of times the user input unit 110 is operated. In addition, in the form of a touch screen, a user may select a desired mode by touching a portion in which the corresponding mode is displayed on the display 310. However, the method of selecting the use mode by the user input unit 110 is not limited thereto, and various types that can be implemented by the user input unit 110 such as allowing the user input unit 110 to select a mode according to the direction in which the user input unit 110 slides. Manner may be applied.
본 발명에 따르면, 상기 글라스형 웨어러블 디바이스의 사용자는 신호등을 응시하고 있지 않아도 신호변경을 인식할 수 있다. 운전자가 정지신호 시에 조수석 탑승자와 대화를 하다가 신호를 인지하지 못하여 교통정체가 생기는 상황 등이 발생하는 것을 방지할 수 있다.According to the present invention, a user of the glass type wearable device can recognize a signal change even without staring at a traffic light. When the driver talks to the passenger seat occupant at the stop sign, the driver may not recognize the signal and may cause traffic jams.
또한, 상기 사용자가 색각 이상이 있거나 시각장애인인 경우, 상기 신호변경 알림시스템 및 알림방법을 이용하여, 음성알림이 되지 않는 신호등에서 신호변경을 인식하여 보행할 수 있다. 이를 통해 시각장애인 또는 색각이상자가 보행신호를 제대로 파악하지 못해 교통사고가 발생하는 것을 방지할 수 있다.In addition, when the user has color vision abnormality or is visually impaired, the signal change notification system and the notification method may be used to recognize and walk the signal change in a signal that does not sound voice. Through this, the visually impaired person or color vision impaired person does not properly grasp the walking signal, thereby preventing traffic accidents from occurring.
또한, 각국별 상황에 맞도록 상기 시스템이 설정될 수 있어서, 자동차의 주행방향이 반대인 일본, 영국 등에서도 유용하게 사용할 수 있다.In addition, the system can be set to suit the situation of each country, it can be usefully used in Japan, the United Kingdom, and the like in which the driving direction of the car is reversed.
이하, 도면을 참조하여 본 발명의 실시예들에 따른 글라스형 웨어러블 디바이스를 이용한 교통법규위반 차량 신고 시스템 및 방법에 대해 설명하기로 한다.Hereinafter, a traffic notification violation vehicle reporting system and method using a glass type wearable device according to embodiments of the present invention will be described with reference to the accompanying drawings.
최근에 교통법규를 위반하고 차량을 운행하는 운전자들이 많다. 경찰이나 단속카메라가 없는 경우에는, 교통법규 위반이 과하여 교통체증을 심각하게 하거나 교통사고를 증가시킨다. 예를 들어, 교차로에서 운전자들은 빨리 가겠다는 생각으로 꼬리물기를 하게 되고, 이에 따라 교통체증이 심각해진다.Recently, there are many drivers who drive vehicles in violation of traffic laws. In the absence of police or enforcement cameras, violations of traffic laws can lead to serious traffic jams or increased traffic accidents. For example, at an intersection, drivers will sniff with the idea of going fast, resulting in serious traffic jams.
이러한 교통법규위반에 의한 문제를 막기 위해서 시민신고제도를 도입하는 지방자치단체가 많다. 교통법규위반 시민신고제는 시민이 신고한 증거자료가 교통법규 위반사항을 입증하면 과태료를 부과하는 제도이다. 그러나 신고자가 교통법규위반신고서를 작성하여 신고를 하거나, 스마트폰 어플리케이션을 통해 카메라로 촬영한 사진 파일과 함께 촬영장소 등의 정보를 기재하여 신고하여야 하므로, 시민들이 공익적 신고를 하는데 있어서 불편함이 있다. 이러한 문제점을 극복하기 위해서, 글라스형 웨어러블 디바이스(10)를 착용하는 사용자들이 신속하고 간편하게 교통법규위반차량을 신고할 수 있는 시스템 및 방법이 필요하다.Many local governments have introduced citizen notification systems to prevent such traffic violations. Citizens' report for violation of traffic laws is a system that imposes a penalty if the evidence reported by citizens proves a violation of traffic laws. However, because the reporter must make a report by completing a traffic violation report or report the information such as the shooting location together with the photo file taken by the camera through the smartphone application, it is inconvenient for citizens to make a public report. have. In order to overcome this problem, there is a need for a system and method that allows users to wear the glass-shaped wearable device 10 to report a traffic violation violation vehicle quickly and easily.
도 13는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 교통법규위반 차량 신고방법에 대한 순서도이다.13 is a flowchart illustrating a traffic law violation vehicle reporting method using a glass type wearable device according to an embodiment of the present invention.
도 13를 참조하면, 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 교통법규위반 차량 신고방법은, 제1카메라(121)로 교통법규위반차량을 포함하는 영상 또는 이미지를 획득하는 단계(S500); 현재 시간 및 현재위치를 인식하여 상기 영상 또는 이미지에 기록하는 단계(S510); 및 상기 글라스형 웨어러블 디바이스가 외부서버(20)로 교통법규위반차량정보를 무선통신으로 전송하는 단계(S520);를 포함한다. 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 교통법규위반 차량 신고방법을 순서대로 설명한다.Referring to FIG. 13, a traffic law violation vehicle reporting method using a glass-type wearable device according to an embodiment of the present invention may include obtaining an image or an image including a traffic law violation vehicle by using a first camera 121 ( S500); Recognizing a current time and a current position and recording the image or image on the image (S510); And transmitting, by the glass type wearable device, the traffic law violation vehicle information to the external server 20 through wireless communication (S520). A traffic notification violation vehicle reporting method using a glass type wearable device according to an embodiment of the present invention will be described in order.
글라스형 웨어러블 디바이스(10)는 제1카메라로 교통법규위반차량을 포함하는 영상 또는 이미지를 획득한다(S500). 도 14에서와 같이, 제1카메라가 사용자가 주시하는 방향의 상기 교통법규위반차량(예를 들어, 도 14에서와 같이, 버스전용차로 위반차량)을 포함하는 영상 또는 이미지를 획득할 수 있다. The glass type wearable device 10 acquires an image or an image including a traffic law violation vehicle with a first camera (S500). As shown in FIG. 14, the first camera may acquire an image or image including the traffic law violation vehicle (for example, a bus-only lane violation vehicle as shown in FIG. 14) in a direction that the user observes.
또한, 교통법규위반 유형에 따라서, 정지 상태를 확인할 수 있도록 촬영 시차가 나는 사진 2매 이상이 필요할 수 있다. 예를 들어, 신고하려는 교통법규위반이 불법주정차 위반인 경우, 상기 차량이 정지 상태임을 확인할 수 있어야 하므로, 시간차이가 나는 사진이 2장 이상을 상기 제1카메라가 획득하여야 한다. 따라서 사용자가 상기 사용자입력부 조작, 상기 모션센서에 의한 사용자의 동작입력 인식, 사용자의 눈깜박임 입력 인식, 음성명령에 의한 인식 등에 의하여 시차를 두고 상기 제1카메라가 2장 이상의 상기 이미지를 획득하도록 할 수 있다. 다만, 상기 촬영 시차가 나는 사진 2매 이상을 획득하는 방식은 이에 한정되지 않고, 상기 제1카메라의 촬영시차를 설정하여두고 자동으로 설정된 시차만큼의 이미지를 획득하는 방식 등 다양한 방식이 적용될 수 있다. In addition, depending on the traffic law violation type, two or more pictures with a parallax of shooting may be required to confirm the stop condition. For example, when the traffic law violation to be reported is an illegal parking violation, the first camera should acquire two or more pictures having a time difference since the vehicle must be able to confirm that the vehicle is stopped. Therefore, the first camera acquires two or more images at a time difference by a user by operating the user input unit, recognizing a user's motion input by the motion sensor, recognizing a user's blink input, and a voice command. Can be. However, the method of acquiring two or more photographs having the shooting parallax is not limited thereto, and various methods may be applied, such as a method of acquiring an image corresponding to the set parallax automatically by setting the shooting parallax of the first camera. .
또한, 상기 제1카메라(121)가 상기 교통법규위반차량을 포함하는 영상을 촬영하는 경우, 글라스형 웨어러블 디바이스(10)는 상기 영상을 통해 상기 차량의 정지 상태 여부 등의 상기 교통법규위반 신고 시에 필요한 정보를 파악할 수 있다. In addition, when the first camera 121 photographs an image including the traffic law violation vehicle, when the glass type wearable device 10 reports the traffic law violation such as whether the vehicle is in a stopped state through the image. Identify the information needed for
글라스형 웨어러블 디바이스(10)는 현재 시간 및 현재위치를 인식하여 상기 영상 또는 이미지에 기록한다(S510). 획득된 영상 또는 이미지는 상기 교통법규위반차량을 촬영한 현재시간 및 현재위치를 정확하게 인식할 수 있어야 교통법규위반의 증거로 사용될 수 있다. 상기 영상 또는 이미지를 획득한 현재 위치 및 현재 시간은, 상기 교통법규위반차량의 운전자에게 교통법규를 위반한 장소와 시간을 통지하는데 활용되는 정보이다. 또한, 상기 영상 또는 이미지를 획득한 현재 위치는 교통법규위반단속구역에 해당하는 지 여부를 판단하는 정보이며, 현재 시간은 상기 영상 또는 이미지를 획득한 시간이 상기 구역의 교통법규위반 단속 시간대에 해당하는 지 여부를 판단하는 정보가 될 수 있다. 따라서 글라스형 웨어러블 디바이스(10)는 상기 제1카메라에 의해 획득된 상기 영상 또는 이미지에 현재 위치 및 현재 시간 정보를 추가할 수 있다. The glass type wearable device 10 recognizes a current time and a current position and records the image or image in the image or an image (S510). The obtained image or image can be used as evidence of traffic violations only when the current time and current location of the traffic violations vehicle can be accurately recognized. The current location and the current time of acquiring the image or image are information used to notify the driver and the driver of the traffic offense of the traffic location and time. In addition, the current position obtained the image or image is information to determine whether it corresponds to the traffic offense enforcement area, and the current time corresponds to the traffic law enforcement enforcement time zone of the area. It can be information to determine whether or not to. Therefore, the glass type wearable device 10 may add current location and current time information to the image or image acquired by the first camera.
상기 글라스형 웨어러블 디바이스의 GPS모듈이 위성신호를 수신하여 사용자의 현재 위치를 인식하고, 상기 위성신호를 통해 현재 시간을 인식한다. 그 후, 상기 제어부는 상기 현재시간과 현재위치를 신호처리를 통해 상기 영상 또는 이미지에 기록한다. The GPS module of the glass type wearable device receives a satellite signal to recognize a current location of a user, and recognizes a current time through the satellite signal. Thereafter, the controller records the current time and the current position in the video or image through signal processing.
상기 글라스형 웨어러블 디바이스(10)는 신고센터의 외부서버(20)로 교통법규위반차량정보를 무선통신으로 전송한다(S520). 무선통신부(250)가 제어부(210)에 의해 정보처리된 상기 교통법규위반차량을 포함하는 영상 또는 이미지를 무선통신으로 상기 외부서버(20)로 전송할 수 있다. 상기 외부서버(20)는 경찰서의 신고센터 서버 등이 포함될 수 있다. 상기 교통법규위반차량정보는, 상기 차량을 포함하는 영상 또는 이미지, 상기 차량의 번호판 확대 이미지, 상기 차량번호, 상기 차량의 영상 또는 이미지를 획득한 시간정보 및 위치정보 등을 포함할 수 있다. The glass type wearable device 10 transmits traffic law violation vehicle information to wireless communication to an external server 20 of a report center (S520). The wireless communication unit 250 may transmit an image or an image including the traffic law violation vehicle processed by the controller 210 to the external server 20 through wireless communication. The external server 20 may include a report center server of the police station. The traffic law violation vehicle information may include an image or image including the vehicle, an enlarged image of the license plate of the vehicle, the vehicle number, time information and location information obtained from the image or image of the vehicle, and the like.
또한, 신고할 교통법규위반 유형을 선택받는 단계;를 더 포함할 수 있다. 상기 교통법규위반 유형은, 주정차 위반(횡당보도, 교차로, 보도 등의 정지차량), 버스전용차로 위반, 신호위반, 교차로 꼬리물기 운전, 정지선 위반, 운전 중 휴대폰 사용, 운전 중 DMB시청, 또는 운전 중 흡연 등이 포함될 수 있다. 글라스형 웨어러블 디바이스(10)는 디스플레이부(310) 상에 교통법규 위반 유형 리스트를 표시하고, 사용자로부터 상기 교통법규위반차량이 해당되는 위반유형을 선택할 수 있다. 위반유형을 선택하는 방식은, 상기 사용자입력부(110)(예를 들어, 터치부(112))를 조작하여 선택하는 방식, 상기 모션센서가 사용자의 고개움직임 패턴을 인식하여 선택하는 방식, 글라스형 웨어러블 디바이스(10)의 일측에 구비되어 동공방향의 영상 또는 이미지를 획득하는 제2카메라(122)가 사용자의 눈깜박임 패턴을 인식하여 선택하는 방식, 사용자의 음성명령을 인식하여 입력하는 방식 등이 적용될 수 있다.In addition, the step of receiving the traffic law violation type to be reported; may further include. The traffic violation type is a stop vehicle violation (stop vehicles such as sidewalks, intersections, sidewalks, etc.), bus lane violations, signal violations, crossroad trailing, stop line violations, use of mobile phones while driving, DMB viewing while driving, or driving Heavy smoking may be included. The glass type wearable device 10 may display a traffic law violation type list on the display 310 and select a violation type corresponding to the traffic law violation vehicle from a user. The way of selecting the violation type is a method of operating the user input unit 110 (for example, the touch unit 112) and selecting, a method of the motion sensor recognizes and selects the user's moving pattern, glass type The second camera 122 provided on one side of the wearable device 10 to acquire an image or image in the pupil direction recognizes and selects a user's blink pattern, and a method of recognizing and inputting a user's voice command. Can be applied.
또한, 상기 현재위치 정보를 외부서버(20)로 전송하여, 단속구역 또는 단속시간 해당여부 정보를 수신하여 사용자에게 제공하는 단계;를 더 포함할 수 있다. 교통법규위반 유형에 따라, 단속구역에 해당하는 범위에서만 위반단속을 수행하는 경우가 있으며, 특정 시간대에만 위반단속을 수행하는 경우가 있다. 예를 들어, 버스전용차로 위반의 경우, 특정한 운영구간 내에서 특정 운영시간에만 시행되므로, 상기 운영구간에서 상기 운영시간 내에 위반하는 경우에만 단속대상에 해당하게 된다. 예를 들어, 남부순환로(양재역사거리 ~ 학여울역사거리) 구간은 버스전용차로 시간제 운행구간이어서 토요일 및 공휴일을 제외한 07시~10시와 17시~21시에만 운행되므로, 상기 운행시간에 해당하지 않으면 버스전용차로 위반에 해당하지 않는다. 그러므로 글라스형 웨어러블 디바이스(10)는, 사용자가 특정한 차량이 교통법규위반에 해당하는 지 파악하여 신고를 수행할지 결정할 수 있도록, 상기 현재위치를 바탕으로 단속구역 또는 단속시간 해당여부 정보를 제공할 수 있다.The method may further include transmitting the current location information to the external server 20 and receiving information on whether the crackdown area or the crackdown time corresponds to the user. Depending on the type of traffic law violations, violations may be enforced only within the scope of the enforcement area, and in some cases, violations may only be performed at specific times. For example, in the case of a bus-only lane violation, it is only enforced at a specific operating time within a specific operating section, and thus is only subject to enforcement if the violation is made within the operating time within the operating section. For example, the Southern Loop Road (Yangjae Station Intersection ~ Hakyeooul Station Intersection) is a bus-only hour-time section, and operates only from 7:00 to 10:00 and 17:00 to 21:00 except Saturdays and public holidays. Bus lanes are not a violation. Therefore, the glass type wearable device 10 may provide information on whether the crackdown area or the crackdown time is applicable based on the current location so that the user may determine whether a specific vehicle corresponds to a traffic law violation and decide to perform a report. have.
글라스형 웨어러블 디바이스(10)는 GPS모듈이 측정한 현재위치 정보를 외부서버(20)로 무선통신을 통해 전송할 수 있다. 상기 외부서버(20)는 상기 현재위치 정보를 바탕으로 교통법규위반 단속구간인지 여부 및/또는 단속시간인지 여부를 파악하여 무선통신을 통해 상기 글라스형 웨어러블 디바이스(10)로 전송할 수 있다. 글라스형 웨어러블 디바이스(10)는 수신한 상기 단속구간 및/또는 단속시간 정보를 사용자에게 제공한다. 사용자에게 제공하는 방식은, 도 15에서와 같이 상기 디스플레이부(310)에 시각적으로 표시하여 제공하는 방식 또는 상기 음향출력부(320)를 통해 음성으로 알려주는 방식 등이 적용될 수 있다.The glass type wearable device 10 may transmit current location information measured by the GPS module to the external server 20 through wireless communication. The external server 20 may determine whether the traffic law violation is an enforcement section and / or an enforcement time based on the current location information and transmit the same to the glass type wearable device 10 through wireless communication. The glass type wearable device 10 provides the user with the received interruption duration and / or interruption time information. As a method of providing the user, a method of visually displaying the information on the display 310 and providing a voice through the sound output unit 320 may be applied as shown in FIG. 15.
또한, 사용자가 단속구간 및/또는 단속시간 정보를 파악하고 싶은 교통위반법규 유형을 음성명령을 통해 입력하여 선택할 수 있다. 예를 들어, “여기 주정차 단속구역 아니야”라는 음성명령을 상기 글라스형 웨어러블 디바이스에 입력하고, 상기 음성인식부가 ‘주정차 단속’이라는 키워드를 인식하여 교통위반법규 유형을 파악한다. 이를 통해, 상기 파악된 교통위반법규 유형과 상기 현재위치 정보를 상기 외부서버(20)로 전송하여, 사용자가 원하는 상기 교통위반법규유형에 대한 단속구간 및/또는 단속시간 정보만 수신하여 제공할 수 있다.In addition, a user may input and select a traffic violation law type through which a user wants to grasp crackdown section and / or crackdown time information through a voice command. For example, a voice command of “Here's no parking enforcement zone” is input to the glass type wearable device, and the voice recognition unit recognizes a keyword of “parking enforcement” to determine a traffic violation law type. Through this, the identified traffic violation law type and the current location information may be transmitted to the external server 20 to receive and provide only the control section and / or the interruption time information for the traffic violation law type desired by the user. have.
또한, 상기 신고 처리결과를 수신하여 사용자에게 제공하는 단계;를 더 포함할 수 있다. 사용자가 상기 교통법규위반차량정보를 무선통신으로 신고하여 신고 처리가 제대로 이루어지면, 상기 외부서버(20)가 상기 신고 처리결과를 상기 글라스형 웨어러블 디바이스로 전송하고, 상기 글라스형 웨어러블 디바이스(10)가 수신한 상기 신고 처리결과 정보를 정보처리하여 사용자에게 제공할 수 있다. 이를 통해, 사용자는 상기 외부서버(20)에 신고가 제대로 이루어졌는지 확인할 수 있다.The method may further include receiving and providing the report processing result to a user. When the user reports the traffic law violation vehicle information through wireless communication and the notification processing is properly performed, the external server 20 transmits the report processing result to the glass type wearable device, and the glass type wearable device 10. The report processing result information received by the information processing may be provided to the user. Through this, the user can check whether the report is made to the external server 20 properly.
또한, 상기 영상 또는 이미지에서 상기 교통법규위반차량의 번호판부분을 추출하여 확대이미지를 생성하는 단계;를 더 포함할 수 있다. 상기 영상 또는 이미지 내에 포함된 교통법규위반차량을 식별하기 위해서는 상기 차량의 차량번호를 확인하여야 한다. 따라서 제어부(210)는 상기 영상 또는 이미지에서 상기 차량의 번호판부분을 추출할 수 있다. 그 후, 제어부(210)는 추출한 상기 차량의 번호판부분을 상기 차량번호가 선명하게 보여 차량을 식별할 수 있도록 신호처리를 수행하여 번호판 확대이미지를 생성할 수 있다. 그 후, 글라스형 웨어러블 디바이스(10)는 상기 번호판 확대이미지를 상기 교통법규위반차량정보에 포함시켜 외부서버(20)로 무선통신을 통해 전송할 수 있다.The method may further include extracting a license plate portion of the traffic violation violation vehicle from the image or the image to generate an enlarged image. In order to identify the traffic law violation vehicle included in the image or image, the vehicle number of the vehicle must be checked. Therefore, the controller 210 may extract the license plate portion of the vehicle from the image or the image. Thereafter, the control unit 210 may generate an enlarged image of the license plate by performing signal processing to identify the vehicle by clearly displaying the extracted license plate portion of the vehicle. Thereafter, the glass type wearable device 10 may include the license plate enlarged image in the traffic law violation vehicle information and transmit it to the external server 20 through wireless communication.
또한, 상기 영상 또는 이미지에서 문자인식을 통해 차량번호를 파악하는 단계;를 더 포함할 수 있다. 즉, 상기 제1카메라(121)가 획득한 상기 영상 또는 이미지 내에 포함된 상기 교통법규위반차량의 차량번호를 인식하기 위해서, 제어부(210)의 문자인식모듈이 상기 영상 또는 이미지 내에서 차량번호를 추출하여 인식할 수 있다. The method may further include identifying a vehicle number through text recognition in the image or image. That is, in order to recognize the vehicle number of the traffic law violation vehicle included in the image or image obtained by the first camera 121, the character recognition module of the controller 210 may identify the vehicle number in the image or image. Can be extracted and recognized.
본 발명의 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 교통법규위반 차량 신고시스템은, 제1카메라(121); 제어부(210); 무선통신부(250);를 포함한다.According to another embodiment of the present invention, a traffic law violation vehicle reporting system using a glass type wearable device includes: a first camera 121; Control unit 210; It includes; a wireless communication unit 250.
제1카메라(121)는, 상기 글라스형 웨어러블 디바이스의 일측에 구비되어 전방의 영상 또는 이미지를 획득하는 카메라로, 상기 교통법규위반차량을 포함하는 영상 또는 이미지를 획득하는 기능을 수행할 수 있다.The first camera 121 is a camera provided at one side of the glass type wearable device to acquire an image or image of the front, and may perform a function of acquiring an image or image including the traffic law violation vehicle.
제어부(210)는 상기 영상 또는 이미지에 시간정보와 위치정보를 포함시키는 정보처리를 수행하고, 신고센터의 외부서버(20)로 무선통신을 통해 전송하기 위해 정보처리를 수행하는 기능을 수행한다.The control unit 210 performs information processing to include time information and location information in the image or image, and performs information processing for transmitting to the external server 20 of the report center through wireless communication.
무선통신부(250)는 외부서버(20)로 상기 영상 또는 이미지를 전송하여 신고하는 기능을 수행한다. 무선통신부(250)는 GPS모듈을 포함할 수 있고, 상기 GPS모듈은 현재 시간정보와 현재 위치정보를 인식하기 위한 위성신호를 수신하는 기능을 수행할 수 있다.The wireless communication unit 250 transmits the image or the image to the external server 20 to report. The wireless communication unit 250 may include a GPS module, and the GPS module may perform a function of receiving a satellite signal for recognizing current time information and current location information.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, has the following various effects.
첫째, 사용자는 교통법규위반차량에 의해 불편함을 겪는 경우에 신속하고 간편하게 신고를 수행할 수 있다. 사용자가 교통법규를 위반한 차량을 포함하는 영상 또는 이미지를 촬영하는 것만으로 신고센터의 외부서버(20)로 신고가 수행되므로 매우 간편하다.First, a user can quickly and easily report when there is an inconvenience caused by a traffic offense. It is very easy because the user is reported to the external server 20 of the report center only by taking a picture or image including the vehicle in violation of the traffic laws.
둘째, 시민들이 간편하게 교통법규위반차량을 신고할 수 있어, 차량 운전자들이 주변에 경찰이나 단속카메라가 없는 경우에도 교통법규를 준수하도록 하는 효과가 있다. 시민들이 감시자 역할을 하여 언제든지 위반차량을 신고할 수 있으므로, 차량 운전자가 시민의 신고에 의해 벌금을 징수 받는 상황을 피하기 위해서 교통법규를 충실히 준수하게 된다.Second, citizens can easily report traffic violations, so that drivers can obey traffic laws even when there are no police or cameras around. Citizens can act as watchers and report violations at any time, so they obey traffic laws in order to avoid getting drivers fines from citizen reports.
셋째, 경찰들의 교통법규 위반 단속을 위한 순찰 횟수를 줄일 수 있으며, 단속을 위해 설치하는 카메라의 수도 줄일 수 있어, 비용절감의 효과가 있다.Third, it is possible to reduce the number of patrols for police officers to crack down on traffic laws, and to reduce the number of cameras installed for crackdowns, thereby reducing costs.
넷째, 사용자가 현재 위치가 교통위반 단속구간에 해당하는 지 파악하고 신고를 수행할지 여부를 결정할 수 있어, 교통위반에 해당하지 않는 신고의 수를 줄일 수 있는 효과가 있다.Fourth, the user can determine whether the current location corresponds to the traffic violation enforcement section and decide whether to perform a report, thereby reducing the number of reports that do not correspond to the traffic violation.
이상에서 전술한 본 발명의 실시예들에 따른 글라스형 웨어러블 디바이스를 이용한 정보처리 방법은, 하드웨어인 글라스형 웨어러블 디바이스(10)와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The information processing method using the glass type wearable device according to the embodiments of the present invention described above is implemented as a program (or an application) to be executed in combination with the glass type wearable device 10 which is hardware, and stored in a medium. Can be.
상기 전술한 프로그램은, 상기 글라스형 웨어러블 디바이스(10)가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 글라스형 웨어러블 디바이스(10)의 프로세서(CPU)가 상기 글라스형 웨어러블 디바이스(10)의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 글라스형 웨어러블 디바이스(10)의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 글라스형 웨어러블 디바이스(10)의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 글라스형 웨어러블 디바이스(10)의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 글라스형 웨어러블 디바이스(10)의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 글라스형 웨어러블 디바이스(10)의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. In the above-described program, in order for the glassy wearable device 10 to read the program and execute the methods implemented as a program, the processor CPU of the glassy wearable device 10 may execute the glassy wearable device ( 10) may include code coded in a computer language such as C, C ++, JAVA, or machine language that can be read through the device interface. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, the execution of which is required for the processor of the glassy wearable device 10 to execute according to a predetermined procedure. Procedure-related control codes. In addition, such code requires that additional information or media required to execute the functions by the processor of the glassy wearable device 10 is referred to at any position (address address) of the internal or external memory of the glassy wearable device 10. It may further include a memory reference code for whether or not. In addition, when the processor of the glass type wearable device 10 needs to communicate with any other computer or server that is remote in order to execute the functions, the code may be configured to communicate with the communication module of the glass type wearable device 10. It may further include communication-related code, such as how to communicate with any other computer or server in the remote, what information or media should be transmitted and received during communication.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 글라스형 웨어러블 디바이스(10)가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 글라스형 웨어러블 디바이스(10)상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device. Specifically, examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers accessible by the glass type wearable device 10 or various recording media on the glass type wearable device 10 of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.
이상에서는 본 발명의 바람직한 실시예 및 응용예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the above has been shown and described with respect to preferred embodiments and applications of the present invention, the present invention is not limited to the specific embodiments and applications described above, the invention without departing from the gist of the invention claimed in the claims Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

Claims (31)

  1. 글라스형 웨어러블 디바이스를 이용하여 사용자가 탑승을 원하는 버스의 도착 알림을 제공하는 방법에 있어서,In the method for providing the arrival notification of the bus the user wants to board using the glass wearable device,
    특정한 버스의 노선번호 지정하는 단계;Designating a line number of a particular bus;
    상기 글라스형 웨어러블 디바이스가 전방영상 또는 전방이미지를 획득하는 단계;Acquiring a front image or a front image by the glass type wearable device;
    상기 전방영상 또는 상기 전방이미지에 등장하는 차량의 노선번호를 인식하는 단계; 및Recognizing a route number of the vehicle appearing in the front image or the front image; And
    상기 인식된 노선번호가 상기 지정한 노선번호와 동일한 경우, 사용자에게 버스도착 알림을 제공하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And providing a bus arrival notification to a user if the recognized route number is the same as the designated route number.
  2. 제1항에 있어서,The method of claim 1,
    상기 노선번호 지정은,The route number designation,
    정류장에 부착된 상기 노선번호를 포함한 상기 전방영상 또는 상기 전방이미지를 획득하여 문자 인식을 통해 지정하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And acquiring the front image or the front image including the route number attached to the stop and specifying the image through character recognition.
  3. 제2항에 있어서,The method of claim 2,
    상기 노선번호 지정은,The route number designation,
    상기 전방영상 또는 상기 전방이미지 내 손 제스처에 대응되는 상기 노선번호를 지정하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And specifying the route number corresponding to the front image or the hand gesture in the front image.
  4. 제1항에 있어서,The method of claim 1,
    상기 노선번호 지정은,The route number designation,
    상기 사용자의 음성인식으로 상기 노선번호를 지정하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And designating the route number by voice recognition of the user.
  5. 제1항에 있어서,The method of claim 1,
    무선통신을 상기 노선번호 버스의 주행정보를 수신하여 제공하는 단계;를 더 포함하고,And receiving and providing driving information of the route number bus for wireless communication.
    상기 주행정보는, 현재 위치에 근접한 상기 노선번호 버스의 위치 정보, 상기 노선번호 버스의 실시간 도착예정 시간정보, 상기 노선번호 버스의 이전 정류장 출발알림정보 중 적어도 하나 이상인, 웨어러블 디바이스를 이용한 정보처리 방법.The driving information is at least one or more of the location information of the route number bus close to the current position, the real-time arrival time information of the route number bus, the departure stop notification information of the previous route number bus, information processing method using a wearable device. .
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 5,
    상기 전방영상의 분석을 통해 상기 전방영상이 차량이 접근하는 도로영상을 획득하기 위한 회전방향을 사용자에게 제공하는 단계;를 더 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And providing a user with a rotation direction for acquiring a road image approaching the vehicle through analysis of the front image to the user.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 5,
    상기 버스도착 알림 제공단계는,The bus arrival notification providing step,
    상기 인식된 노선번호가 상기 지정한 노선번호와 동일한 경우, 상기 버스가 현재 위치로부터 떨어진 거리를 실시간 측정하는 단계; 및If the recognized route number is the same as the designated route number, real-time measurement of a distance from the bus from the current location; And
    상기 떨어진 거리에 상응하는 음성안내를 수행하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And performing voice guidance corresponding to the separated distance.
  8. 제1항 내지 제5항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 5,
    상기 노선번호 인식단계는,The route number recognition step,
    상기 글라스형 웨어러블 디바이스가 고저각 또는 방위각을 측정하는 단계;Measuring the high or low azimuth angle of the glass type wearable device;
    상기 고저각 또는 상기 방위각을 반영하여 상기 노선번호의 상기 전방영상 내 예상배치범위를 산출하는 단계; 및Calculating an expected arrangement range in the forward image of the route number by reflecting the high or low angle; And
    상기 예상배치범위 내에서 상기 노선번호를 탐색하여 인식하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And retrieving and recognizing the route number within the expected arrangement range.
  9. 제8항에 있어서,The method of claim 8,
    상기 예상배치범위 산출단계는,The expected placement range calculation step,
    상기 사용자의 신체정보를 반영하여 산출하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.The information processing method using the wearable device, characterized in that calculated by reflecting the body information of the user.
  10. 제1항 내지 제5항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 5,
    상기 노선번호 인식단계는,The route number recognition step,
    상기 차량의 형상 또는 색상을 통해 상기 버스이미지를 추출하는 단계; 및Extracting the bus image through a shape or color of the vehicle; And
    상기 버스이미지 내에서 상기 노선번호를 인식하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.Recognizing the route number in the bus image; information processing method using a wearable device.
  11. 글라스형 웨어러블 디바이스가 전방 영상 또는 이미지를 획득하는 단계;Obtaining a front image or an image by the glass type wearable device;
    상기 영상 또는 이미지 내 타겟차량의 차량이미지를 추출하는 단계;Extracting a vehicle image of a target vehicle in the image or image;
    상기 추출된 차량이미지에서 타겟차량 식별정보를 획득하는 단계; 및Acquiring target vehicle identification information from the extracted vehicle image; And
    상기 타겟차량 식별정보와 수배차량 식별정보를 비교하여 일치하면 무선통신을 통해 외부로 알림정보를 전송하는 단계;를 포함하며,And comparing the target vehicle identification information with the arrangement vehicle identification information and transmitting notification information to the outside through wireless communication.
    상기 수배차량 식별정보는, 외부서버로부터 실시간 또는 주기적으로 수신되어 상기 글라스형 웨어러블 디바이스에 저장되는, 웨어러블 디바이스를 이용한 정보처리 방법.The arrangement information is received in real time or periodically from an external server and stored in the glass-type wearable device, information processing method using a wearable device.
  12. 제11항에 있어서,The method of claim 11,
    상기 식별정보는,The identification information,
    차량 번호, 차종, 색상 또는 외관 특징정보 중 하나 이상인 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법. An information processing method using a wearable device, characterized in that at least one of vehicle number, vehicle type, color or appearance characteristic information.
  13. 제12항에 있어서,The method of claim 12,
    상기 식별정보가 차량번호인 경우,If the identification information is a vehicle number,
    상기 타겟차량 식별정보 획득단계는,The target vehicle identification information obtaining step,
    상기 차량이미지 내 문자인식을 통해 상기 차량번호를 추출하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And extracting the vehicle number through text recognition in the vehicle image.
  14. 제11항에 있어서,The method of claim 11,
    상기 글라스형 웨어러블 디바이스가 현재 위치정보를 획득하는 단계; 및Acquiring current location information by the glass type wearable device; And
    상기 영상 또는 이미지 촬영 시의 주시방향을 바탕으로, 상기 영상 또는 이미지를 분석하여 상기 수배차량의 주행방향정보를 획득하는 단계;를 더 포함하고,Acquiring driving direction information of the arrangement vehicle by analyzing the image or the image based on the gazing direction at the time of photographing the image or the image;
    상기 알림정보 전송단계는,The notification information transmitting step,
    상기 위치정보 및 상기 수배차량의 주행방향정보를 전송하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And transmitting the position information and the driving direction information of the arrangement vehicle.
  15. 글라스형 웨어러블 디바이스가 전방 영상 또는 이미지를 획득하는 단계;Obtaining a front image or an image by the glass type wearable device;
    상기 영상 또는 이미지 내 타겟차량의 차량이미지를 추출하는 단계;Extracting a vehicle image of a target vehicle in the image or image;
    상기 차량이미지 내 문자인식을 통해 상기 타겟차량의 차량번호를 추출하는 단계; Extracting a vehicle number of the target vehicle through character recognition in the vehicle image;
    상기 차량번호를 무선통신으로 외부서버로 전송하는 단계; 및Transmitting the vehicle number to an external server through wireless communication; And
    상기 타겟차량이 수배차량인 경우, 상기 글라스형 웨어러블 디바이스가 상기 외부서버로부터 상기 수배차량의 상세정보를 수신하여 사용자에게 제공하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And receiving, by the glass type wearable device, detailed information of the wanted vehicle from the external server and providing the same to the user when the target vehicle is a wanted vehicle.
  16. 제11항 내지 제15항 중 어느 한 항에 있어서,The method according to any one of claims 11 to 15,
    상기 전방 영상 또는 이미지 획득단계는,The front image or image acquisition step,
    상기 차량번호판이 촬영영상의 특정 비율 이상을 차지하면 상기 전방 이미지를 획득하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And obtaining the front image when the license plate occupies a specific ratio or more of the photographed image.
  17. 제11항 내지 제15항 중 어느 한 항에 있어서,The method according to any one of claims 11 to 15,
    특정시간 이전에 촬영된 종전전방영상 또는 종전전방이미지와 비교하여 일치하는 영역을 상기 전방 영상 또는 이미지의 탐색영역에서 제외하는 단계;를 포함하고,And excluding a matched region from the search region of the front image or the image compared with the previous front image or the previous front image photographed before a specific time.
    상기 탐색영역은, 상기 차량이미지를 추출하기 위해 탐색되는 상기 전방 영상 또는 이미지 내 영역인, 웨어러블 디바이스를 이용한 정보처리 방법.The search area is an information processing method using a wearable device, the area of the front image or the image searched to extract the vehicle image.
  18. 제11항 내지 제15항 중 어느 한 항에 있어서,The method according to any one of claims 11 to 15,
    상기 차량이미지 추출단계는,The vehicle image extraction step,
    기저장된 차량 윤곽선에 상응하는 형상을 상기 전방 영상 또는 이미지에서 인식하여 추출하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And recognizing and extracting a shape corresponding to a previously stored vehicle outline from the front image or the image.
  19. 제13항 또는 제15항에 있어서,The method according to claim 13 or 15,
    상기 차량번호 추출단계는,The vehicle number extraction step,
    상기 차량이미지 내 차량번호판의 부착위치 또는 상기 차량이미지 내에서 상기 차량번호판이 차지하는 비율을 바탕으로 상기 차량번호판을 인식하여 상기 차량번호를 추출하는 방식, 상기 차량번호 형식을 통해 상기 차량이미지 내에서 상기 차량번호를 추출하는 방식 중 적어도 하나 이상에 의해 수행되는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.A method of extracting the vehicle number by recognizing the license plate based on the attachment position of the license plate in the vehicle image or the ratio of the vehicle license plate in the vehicle image; An information processing method using a wearable device, characterized in that performed by at least one or more of the method of extracting a vehicle number.
  20. 글라스형 웨어러블 디바이스가 신호변경을 인식하여 사용자에게 알림을 제공하는 방법에 있어서,In the glass wearable device to recognize a signal change to provide a notification to the user,
    상기 글라스형 웨어러블 디바이스가 영상 또는 이미지를 획득하는 단계;Acquiring an image or an image by the glassy wearable device;
    상기 영상 또는 이미지를 분석하여 상기 글라스형 웨어러블 디바이스의 이용상황을 인식하는 단계;Analyzing the image or the image to recognize a usage state of the glass type wearable device;
    상기 이용상황을 바탕으로, 상기 글라스형 웨어러블 디바이스가 인식할 신호등의 형태 또는 신호의 형태를 결정하는 단계;Determining a shape of a signal lamp or a shape of a signal to be recognized by the glass type wearable device based on the use situation;
    상기 글라스형 웨어러블 디바이스가 상기 신호등을 탐색하는 단계;Searching for the traffic light by the glass type wearable device;
    상기 탐색된 신호등의 신호변경을 인식하는 단계; 및Recognizing a signal change of the searched traffic light; And
    사용자에게 상기 신호변경 알림을 제공하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.Providing the signal change notification to a user; Information processing method comprising a, wearable device.
  21. 제20항에 있어서,The method of claim 20,
    상기 이용상황 인식단계는,The use situation recognition step,
    상기 영상 또는 이미지의 분석을 통해 사용자의 운전수행여부를 인식하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.Recognizing whether or not the user performs the driving through the analysis of the image or image, Information processing method using a wearable device.
  22. 제21항에 있어서,The method of claim 21,
    상기 이용상황 인식단계는,The use situation recognition step,
    상기 사용자가 운전 중으로 인식되면, 차량의 통행방향을 인식하는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And when the user is recognized as driving, recognizing a traffic direction of the vehicle.
  23. 글라스형 웨어러블 디바이스가 신호변경을 인식하여 사용자에게 알림을 제공하는 방법에 있어서,In the glass wearable device to recognize a signal change to provide a notification to the user,
    상기 글라스형 웨어러블 디바이스가 사용자로부터 이용모드를 선택받는 단계;The glass type wearable device receiving a selection of a usage mode from a user;
    상기 글라스형 웨어러블 디바이스가 상기 이용모드에 부합하는 신호등을 파악하여 탐색하는 단계;The glass type wearable device identifying and searching for a signal lamp corresponding to the usage mode;
    상기 탐색된 신호등의 신호변경을 인식하는 단계; 및Recognizing a signal change of the searched traffic light; And
    사용자에게 상기 신호변경 알림을 제공하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.Providing the signal change notification to a user; Information processing method comprising a, wearable device.
  24. 제23항에 있어서,The method of claim 23,
    상기 이용모드 선택단계는,The use mode selection step,
    상기 사용자로부터 운전수행여부, 차량 통행방향, 사용국가 중 적어도 하나 이상을 선택받는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.And at least one of a driving performance, a vehicle traffic direction, and a country of use are selected by the user.
  25. 제23항 또는 제24항에 있어서,The method of claim 23 or 24,
    상기 이용모드 선택단계는,The use mode selection step,
    상기 사용자의 터치 조작을 통해 선택받는 방식, 상기 사용자의 음성명령을 인식하는 방식, 상기 사용자의 제스처를 인식하여 선택받는 방식, 상기 사용자의 눈깜박임을 인식하여 선택받는 방식 중 적어도 어느 하나에 의해 수행되는 것을 특징으로 하는, 웨어러블 디바이스를 이용한 정보처리 방법.Performed by at least one of a method of being selected through a touch operation of the user, a method of recognizing a voice command of the user, a method of receiving a selection by recognizing the user's gesture, and a method of receiving a selection by recognizing the blinking of the user Information processing method using a wearable device, characterized in that the.
  26. 글라스형 웨어러블 디바이스를 이용하여 교통법규위반을 인식하여 신고하는 방법에 있어서,In the method of recognizing and reporting traffic violations using a glass wearable device,
    제1카메라로 교통법규위반차량을 포함하는 영상 또는 이미지를 획득하는 단계;Acquiring an image or an image including a traffic violation violation vehicle with a first camera;
    현재 시간 및 현재위치를 인식하여 상기 영상 또는 이미지에 기록하는 단계; 및Recognizing a current time and a current position and recording the image or image; And
    상기 글라스형 웨어러블 디바이스가 신고센터의 외부서버로 교통법규위반차량정보를 무선통신으로 전송하여 신고하는 단계;를 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And transmitting, by the glass-type wearable device, the traffic law violation vehicle information to an external server of the report center by wireless communication, and reporting the information.
  27. 제26항에 있어서,The method of claim 26,
    신고할 교통법규위반 유형을 선택하는 단계;를 더 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.Selecting a traffic law violation type to be reported; further comprising, information processing method using a wearable device.
  28. 제26항에 있어서,The method of claim 26,
    상기 현재위치 정보를 상기 외부서버로 전송하여, 단속구역 또는 단속시간 해당여부 정보를 수신하여 제공하는 단계;를 더 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And transmitting and receiving the current location information to the external server, and receiving and providing information on whether the crackdown area or the crackdown time corresponds to the current location information. The information processing method using the wearable device.
  29. 제26항에 있어서,The method of claim 26,
    상기 신고 처리결과를 수신하여 사용자에게 제공하는 단계;를 더 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And receiving the report processing result and providing the result to the user. The information processing method using the wearable device.
  30. 제26항에 있어서,The method of claim 26,
    상기 영상 또는 이미지에서 상기 교통법규위반차량의 번호판부분을 추출하여 확대이미지를 생성하는 단계;를 더 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.And extracting a license plate portion of the traffic offense from the image or the image to generate an enlarged image. The information processing method using the wearable device.
  31. 제26항에 있어서,The method of claim 26,
    상기 영상 또는 이미지에서 문자인식을 통해 차량번호를 파악하는 단계;를 더 포함하는, 웨어러블 디바이스를 이용한 정보처리 방법.Identifying a vehicle number through text recognition in the image or image; and using the wearable device.
PCT/KR2015/007146 2014-07-10 2015-07-09 System and method for processing information using wearable device WO2016006951A2 (en)

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
KR10-2014-0086544 2014-07-10
KR20140086544 2014-07-10
KR10-2014-0090473 2014-07-17
KR20140090473 2014-07-17
KR10-2014-0091839 2014-07-21
KR1020140091839A KR101592398B1 (en) 2014-07-21 2014-07-21 System and method for recognizing signal switch by wearable glass device
KR1020140113234A KR20160025840A (en) 2014-08-28 2014-08-28 System and method for reporting the violation of traffic regulations by wearable glass device
KR10-2014-0113234 2014-08-28
KR10-2015-0042539 2015-03-26
KR1020150042540A KR20160010294A (en) 2014-07-17 2015-03-26 Method and program for noticing wanted cars using wearable glass device
KR1020150042539A KR101684264B1 (en) 2014-07-10 2015-03-26 Method and program for the alarm of bus arriving by wearable glass device
KR10-2015-0042540 2015-03-26

Publications (2)

Publication Number Publication Date
WO2016006951A2 true WO2016006951A2 (en) 2016-01-14
WO2016006951A3 WO2016006951A3 (en) 2016-03-03

Family

ID=55065059

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/007146 WO2016006951A2 (en) 2014-07-10 2015-07-09 System and method for processing information using wearable device

Country Status (1)

Country Link
WO (1) WO2016006951A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10088911B2 (en) 2016-12-30 2018-10-02 Manuel Saez Programmable electronic helmet

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4082188B2 (en) * 2002-11-20 2008-04-30 日本電気株式会社 Transportation vehicle usage guidance system, transportation vehicle usage guidance method, and transportation vehicle usage guidance program
KR101055301B1 (en) * 2009-06-15 2011-08-09 (주)양진텔레콤 Voice Bus Inquiry System for the Visually Impaired and its Control Method
KR20130010394A (en) * 2011-07-18 2013-01-28 주식회사 네비웨이 Bus information system
KR101375868B1 (en) * 2012-08-07 2014-03-17 한양대학교 산학협력단 Wearable Display Deice Having Sensing Function
KR102004265B1 (en) * 2012-12-28 2019-07-26 엘지전자 주식회사 Head mounted display and the method of video communication

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10088911B2 (en) 2016-12-30 2018-10-02 Manuel Saez Programmable electronic helmet

Also Published As

Publication number Publication date
WO2016006951A3 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
WO2017034287A1 (en) Pedestrial crash prevention system and operation method thereof
WO2018155892A1 (en) Method for displaying virtual image, storage medium and electronic device therefor
WO2016175412A1 (en) Mobile terminal and controlling method thereof
WO2020085694A1 (en) Image-capturing device and method for controlling same
US10554829B2 (en) Information processing device, photographing device, image sharing system, and method of information processing
WO2017164567A1 (en) Intelligent electronic device and method of operating the same
WO2019013517A1 (en) Apparatus and method for voice command context
WO2020017706A1 (en) Electronic device and method for controlling the same
WO2013085193A1 (en) Apparatus and method for enhancing user recognition
WO2015199288A1 (en) Glass-type terminal and method of controling the same
WO2016021907A1 (en) Information processing system and method using wearable device
WO2018026142A1 (en) Method for controlling operation of iris sensor and electronic device therefor
WO2018097683A1 (en) Electronic device, external electronic device and method for connecting electronic device and external electronic device
JP2017102516A (en) Display device, communication system, control method for display device and program
WO2016182090A1 (en) Glasses-type terminal and control method therefor
WO2018093005A1 (en) Mobile terminal and method for controlling the same
WO2018066962A1 (en) Smart eyeglasses
KR20160008448A (en) Method and program for restricting photography of built-in camera of wearable glass device
WO2020256325A1 (en) Electronic device and method for providing function by using corneal image in electronic device
WO2016093633A1 (en) Method and device for displaying content
WO2019031693A1 (en) Mobile terminal
WO2015099500A1 (en) Vehicle accident recording apparatus and method therefor
WO2016010328A1 (en) Information processing system and method using wearable device
WO2019088338A1 (en) Electronic device and control method therefor
WO2016006951A2 (en) System and method for processing information using wearable device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15819175

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15819175

Country of ref document: EP

Kind code of ref document: A2