WO2019216682A1 - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
WO2019216682A1
WO2019216682A1 PCT/KR2019/005613 KR2019005613W WO2019216682A1 WO 2019216682 A1 WO2019216682 A1 WO 2019216682A1 KR 2019005613 W KR2019005613 W KR 2019005613W WO 2019216682 A1 WO2019216682 A1 WO 2019216682A1
Authority
WO
WIPO (PCT)
Prior art keywords
prism
camera
subject
image
lens
Prior art date
Application number
PCT/KR2019/005613
Other languages
French (fr)
Korean (ko)
Inventor
조주희
정현숙
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2019216682A1 publication Critical patent/WO2019216682A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to an image display apparatus, and more particularly, to an image display apparatus capable of easily performing zoom tracking on a subject.
  • the image display device is a device for displaying an image.
  • a camera for capturing a subject may be employed as the image display device.
  • An object of the present invention is to provide a lens image display apparatus which can easily perform zoom tracking on a subject.
  • Another object of the present invention is to provide an image display apparatus capable of integrated management of an image obtained by using a plurality of cameras having different magnifications.
  • an image display apparatus may display a camera, a display, and an image photographed through a camera, and when an object corresponding to a first subject in the displayed image is selected, And a control unit configured to perform zoom tracking on an object corresponding to the first subject.
  • the controller may control the object corresponding to the first subject to be highlighted.
  • the controller may enlarge the object corresponding to the first subject and control to display the magnified object.
  • the controller may control the enlarged object to be displayed in the center area of the display when the enlarged object is displayed.
  • the controller may control to output a control signal to the lens device in the camera according to the set zoom ratio.
  • the controller may control to output a control signal to the lens device in the camera.
  • the controller may control some of the lenses in the lens structure away from the image sensor in the camera, or the distance between the first lens king and the second lens in the lens structure becomes farther away. have.
  • the controller may control the size of the object corresponding to the first subject to be constantly displayed even when the first subject is moved.
  • the controller may control the zoom magnification to be lower as the first subject gets closer.
  • the camera is provided with a prism device for varying the angle of the incident light with respect to the first rotation axis and the second rotation axis and output, a plurality of lenses, At least one lens may be moved to include a lens device that outputs light from the prism device using the moved lens, and an image sensor that converts light from the lens device into an electrical signal.
  • the prism device includes: a first prism on which light to be input is reflected, a first actuator that changes the angle of the first prism on the basis of the first rotation axis based on the input first control signal, and light from the first prism
  • the second prism for reflecting the second prism, and the second actuator for changing the angle of the second prism with respect to the second axis of rotation based on the input second control signal.
  • the prism device may further include a first hall sensor that senses a magnetic field change according to the change of the angle of the first prism, and a second hall sensor that senses a magnetic field change according to the change in the angle of the second prism.
  • the camera controls the first actuator based on the first control signal and the first magnetic field change information from the first hall sensor, and the second control signal and the second magnetic field change information from the second hall sensor.
  • the camera controls the first actuator based on the first control signal and the first magnetic field change information from the first hall sensor, and the second control signal and the second magnetic field change information from the second hall sensor.
  • a 1st actuator can be equipped with a 1st drive magnet and a 1st drive coil.
  • the prism device includes a first prism holder for fixing the first prism to the first surface, a first yoke to which the first surface is attached to the second surface, which is the rear surface of the first surface of the first prism holder,
  • the first coil holder may include a protrusion protruding in the first prism holder direction and an opening formed in the protrusion.
  • a 1st drive magnet is attached to the 2nd surface which is the back surface of the 1st surface of a 1st yoke, and a 1st drive coil is arrange
  • the boss may be coupled to an opening formed in the protrusion of the first coil holder.
  • an image display device includes a first camera having a first magnification, a second camera having a second magnification, a display, a first camera, and a second camera. And a control unit for controlling the managed image as one file.
  • the controller may control the image acquired by the first camera having the first magnification and the image obtained by the second camera having the second magnification to be separately displayed.
  • the controller may control to display only the image acquired by the second camera at the second magnification.
  • the first camera or the second camera in order to compensate for the motion detected by the gyro sensor, the prism device for changing the angle of the incident light on the basis of the first rotation axis and the second rotation axis, and outputs a plurality of lenses And a lens device for outputting light from the prism device using the moved lens, and an image sensor for converting light from the lens device into an electrical signal.
  • the prism device for changing the angle of the incident light on the basis of the first rotation axis and the second rotation axis, and outputs a plurality of lenses
  • a lens device for outputting light from the prism device using the moved lens
  • an image sensor for converting light from the lens device into an electrical signal.
  • an image display apparatus displays a camera, a display, and an image photographed through the camera, and when an object corresponding to the first subject in the displayed image is selected, the image display apparatus corresponds to the first subject.
  • a control unit which controls to perform zoom tracking on the object. Accordingly, zoom tracking can be easily performed on the subject.
  • the controller may control the object corresponding to the first subject to be highlighted. Accordingly, the object corresponding to the first subject can be distinguished.
  • the controller may enlarge the object corresponding to the first subject and control to display the magnified object. Accordingly, zoom tracking can be easily performed on the subject.
  • the controller may control the enlarged object to be displayed in the center area of the display when the enlarged object is displayed. Accordingly, the visibility of the enlarged object can be improved.
  • the controller may control to output a control signal to the lens device in the camera according to the set zoom ratio. Accordingly, an operation corresponding to the set zoom factor can be performed.
  • the controller may control to output a control signal to the lens device in the camera. Accordingly, an operation corresponding to the movement of the first subject may be performed.
  • the controller may control some of the lenses in the lens structure away from the image sensor in the camera, or the distance between the first lens king and the second lens in the lens structure becomes farther away. have. Accordingly, zoom tracking can be easily performed on the subject.
  • the controller may control the size of the object corresponding to the first subject to be constantly displayed even when the first subject is moved. Accordingly, zoom tracking can be easily performed on the subject.
  • the controller may control the zoom magnification to be lower as the first subject gets closer. Accordingly, zoom tracking can be easily performed on the subject.
  • the camera is provided with a prism device for varying the angle of the incident light with respect to the first rotation axis and the second rotation axis and output, a plurality of lenses, At least one lens may be moved to include a lens device that outputs light from the prism device using the moved lens, and an image sensor that converts light from the lens device into an electrical signal. Accordingly, image stabilization for the dual prism can be realized. In particular, by rotating the dual prism independently, it is possible to implement image stabilization on the basis of a plurality of rotation axis.
  • the prism device includes: a first prism on which light to be input is reflected, a first actuator that changes the angle of the first prism on the basis of the first rotation axis based on the input first control signal, and light from the first prism
  • the second prism for reflecting the second prism, and the second actuator for changing the angle of the second prism with respect to the second axis of rotation based on the input second control signal. Accordingly, image stabilization for the dual prism can be realized. In particular, by rotating the dual prism independently, it is possible to implement image stabilization on the basis of a plurality of rotation axis.
  • the prism device may further include a first hall sensor that senses a magnetic field change according to the change of the angle of the first prism, and a second hall sensor that senses a magnetic field change according to the change in the angle of the second prism. Accordingly, image stabilization for the dual prism can be realized.
  • the camera controls the first actuator based on the first control signal and the first magnetic field change information from the first hall sensor, and the second control signal and the second magnetic field change information from the second hall sensor.
  • the camera may further include a drive control unit for controlling the second actuator. Accordingly, image stabilization for the dual prism can be realized.
  • a 1st actuator can be equipped with a 1st drive magnet and a 1st drive coil. Accordingly, image stabilization for the dual prism can be realized.
  • the prism device includes a first prism holder for fixing the first prism to the first surface, a first yoke to which the first surface is attached to the second surface, which is the rear surface of the first surface of the first prism holder,
  • the first coil holder may include a protrusion protruding in the first prism holder direction and an opening formed in the protrusion. Accordingly, image stabilization for the dual prism can be realized.
  • a 1st drive magnet is attached to the 2nd surface which is the back surface of the 1st surface of a 1st yoke, and a 1st drive coil is arrange
  • the boss may be coupled to an opening formed in the protrusion of the first coil holder. Accordingly, the first driving magnet, the first prism holder, and the first prism may be rotated based on the first rotation axis.
  • an image display apparatus includes a first camera having a first magnification, a second camera having a second magnification, a display, and an image captured by the first camera and the second camera as one file.
  • the control unit to control to manage. Accordingly, it is possible to integrate and manage the images obtained by using a plurality of cameras based on different magnifications.
  • the controller may control the image acquired by the first camera having the first magnification and the image obtained by the second camera having the second magnification to be separately displayed. Accordingly, it is possible to integrate and manage the images obtained by using a plurality of cameras based on different magnifications.
  • the controller may control to display only the image acquired by the second camera at the second magnification. Accordingly, it is possible to integrate and manage the images obtained by using a plurality of cameras based on different magnifications.
  • the first camera or the second camera in order to compensate for the motion detected by the gyro sensor, the prism device for changing the angle of the incident light on the basis of the first rotation axis and the second rotation axis, and outputs a plurality of lenses And a lens device for outputting light from the prism device using the moved lens, and an image sensor for converting light from the lens device into an electrical signal.
  • image stabilization for the dual prism can be realized. In particular, by rotating the dual prism independently, it is possible to implement image stabilization on the basis of a plurality of rotation axis.
  • FIG. 1A is a perspective view of a mobile terminal, which is an example of an image display apparatus, according to an exemplary embodiment.
  • FIG. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
  • FIG. 2 is a block diagram of the mobile terminal of FIG. 1.
  • 3A is an internal cross-sectional view of the camera of FIG. 2.
  • 3B is an internal block diagram of the camera of FIG. 2.
  • FIG. 4 is a diagram illustrating a camera having a double prism structure.
  • FIG. 5 is a diagram illustrating an example of a camera having a rotatable dual prism module according to an embodiment of the present invention.
  • 6 to 8 are views referred to for description of the camera of FIG. 5.
  • 9A to 11J are diagrams for describing an operation of an image display apparatus according to an embodiment of the present invention.
  • 12A to 12F are views for explaining an operation of an image display apparatus according to another exemplary embodiment of the present invention.
  • module and “unit” for components used in the following description are merely given in consideration of ease of preparation of the present specification, and do not impart any particular meaning or role by themselves. Therefore, the “module” and “unit” may be used interchangeably.
  • FIG. 1A is a front perspective view of a mobile terminal as an example of an image display apparatus according to an embodiment of the present invention
  • FIG. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
  • the case forming the exterior of the mobile terminal 100 is formed by the front case 100-1 and the rear case 100-2.
  • Various electronic components may be built in the space formed by the front case 100-1 and the rear case 100-2.
  • the front case 100-1 may include a display 180, a first sound output module 153a, a first camera 195a, and first to third user input units 130a, 130b, and 130c. have.
  • the fourth user input unit 130d, the fifth user input unit 130e, and the first to third microphones 123a, 123b, and 123c may be disposed on the side surface of the rear case 100-2.
  • the display 180 may operate as a touch screen.
  • the first sound output module 153a may be implemented in the form of a receiver or a speaker.
  • the first camera 195a may be implemented in a form suitable for capturing an image or a video of a user or the like.
  • the microphone 123 may be implemented in a form suitable for receiving a user's voice or other sound.
  • the first to fifth user input units 130a, 130b, 130c, 130d, and 130e and the sixth and seventh user input units 130f and 130g to be described below may be collectively referred to as the user input unit 130.
  • the first to second microphones 123a and 123b are disposed above the rear case 100-2, that is, above the mobile terminal 100 to collect audio signals, and the third microphone 123c may include The rear case 100-2, that is, the lower side of the mobile terminal 100, may be arranged to collect audio signals.
  • a second camera 195b, a third camera 195c, and a fourth microphone 123d may be additionally mounted on the rear of the rear case 100-2, and the rear case 100-
  • the sixth and seventh user input units 130f and 130g and the interface unit 175 may be disposed on side surfaces of 2).
  • the second camera 195b may have a photographing direction substantially opposite to that of the first camera 195a, and may have different pixels from the first camera 195a.
  • a flash (not shown) and a mirror (not shown) may be further disposed adjacent to the second camera 195b.
  • another camera may be further provided adjacent to the second camera 195b to be used for capturing 3D stereoscopic images.
  • a second sound output module (not shown) may be further disposed on the rear case 100-2.
  • the second sound output module may implement a stereo function together with the first sound output module 153a and may be used for a call in the speakerphone mode.
  • the power supply unit 190 for supplying power to the mobile terminal 100 may be mounted on the rear case 100-2 side.
  • the power supply unit 190 is, for example, a rechargeable battery, and may be detachably coupled to the rear case 100-2 for charging.
  • the fourth microphone 123d may be disposed at the front of the rear case 100-2, that is, at the rear of the mobile terminal 100 to collect audio signals.
  • FIG. 2 is a block diagram of the mobile terminal of FIG. 1.
  • the mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, and a memory. 160, an interface unit 175, a control unit 170, and a power supply unit 190 may be included. Such components may be configured by combining two or more components into one component, or by dividing one or more components into two or more components as necessary when implemented in an actual application.
  • the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 113, a wireless internet module 115, a short range communication module 117, and a GPS module 119.
  • the broadcast receiving module 111 may receive at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.
  • the mobile communication module 113 may transmit / receive a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to voice call signal, video call signal, or text / multimedia message transmission and reception.
  • the wireless internet module 115 refers to a module for wireless internet access.
  • the wireless internet module 115 may be embedded or external to the mobile terminal 100.
  • the short range communication module 117 refers to a module for short range communication.
  • Bluetooth Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), and the like may be used.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the GPS (Global Position System) module 119 receives position information from a plurality of GPS satellites.
  • the A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 195 and a microphone 123.
  • the camera 195 may process an image frame such as a still image or a video obtained by the image sensor in a video call mode or a photographing mode.
  • the processed image frame may be displayed on the display 180.
  • the image frame processed by the camera 195 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 195 may be provided depending on the configuration aspect of the terminal.
  • the microphone 123 may receive an external audio signal by a microphone in a display off mode, for example, a call mode, a recording mode, or a voice recognition mode, and process the external audio signal as electrical voice data.
  • a display off mode for example, a call mode, a recording mode, or a voice recognition mode
  • the microphone 123 may be arranged as a plurality in different positions.
  • the audio signal received by each microphone may be processed by the controller 170 or the like.
  • the user input unit 130 generates key input data input by the user for controlling the operation of the terminal.
  • the user input unit 130 may be configured of a key pad, a dome switch, a touch pad (constant voltage / capacitance), etc. that may receive a command or information by a user's pressing or touch manipulation.
  • a touch screen when the touch pad has a mutual layer structure with the display 180 described later, this may be referred to as a touch screen.
  • the sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of user contact, and the like to control the operation of the mobile terminal 100.
  • the sensing signal may be generated.
  • the sensing unit 140 may include a proximity sensor 141, a pressure sensor 143, a motion sensor 145, a touch sensor 146, and the like.
  • the proximity sensor 141 may detect the presence or absence of an object approaching the mobile terminal 100 or an object present in the vicinity of the mobile terminal 100 without mechanical contact.
  • the proximity sensor 141 may detect a proximity object by using a change in an alternating magnetic field or a change in a static magnetic field, or using a rate of change in capacitance.
  • the pressure sensor 143 may detect whether pressure is applied to the mobile terminal 100 and the magnitude of the pressure.
  • the motion sensor 145 may detect the position or movement of the mobile terminal 100 using an acceleration sensor, a gyro sensor, or the like.
  • the touch sensor 146 may detect a touch input by a user's finger or a touch input by a specific pen.
  • the touch screen panel may include a touch sensor 146 for sensing location information, intensity information, and the like of the touch input.
  • the sensing signal detected by the touch sensor 146 may be transmitted to the controller 170.
  • the output unit 150 is for outputting an audio signal, a video signal, or an alarm signal.
  • the output unit 150 may include a display 180, a sound output module 153, an alarm unit 155, and a haptic module 157.
  • the display 180 displays and outputs information processed by the mobile terminal 100.
  • the mobile terminal 100 displays a user interface (UI) or a graphic user interface (GUI) related to the call.
  • UI user interface
  • GUI graphic user interface
  • the mobile terminal 100 may display captured or received images respectively or simultaneously, and display a UI and a GUI.
  • the display 180 and the touch pad form a mutual layer structure and constitute a touch screen
  • the display 180 may also be used as an input device capable of inputting information by a user's touch in addition to the output device. Can be.
  • the sound output module 153 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 153 outputs an audio signal related to a function performed in the mobile terminal 100, for example, a call signal reception sound and a message reception sound.
  • the sound output module 153 may include a speaker, a buzzer, and the like.
  • the alarm unit 155 outputs a signal for notifying occurrence of an event of the mobile terminal 100.
  • the alarm unit 155 outputs a signal for notifying occurrence of an event in a form other than an audio signal or a video signal.
  • the signal may be output in the form of vibration.
  • the haptic module 157 generates various haptic effects that a user can feel.
  • a representative example of the haptic effect generated by the haptic module 157 is a vibration effect.
  • the haptic module 157 When the haptic module 157 generates vibration by the tactile effect, the intensity and pattern of the vibration generated by the haptic module 157 may be converted, and may be output by combining different vibrations or sequentially.
  • the memory 160 may store a program for processing and controlling the controller 170, and may provide a function for temporarily storing input or output data (eg, a phone book, a message, a still image, a video, etc.). It can also be done.
  • input or output data eg, a phone book, a message, a still image, a video, etc.
  • the interface unit 175 serves as an interface with all external devices connected to the mobile terminal 100.
  • the interface unit 175 may receive data from an external device or receive power and transfer the data to each component inside the mobile terminal 100, and may transmit data within the mobile terminal 100 to an external device.
  • the controller 170 typically controls the operations of each unit to control the overall operation of the mobile terminal 100. For example, related control and processing for voice calls, data communications, video calls, and the like can be performed.
  • the controller 170 may include a multimedia playback module 181 for multimedia playback.
  • the multimedia playback module 181 may be configured in hardware in the controller 170 or may be configured in software separately from the controller 170.
  • the controller 170 may include an application processor (not shown) for driving an application. Alternatively, the application processor (not shown) may be provided separately from the controller 170.
  • the power supply unit 190 may receive the external power and the internal power under the control of the controller 170 to supply power required for the operation of each component.
  • 3A is an internal cross-sectional view of the camera of FIG. 2.
  • 3A is an example of sectional drawing about the 2nd camera 195b in the camera 195. As shown in FIG.
  • the second camera 195b may include an aperture 194b, a prism module 192b, a lens device 193b, and an image sensor 820b.
  • the stop 194b may open and close the light incident on the lens device 193b.
  • the image sensor 820b may include an RGb filter 915b and a sensor array 911b for converting an optical signal into an electrical signal in order to sense an RGB color.
  • the image sensor 820b may sense and output RGB images, respectively.
  • 3B is an internal block diagram of the camera of FIG. 2.
  • FIG. 3B is an example of a block diagram for the second camera 195b in the camera 195.
  • the second camera 195b may include a prism module 192b, a lens device 193b, an image sensor 820b, and an image processor 830.
  • the image processor 830 may generate an RGB image based on the electrical signal from the image sensor 820b.
  • the image sensor 820b may adjust the exposure time based on the electrical signal.
  • the RGB image from the image processor 830 may be transferred to the controller 170 of the mobile terminal 100.
  • the controller 170 of the mobile terminal 100 may output a control signal to the lens device 193b for the movement of the lens in the lens device 193b or the like.
  • a control signal for auto focusing may be output to the lens device 193b.
  • the controller 170 of the mobile terminal 100 may output a control signal for the anti-shake function in the prism module 192b to the prism module 192b.
  • FIG. 4 is a diagram illustrating a camera having a double prism structure.
  • the camera 195x of FIG. 4 includes an image sensor 820x, a lens device 193x that transmits light to the image sensor, a dual device including a first prism 192ax and a second prism 192bx.
  • An example of including the prism device 192x is illustrated.
  • the camera 195x of FIG. 4 performs the movement of the lens device 193x to prevent camera shake. In the drawing, the compensation is performed in the Dra direction.
  • the prism module to compensate for this, hand shake compensation is implemented inside the prism module, and in particular, angle compensation is performed by using a rotary actuator.
  • angle compensation is performed by using a rotary actuator.
  • the plurality of prism modules may be used to compensate the first angle in the first and second rotation axis directions, respectively.
  • angle compensation within a predetermined range can be performed irrespective of the optical zoom, thereby improving the accuracy of image stabilization. This will be described with reference to FIG. 5 or below.
  • FIG. 5 is a view showing an example of a camera having a rotatable dual prism module according to an embodiment of the present invention
  • Figures 6 to 8 is a view referred to the description of the camera of FIG.
  • the camera 500a of FIG. 5 includes an image sensor 520, a lens device 593 that transmits light to the image sensor 520, a first prism module 592a, and a second prism module 592b. Illustrates a dual prismatic device 592 having a).
  • the dual prism device 592 differs in rotating to implement the anti-shake function.
  • the lens device 593 unlike Figure 4, is not equipped with a hand shake function, it can be implemented more slim.
  • the lens device 593 includes at least one lens, and the lens may be moved for variable focus.
  • the lens device 593 includes a plurality of lenses, such as a concave lens and a convex lens, and based on a control signal from the image processor 830 or the controller 170, the internal lens for variable focus. At least one of the can be moved. In particular, it may move to the image sensor 820b or move in the opposite direction of the image sensor 820b.
  • the lens device 5 is arranged in the order of the image sensor 520, the lens device 593, and the dual prism device 592, and the light incident on the dual prism device 592 enters the lens device 593 and the image. Although illustrated as being transmitted to the sensor 520, other modifications are possible.
  • light from the top is reflected at the reflecting surface of the first prism PSMa in the first prism module 592a, transmitted to the second prism module 592b and the second prism in the second prism module 592b.
  • the light may be reflected by the reflective surface of the PSMb and transmitted to the lens device 593 and the image sensor 520.
  • light arranged in the order of the image sensor 520, the dual prism device 592, and incident on the lens device 593 is the dual prism device 592 and the image sensor 520. May be delivered.
  • the dual prism device 592 includes a first prism module 692a having a first prism PSMa, a first rotational actuator for angularly shifting the first prism PSMa in a first direction to compensate for camera shake,
  • a second prism module 692b may include a second prism PSMb and a second rotational actuator for angularly shifting the second prism PSMb in a second direction to compensate for image stabilization.
  • first prism PSMa and the second prism PSMb may be disposed perpendicular to each other.
  • the image sensor 520, the lens device 593, and the first prism module 692a are arranged side by side in one direction, but the second prism module 692b crosses the first prism module 692a. Can be deployed.
  • the first prism module 692a and the second prism module 692b may be referred to as an L-shaped dual prism device 592.
  • such a structure of the camera 500a may be referred to as an L-type camera.
  • the first prism module 692a and the second prism module 692b respectively, the first direction CRa with respect to the first rotation axis, and the second direction CRb with respect to the second rotation axis, respectively.
  • Angle compensation can be performed, thereby preventing a hand shake function.
  • a slim camera 500a can be implemented. Therefore, it can be applied to the mobile terminal 100 or the like.
  • FIG. 6 is a diagram showing another example of a camera having a rotatable dual prism module according to an embodiment of the present invention.
  • the camera 600 of FIG. 6 includes an image sensor 620, a lens device 693 transmitting light to the image sensor 620, a first prism module 692a and a second prism module 692b.
  • the camera 600 of FIG. 6 is similar to the camera 500a of FIG. 5, except that the arrangement of the first prism module 692a and the second prism module 692b in the dual prism device 692 is different. have. This description focuses on the difference.
  • light arranged in the order of the image sensor 620, the lens device 693, and the dual prism device 692, and the light incident on the dual prism device 692 is the lens device 693 and the image sensor 620.
  • light from the top is reflected at the reflecting surface of the first prism PSMa in the first prism module 692a, transmitted to the second prism module 692b, and the second prism in the second prism module 692b.
  • the light may be reflected by the reflective surface of the PSMb and transmitted to the lens device 693 and the image sensor 620.
  • the first prism module 692a in the dual prism device 692 of FIG. 6 is disposed in the forward direction compared to the second prism module 692b. Accordingly, the light reflected by the prism module PSMa in the first prism module 692a travels in the paper direction or the right direction.
  • the light is incident in the order of the image sensor 620, the dual prism device 692, and the lens device 693, and the light incident on the lens device 693 includes the dual prism device 692. It may also be transferred to the image sensor 620.
  • the structure of FIG. 6 is mainly described.
  • the dual prism device 692 includes a first prism module 692a having a first prism PSMa, a first rotational actuator for angularly shifting the first prism PSMa in a first direction for image stabilization;
  • a second prism module 692b may include a second prism PSMb and a second rotational actuator for angularly shifting the second prism PSMb in a second direction to compensate for image stabilization.
  • first prism PSMa and the second prism PSMb may be disposed perpendicular to each other.
  • the image sensor 620, the lens device 693, and the first prism module 692a are arranged side by side in one direction, but the second prism module 692b crosses the first prism module 692a. Can be arranged.
  • the first prism module 692a and the second prism module 692b may be referred to as an L-shaped dual prism device 692.
  • the camera 600 may also be referred to as an L-type camera.
  • Angle compensation in the second direction CRb can be performed based on Axb, so that a hand shake prevention function can be implemented, and also, in a limited space, an optimal space arrangement can be performed.
  • the camera 600 may be implemented. Therefore, it can be applied to the mobile terminal 100 or the like.
  • the first prism module 692a includes a prism PSMa, a prism holder PSMHa for fixing the prism PSMa on the first surface, and a prism holder PSMHa.
  • a prism holder PSMHa for fixing the prism PSMa on the first surface
  • a prism holder PSMHa Is disposed between the yoke (Yka) and the driving magnet (DMa) seated on the yoke (Yka), the coil holder (CLHa), and the coil holder (CLHa) and the yoke (Yka).
  • the driving coil DCLa, the coil holder CLHa holding the driving coil DCLa, and the hall sensor Hsa positioned between the driving coil DCLa and the driving magnet DMa may be provided.
  • the coil holder CLHa may include protrusions at both ends protruding in the prism holder PSMa direction and opening portions HSSa formed in the protrusions, respectively.
  • the prism holder PSMa may include bosses BSSa at both ends that protrude in the coil holder CLHa direction.
  • the bosses BSSa at both ends of the prism holder PSMa may be coupled to the openings HSSa formed at both ends in the coil holder CLHa.
  • the drive magnet DMa and the drive coil DCLa in the first prism module 692a can constitute the first rotary actuator ACTa.
  • a compensation signal based on a magnetic field sensed by the hall sensor HSa is applied to the driving coil DCLa, a Lorentz force is generated between the driving coil DCLa and the driving magnet DMa.
  • the driving magnet DMa may rotate in the first direction.
  • the driving magnet DMa, the prism holder PSMHa, and the prism PSMa may be rotated according to the rotation of the first rotation axis Axa.
  • the coil holder CLHa, the driving coil DCLa, and the hall sensor HSa may be fixed without being rotated despite the rotation of the first rotation axis Axa.
  • some units in the first prism module 692a rotate and some units are fixed to detect hand shake based on the magnetic field signal sensed by the hall sensor HSa, and to compensate for hand shake.
  • the driving magnet DMa is rotated to rotate the prism PSMa or the like.
  • the second prism module 692b includes a prism PSMb, a prism holder PSMHb for fixing the prism PSMb to the first surface, and a prism holder PSMHb.
  • the yoke Ykb coupled to the two surfaces, the drive magnet DMb seated on the yoke Ykb, the coil holder CLHb, and the drive coil disposed between the coil holder CLHb and the yoke Ykb
  • the DCLb, the coil holder CLHb fixing the driving coil DCLb, and the hall sensor Hsb positioned between the driving coil DCLb and the driving magnet DMb may be provided.
  • the coil holder CLHb may include protrusions at both ends protruding in the prism holder PSMb direction, and openings HSSb respectively formed in the protrusions.
  • the prism holder PSMb may include bosses BSSb at both ends that protrude in the coil holder CLHb direction.
  • the bosses BSSb at both ends of the prism holder PSMb may be coupled to the openings HSSb formed at both ends in the coil holder CLHb.
  • the drive magnet DMb and the drive coil DCLb in the second prism module 692b can constitute the second rotary actuator ACTb.
  • a compensation signal based on the magnetic field sensed by the hall sensor HSb is applied to the driving coil DCLb, a Lorentz force is generated between the driving coil DCLb and the driving magnet DMb.
  • the driving magnet DMb may rotate in the second direction.
  • the driving magnet DMb, the prism holder PSMHb, and the prism PSMb may be rotated according to the rotation of the second rotation axis Axb.
  • the coil holder CLHb, the driving coil DCLb, and the hall sensor HSb may be fixed without being rotated despite the rotation of the second rotation shaft Axb.
  • some units in the second prism module 692b are rotated and some units are fixed to detect hand shake based on the magnetic field signal sensed by the hall sensor HSb, and to compensate for hand shake.
  • the driving magnet DMb rotates to rotate the prism PSMb or the like.
  • 9A to 11J are diagrams for describing an operation of an image display apparatus according to an embodiment of the present invention.
  • the camera 195b or 195c of the mobile terminal 100 may capture an image 910 including the subject DOG, spaced apart by the first distance D1 in the photographing mode.
  • the controller 170 of the mobile terminal 100 may control to display the image 910 including the object OBa corresponding to the subject DOG on the display 180 as shown in FIG. 9A. .
  • a dog as a pet is illustrated as a subject DOG, but various subjects such as a moving vehicle, an animal, and a person are possible.
  • the controller 170 of the mobile terminal 100 zooms in on the object OBa corresponding to the subject DOG. control to perform (zoom tracking).
  • the object OBa corresponding to the subject DOG is selected by the user's finger touch input FNG.
  • the user's gaze through the image acquired by the front camera 195a may be different.
  • By tracking it is possible to select the object OBa corresponding to the subject DOG, or to select the object OBa corresponding to the subject DOG by the user's voice.
  • the controller 170 of the mobile terminal 100 highlights the object OBa corresponding to the selected subject DOG. Can be controlled.
  • the controller 170 of the mobile terminal 100 may control the object OBa corresponding to the selected subject DOG to be activated and displayed.
  • the controller 170 of the mobile terminal 100 When there is an enlargement input for zooming as shown in FIG. 9C, the controller 170 of the mobile terminal 100 enlarges the object OBa corresponding to the selected subject DOG as shown in FIG. 9D. It can be controlled to display the object (OBaa).
  • the controller 170 of the mobile terminal 100 may set a desired zoom ratio.
  • the controller 170 of the mobile terminal 100 may transmit a control signal to the lens device 693 according to the set zoom factor.
  • the controller 170 of the mobile terminal 100 may control the enlarged object OBaa to be displayed in correspondence with the position of the object OBa before the enlargement.
  • the controller 170 of the mobile terminal 100 may display the enlarged object OBaa in the center area of the display 180 regardless of the position of the object OBa before the enlargement. You can also control it.
  • an image 915 including an enlarged object OBaa is illustrated on the display 180.
  • the control unit 170 of the mobile terminal 100 moves the position of the lens in the lens device 693. Can be controlled to vary.
  • the auto focus AF function can be performed.
  • control unit 170 of the mobile terminal 100 the closer the subject (DOG), the part of the lens in the lens device 693, the farther away from the image sensor 620.
  • FIG. 10A shows the distance between the first lens Lsa and the second lens Lsb in the lens device 693 when the distance of the subject DOG is spaced apart by the first distance D1 as shown in FIG. 9A. This illustrates that it is DSb.
  • FIG. 10B illustrates a first lens Lsa in the lens device 693 when the distance of the subject DOG is spaced apart by the second distance D2 closer than the first distance D1.
  • the distance between the second lens Lsb and the second lens Lsb is far from DSa.
  • the image 915b including the object OBaa for the subject DOG having a constant size. Illustrates that is displayed on the display 180.
  • the controller 170 of the mobile terminal 100 may control the size of the object with respect to the subject DOG to be constantly displayed while the zoom magnification decreases as the subject DOG approaches.
  • the controller 170 of the mobile terminal 100 may control the zoom tracking mode to be performed.
  • the corresponding object can be displayed at a constant size regardless of the movement of the subject.
  • the camera 195b or 195c of the mobile terminal 100 may capture an image 1010 including the subject HUM spaced apart by the first distance Da in the photographing mode. have.
  • the controller 170 of the mobile terminal 100 may control to display the image 1010 including the object OBb corresponding to the subject HUM on the display 180 as shown in FIG. 11A. .
  • FIG. 11A a person is illustrated as the subject HUM, but various subjects such as a moving vehicle and an animal are possible.
  • the controller 170 of the mobile terminal 100 zooms in on the object OBb corresponding to the subject HUM. control to perform (zoom tracking).
  • the object OBb corresponding to the subject HUM is selected by the user's finger touch input FNG.
  • the user's gaze through the image acquired by the front camera 195a may be different.
  • By tracking it is possible to select the object OBb corresponding to the subject HUM, to select the object OBb corresponding to the subject HUM by the user's voice.
  • the controller 170 of the mobile terminal 100 enlarges the object OBb corresponding to the selected subject HUM as shown in FIG. 11D. It can be controlled to display the object (OBba).
  • the controller 170 of the mobile terminal 100 may set a desired zoom ratio.
  • the controller 170 of the mobile terminal 100 may transmit a control signal to the lens device 693 according to the set zoom factor.
  • the controller 170 of the mobile terminal 100 may control to display the enlarged object OBba corresponding to the position of the object OBb before the enlargement.
  • the controller 170 of the mobile terminal 100 may display the enlarged object OBba in the center area of the display 180 regardless of the position of the object OBb before the enlargement. You can also control it.
  • an image 1015 including an enlarged object OBba is illustrated on the display 180.
  • the controller 170 of the mobile terminal 100 moves the position of the lens in the lens device 693. Can be controlled to vary.
  • the auto focus AF function can be performed.
  • control unit 170 of the mobile terminal 100 as the subject (HUM) is closer, some of the lenses in the lens device 693 may be farther away from the image sensor 620.
  • FIG. 10A illustrates the distance between the first lens Lsa and the second lens Lsb in the lens device 693 when the distance of the subject HUM is spaced apart by the first distance Da, as shown in FIG. 11A. This illustrates that it is DSb.
  • FIG. 10B shows the first lens Lsa in the lens device 693 when the distance of the subject HUM is spaced apart by the second distance Db closer than the first distance Da, as shown in FIG. 11F.
  • the distance between the second lens Lsb and the second lens Lsb is far from DSa.
  • the image 1015b including the object OBba for the subject HUM having a constant size Illustrates that is displayed on the display 180.
  • the controller 170 of the mobile terminal 100 may control the size of the object with respect to the subject HUM to be constantly displayed while the zoom magnification decreases as the subject HUM gets closer.
  • the controller 170 of the mobile terminal 100 may control the zoom tracking mode to be performed. Accordingly, the control unit 170 of the mobile terminal 100 may control the subject HUM. The corresponding object can be displayed at a constant size regardless of the movement of the subject.
  • the controller 170 of the mobile terminal 100 includes the object OBbm for the subject HUM, as shown in FIG. 11H, according to the zoom tracking mode.
  • the image 1015d may be controlled to be displayed on the display 180.
  • the controller 170 of the mobile terminal 100 determines whether the subject HUM is approaching the front or is turned away from the subject through object detection of the face of the subject HUM, and the subject HUM. Even if the user turns back and moves away, the image 1015d including the object OBbm for the subject HUM may be displayed on the display 180 according to the tracking mode.
  • FIG. 11H illustrates that the subject HUM is turned back and positioned at the third distance Dc.
  • FIG. 11I illustrates that the subject HUM is turned back and is located at a first distance Da farther than the third distance Dc. Example of location.
  • the controller 170 of the mobile terminal 100 may control the display 180 to display an image 1015e including an object OBbm for a subject HUM having a predetermined size. .
  • the controller 170 of the mobile terminal 100 includes the object OBbm for the subject HUM having a constant size.
  • the image 1015f may be controlled to be displayed on the display 180. Accordingly, despite the movement of the subject of interest to the user, tracking is possible, and since the display can be displayed at a constant size, the user's convenience can be increased.
  • the mobile terminal 100 includes the dual prism device 692 including the first prism module 692a and the second prism module 692b even if the user shakes the hand. Therefore, the camera shake correction function is applied.
  • 12A to 12F are views for explaining an operation of an image display apparatus according to another exemplary embodiment of the present invention.
  • an image display device may include a high magnification camera 195b and a low magnification camera 195c.
  • the mobile terminal 100 may obtain an image using the high magnification camera 195b and the low magnification camera 195c, respectively.
  • region BSBa containing the pitcher of a baseball field is image
  • the controller 170 of the mobile terminal 100 may control the image captured by the low magnification camera 195c to be displayed as a default rather than the high magnification camera 195b.
  • the controller 170 of the mobile terminal 100 may control the image 1110 photographed by the low magnification camera 195c to be displayed on the display 180.
  • control unit 170 of the mobile terminal 100 when the object (PTC) corresponding to the pitcher in the image 1110 is selected by the finger (FNG) touch, as shown in Fig. 12B, as shown in Fig. 12C
  • the image 1010b captured by the low magnification camera 195c and the image 1020 captured by the high magnification camera 195b may be displayed together.
  • the selected object in the image 1010b may be highlighted and displayed as shown in the figure.
  • the controller 170 of the mobile terminal 100 may manage images captured by the high magnification camera 195b and the low magnification camera 195c as one file.
  • the controller 170 of the mobile terminal 100 cannot display an image enlarged by the low magnification camera 195c as shown in FIG. 12B, the image 1020 captured by the high magnification camera 195b is displayed. It can be controlled to be displayed together.
  • FIG. 12B when an object (PTC) corresponding to the pitcher in the image 1110 is selected, the controller 170 of the mobile terminal 100 is photographed by the low magnification camera 195c as shown in FIG. 12D.
  • the displayed image 1010b may be controlled so that only the image 1020b captured by the high magnification camera 195b is displayed. Accordingly, the optical zoom based image display for the object desired by the user is possible.
  • FIG. 12E illustrates that the enlarged image 1215 is displayed superimposed on the base image 1210
  • FIG. 12F illustrates that the enlarged image 1225 is displayed superimposed on the base image 1220.
  • the optical zoom-based images 1020 and 1020b for the object desired by the user are different from the image 1010b captured by the low magnification camera 195c.
  • viewing immersion of the object desired by the user can be improved.
  • the mobile terminal 100 includes the dual prism device 692 including the first prism module 692a and the second prism module 692b even if the user shakes the hand. Therefore, the camera shake correction function is applied.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

The present invention relates to an image display device. The image display device, according to one embodiment of the present invention, comprises: a camera; a display; and a control unit for controlling so that an image captured through the camera is displayed, and when an object corresponding to a first subject in the displayed image is selected, zoom-tracking is carried out for the object corresponding to the first subject. Accordingly, zoom-tracking for a subject may be carried out in a simple manner.

Description

영상표시장치Video display device
본 발명은 영상표시장치에 관한 것이며, 더욱 상세하게는 피사체에 대해 줌 트래킹을 간편하게 수행할 수 있는 영상표시장치에 관한 것이다.The present invention relates to an image display apparatus, and more particularly, to an image display apparatus capable of easily performing zoom tracking on a subject.
영상표시장치는 영상을 표시하기 위한 장치이다. 예를 들어, 영상표시장치에는 피사체 촬영을 위한 카메라가 채용될 수 있다.The image display device is a device for displaying an image. For example, a camera for capturing a subject may be employed as the image display device.
최근, 카메라가, 이동 단말기에 채용되면서, 카메라의 소형화에 대한 연구가 진행되고 있다.Recently, as a camera is adopted in a mobile terminal, research into miniaturization of a camera is in progress.
한편, 카메라의 소형화 추세에 더불어, 자동 초점 기능, 손 떨림 방지 기능이 채택되고 있는 실정이다.On the other hand, in addition to the trend of miniaturization of the camera, the auto focus function and the image stabilization function has been adopted.
한편, 카메라를 통해 획득된 이미지를 줌으로 확대 표시하기 위한 다양한 방법이 제안되고 있다. Meanwhile, various methods for enlarging and displaying an image obtained through a camera with a zoom have been proposed.
본 발명의 목적은, 피사체에 대해 줌 트래킹을 간편하게 수행할 수 있는 렌즈 영상표시장치를 제공함에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a lens image display apparatus which can easily perform zoom tracking on a subject.
본 발명의 다른 목적은, 서로 다른 배율 기반의 복수의 카메라를 이용하여 획득한 이미지를 통합 관리할 수 있는, 영상표시장치를 제공함에 있다.Another object of the present invention is to provide an image display apparatus capable of integrated management of an image obtained by using a plurality of cameras having different magnifications.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 영상표시장치는, 카메라와, 디스플레이와, 카메라를 통해 촬영된 이미지를 표시하고, 표시된 이미지 내의 제1 피사체에 대응하는 오브젝트가 선택되는 경우, 제1 피사체에 대응하는 오브젝트에 대한 줌 트래킹을 수행하도록 제어하는 제어부를 포함한다.According to an embodiment of the present invention, an image display apparatus may display a camera, a display, and an image photographed through a camera, and when an object corresponding to a first subject in the displayed image is selected, And a control unit configured to perform zoom tracking on an object corresponding to the first subject.
한편, 제어부는, 디스플레이에 표시된 이미지 내의 제1 피사체에 대응하는 오브젝트가 선택되는 경우, 제1 피사체에 대응하는 오브젝트가 하이라이트 표시되도록 제어할 수 있다.Meanwhile, when an object corresponding to the first subject in the image displayed on the display is selected, the controller may control the object corresponding to the first subject to be highlighted.
한편, 제어부는, 줌을 위한 확대 입력이 있는 경우, 제1 피사체에 대응하는 오브젝트를 확대하여, 확대된 오브젝트를 표시하도록 제어할 수 있다.On the other hand, when there is a magnification input for zooming, the controller may enlarge the object corresponding to the first subject and control to display the magnified object.
한편, 제어부는, 확대된 오브젝트 표시시, 확대된 오브젝트가, 디스플레이의 중앙 영역에 표시되도록 제어할 수 있다.The controller may control the enlarged object to be displayed in the center area of the display when the enlarged object is displayed.
한편, 제어부는, 설정된 줌 배율에 따라, 카메라 내의 렌즈 장치에 제어 신호를 출력하도록 제어할 수 있다.On the other hand, the controller may control to output a control signal to the lens device in the camera according to the set zoom ratio.
한편, 제어부는, 제1 피사체가 이동하는 경우, 카메라 내의 렌즈 장치에 제어 신호를 출력하도록 제어할 수 있다.Meanwhile, when the first subject moves, the controller may control to output a control signal to the lens device in the camera.
한편, 제어부는, 제1 피사체가 가까워질수록, 렌즈 구조채 내의 렌즈 중 일부가, 카메라 내의 이미지 센서로부터 멀어지거나, 렌즈 구조채 내의 제1 렌즈왕 제2 렌즈 사이의 간격이 멀어지도록 제어할 수 있다.On the other hand, as the first subject approaches, the controller may control some of the lenses in the lens structure away from the image sensor in the camera, or the distance between the first lens king and the second lens in the lens structure becomes farther away. have.
한편, 제어부는, 제1 피사체에 대한 고정 줌 배율이 설정되는 경우, 제1 피사체의 이동에도 제1 피사체에 대응하는 오브젝트의 크기가 일정하게 표시되도록 제어할 수 있다.On the other hand, when the fixed zoom magnification is set for the first subject, the controller may control the size of the object corresponding to the first subject to be constantly displayed even when the first subject is moved.
한편, 제어부는, 제1 피사체가 가까워질수록, 줌 배율이 낮아지도록 제어할 수 있다.The controller may control the zoom magnification to be lower as the first subject gets closer.
한편, 카메라는, 자이로 센서에서 감지된 움직임을 보상하기 위해, 입사되는 광을, 제1 회전축 및 제2 회전축 기준으로 각도 변화시켜, 출력하는 프리즘 장치와, 복수의 렌즈를 구비하며, 가변 초점을 위해 적어도 하나의 렌즈가 이동되며, 이동된 렌즈를 이용하여, 프리즘 장치로부터의 광을 출력하는 렌즈 장치와, 렌즈 장치로부터의 광을 전기 신호로 변환하는 이미지 센서를 포함할 수 있다.On the other hand, to compensate for the movement detected by the gyro sensor, the camera is provided with a prism device for varying the angle of the incident light with respect to the first rotation axis and the second rotation axis and output, a plurality of lenses, At least one lens may be moved to include a lens device that outputs light from the prism device using the moved lens, and an image sensor that converts light from the lens device into an electrical signal.
한편, 프리즘 장치는, 입력되는 광이 반사되는 제1 프리즘과, 입력되는 제1 제어 신호에 기초하여, 제1 프리즘을 제1 회전축 기준으로 각도 변화시키는 제1 액츄에이터와, 제1 프리즘으로부터의 광을 반사하는 제2 프리즘과, 입력되는 제2 제어 신호에 기초하여, 제2 프리즘을 제2 회전축 기준으로 각도 변화시키는 제2 액츄에이터를 구비할 수 있다.On the other hand, the prism device includes: a first prism on which light to be input is reflected, a first actuator that changes the angle of the first prism on the basis of the first rotation axis based on the input first control signal, and light from the first prism The second prism for reflecting the second prism, and the second actuator for changing the angle of the second prism with respect to the second axis of rotation based on the input second control signal.
한편, 프리즘 장치는, 제1 프리즘의 각도 변화에 따른 자기장 변화를 센싱하는 제1 홀 센서와, 제2 프리즘의 각도 변화에 따른 자기장 변화를 센싱하는 제2 홀 센서를 더 구비할 수 있다.The prism device may further include a first hall sensor that senses a magnetic field change according to the change of the angle of the first prism, and a second hall sensor that senses a magnetic field change according to the change in the angle of the second prism.
한편, 카메라는, 제1 제어 신호와, 제1 홀 센서로부터의 제1 자기장 변화 정보에 기초하여, 제1 액츄에이터를 제어하고, 제2 제어 신호와, 제2 홀 센서로부터의 제2 자기장 변화 정보에 기초하여, 제2 액츄에이터를 제어하는 구동 제어부를 더 포함할 수 있다.On the other hand, the camera controls the first actuator based on the first control signal and the first magnetic field change information from the first hall sensor, and the second control signal and the second magnetic field change information from the second hall sensor. On the basis of the, may further include a drive control unit for controlling the second actuator.
한편, 제1 액츄에이터는, 제1 구동 마그네트와, 제1 구동 코일을 구비할 수 있다.In addition, a 1st actuator can be equipped with a 1st drive magnet and a 1st drive coil.
한편, 프리즘 장치는, 제1 면에 제1 프리즘을 고정하는 제1 프리즘 홀더와, 제1 프리즘 홀더의 제1 면의 배면인 제2 면에, 제1 면이 부착되는 제1 요크와, 제1 프리즘 홀더 방향으로 돌출되는 돌출부와, 돌출부 내에 형성된 개구부를 구비하는 제1 코일 홀더를 구비할 수 있다.On the other hand, the prism device includes a first prism holder for fixing the first prism to the first surface, a first yoke to which the first surface is attached to the second surface, which is the rear surface of the first surface of the first prism holder, The first coil holder may include a protrusion protruding in the first prism holder direction and an opening formed in the protrusion.
한편, 제1 구동 마그네트는, 제1 요크의 제1 면의 배면인 제2 면에 부착되며, 제1 구동 코일은, 제1 코일 홀더와 제1 요크 사이에 배치되며, 제1 프리즘 홀더의 양단의 보스는, 제1 코일 홀더의 돌출부에 형성된 개구부와 결합될 수 있다.On the other hand, a 1st drive magnet is attached to the 2nd surface which is the back surface of the 1st surface of a 1st yoke, and a 1st drive coil is arrange | positioned between a 1st coil holder and a 1st yoke, and both ends of a 1st prism holder The boss may be coupled to an opening formed in the protrusion of the first coil holder.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 영상표시장치는, 제1 배율의 제1 카메라와, 제2 배율의 제2 카메라와, 디스플레이와, 제1 카메라와 제2 카메라를 통해 촬영된 이미지를 하나의 파일로 관리하도록 제어하는 제어부를 포함한다.In accordance with another aspect of the present invention, an image display device includes a first camera having a first magnification, a second camera having a second magnification, a display, a first camera, and a second camera. And a control unit for controlling the managed image as one file.
한편, 제어부는, 제1 배율의 제1 카메라에서 획득된 이미지와, 제2 배율의 제2 카메라에서 획득된 이미지가 구분되어 별도로 표시되도록 제어할 수 있다.The controller may control the image acquired by the first camera having the first magnification and the image obtained by the second camera having the second magnification to be separately displayed.
한편, 제어부는, 제1 배율의 제1 카메라에서 획득된 이미지의 확대 표시가 불가능한 경우, 제2 배율의 제2 카메라에서 획득된 이미지만 표시되도록 제어할 수 있다.If the enlarged display of the image acquired by the first camera at the first magnification is impossible, the controller may control to display only the image acquired by the second camera at the second magnification.
한편, 제1 카메라 또는 제2 카메라는, 자이로 센서에서 감지된 움직임을 보상하기 위해, 입사되는 광을, 제1 회전축 및 제2 회전축 기준으로 각도 변화시켜, 출력하는 프리즘 장치와, 복수의 렌즈를 구비하며, 가변 초점을 위해 적어도 하나의 렌즈가 이동되며, 이동된 렌즈를 이용하여, 프리즘 장치로부터의 광을 출력하는 렌즈 장치와, 렌즈 장치로부터의 광을 전기 신호로 변환하는 이미지 센서를 포함할 수 있다.On the other hand, the first camera or the second camera, in order to compensate for the motion detected by the gyro sensor, the prism device for changing the angle of the incident light on the basis of the first rotation axis and the second rotation axis, and outputs a plurality of lenses And a lens device for outputting light from the prism device using the moved lens, and an image sensor for converting light from the lens device into an electrical signal. Can be.
본 발명의 일 실시예에 따른 영상표시장치는, 카메라와, 디스플레이와, 카메라를 통해 촬영된 이미지를 표시하고, 표시된 이미지 내의 제1 피사체에 대응하는 오브젝트가 선택되는 경우, 제1 피사체에 대응하는 오브젝트에 대한 줌 트래킹을 수행하도록 제어하는 제어부를 포함한다. 이에 따라, 피사체에 대해 줌 트래킹을 간편하게 수행할 수 있게 된다. According to an embodiment of the present invention, an image display apparatus displays a camera, a display, and an image photographed through the camera, and when an object corresponding to the first subject in the displayed image is selected, the image display apparatus corresponds to the first subject. And a control unit which controls to perform zoom tracking on the object. Accordingly, zoom tracking can be easily performed on the subject.
한편, 제어부는, 디스플레이에 표시된 이미지 내의 제1 피사체에 대응하는 오브젝트가 선택되는 경우, 제1 피사체에 대응하는 오브젝트가 하이라이트 표시되도록 제어할 수 있다. 이에 따라, 제1 피사체에 대응하는 오브젝트가 구분될 수 있게 된다. Meanwhile, when an object corresponding to the first subject in the image displayed on the display is selected, the controller may control the object corresponding to the first subject to be highlighted. Accordingly, the object corresponding to the first subject can be distinguished.
한편, 제어부는, 줌을 위한 확대 입력이 있는 경우, 제1 피사체에 대응하는 오브젝트를 확대하여, 확대된 오브젝트를 표시하도록 제어할 수 있다. 이에 따라, 피사체에 대해 줌 트래킹을 간편하게 수행할 수 있게 된다. On the other hand, when there is a magnification input for zooming, the controller may enlarge the object corresponding to the first subject and control to display the magnified object. Accordingly, zoom tracking can be easily performed on the subject.
한편, 제어부는, 확대된 오브젝트 표시시, 확대된 오브젝트가, 디스플레이의 중앙 영역에 표시되도록 제어할 수 있다. 이에 따라, 확대된 오브젝트의 시인성이 향상될 수 있게 된다. The controller may control the enlarged object to be displayed in the center area of the display when the enlarged object is displayed. Accordingly, the visibility of the enlarged object can be improved.
한편, 제어부는, 설정된 줌 배율에 따라, 카메라 내의 렌즈 장치에 제어 신호를 출력하도록 제어할 수 있다. 이에 따라, 설정된 줌 배율에 대응하는 동작을 수행할 수 있게 된다.On the other hand, the controller may control to output a control signal to the lens device in the camera according to the set zoom ratio. Accordingly, an operation corresponding to the set zoom factor can be performed.
한편, 제어부는, 제1 피사체가 이동하는 경우, 카메라 내의 렌즈 장치에 제어 신호를 출력하도록 제어할 수 있다. 이에 따라, 제1 피사체의 이동에 대응하는 동작을 수행할 수 있게 된다.Meanwhile, when the first subject moves, the controller may control to output a control signal to the lens device in the camera. Accordingly, an operation corresponding to the movement of the first subject may be performed.
한편, 제어부는, 제1 피사체가 가까워질수록, 렌즈 구조채 내의 렌즈 중 일부가, 카메라 내의 이미지 센서로부터 멀어지거나, 렌즈 구조채 내의 제1 렌즈왕 제2 렌즈 사이의 간격이 멀어지도록 제어할 수 있다. 이에 따라, 피사체에 대해 줌 트래킹을 간편하게 수행할 수 있게 된다. On the other hand, as the first subject approaches, the controller may control some of the lenses in the lens structure away from the image sensor in the camera, or the distance between the first lens king and the second lens in the lens structure becomes farther away. have. Accordingly, zoom tracking can be easily performed on the subject.
한편, 제어부는, 제1 피사체에 대한 고정 줌 배율이 설정되는 경우, 제1 피사체의 이동에도 제1 피사체에 대응하는 오브젝트의 크기가 일정하게 표시되도록 제어할 수 있다. 이에 따라, 피사체에 대해 줌 트래킹을 간편하게 수행할 수 있게 된다. On the other hand, when the fixed zoom magnification is set for the first subject, the controller may control the size of the object corresponding to the first subject to be constantly displayed even when the first subject is moved. Accordingly, zoom tracking can be easily performed on the subject.
한편, 제어부는, 제1 피사체가 가까워질수록, 줌 배율이 낮아지도록 제어할 수 있다. 이에 따라, 피사체에 대해 줌 트래킹을 간편하게 수행할 수 있게 된다. The controller may control the zoom magnification to be lower as the first subject gets closer. Accordingly, zoom tracking can be easily performed on the subject.
한편, 카메라는, 자이로 센서에서 감지된 움직임을 보상하기 위해, 입사되는 광을, 제1 회전축 및 제2 회전축 기준으로 각도 변화시켜, 출력하는 프리즘 장치와, 복수의 렌즈를 구비하며, 가변 초점을 위해 적어도 하나의 렌즈가 이동되며, 이동된 렌즈를 이용하여, 프리즘 장치로부터의 광을 출력하는 렌즈 장치와, 렌즈 장치로부터의 광을 전기 신호로 변환하는 이미지 센서를 포함할 수 있다. 이에 따라, 듀얼 프리즘에 대한 손떨림 보상을 구현할 수 있게 된다. 특히, 듀얼 프리즘을 독립적으로 회전 구동시켜 복수의 회전축 기준으로 손떨림 보상을 구현할 수 있게 된다.On the other hand, to compensate for the movement detected by the gyro sensor, the camera is provided with a prism device for varying the angle of the incident light with respect to the first rotation axis and the second rotation axis and output, a plurality of lenses, At least one lens may be moved to include a lens device that outputs light from the prism device using the moved lens, and an image sensor that converts light from the lens device into an electrical signal. Accordingly, image stabilization for the dual prism can be realized. In particular, by rotating the dual prism independently, it is possible to implement image stabilization on the basis of a plurality of rotation axis.
한편, 프리즘 장치는, 입력되는 광이 반사되는 제1 프리즘과, 입력되는 제1 제어 신호에 기초하여, 제1 프리즘을 제1 회전축 기준으로 각도 변화시키는 제1 액츄에이터와, 제1 프리즘으로부터의 광을 반사하는 제2 프리즘과, 입력되는 제2 제어 신호에 기초하여, 제2 프리즘을 제2 회전축 기준으로 각도 변화시키는 제2 액츄에이터를 구비할 수 있다. 이에 따라, 듀얼 프리즘에 대한 손떨림 보상을 구현할 수 있게 된다. 특히, 듀얼 프리즘을 독립적으로 회전 구동시켜 복수의 회전축 기준으로 손떨림 보상을 구현할 수 있게 된다.On the other hand, the prism device includes: a first prism on which light to be input is reflected, a first actuator that changes the angle of the first prism on the basis of the first rotation axis based on the input first control signal, and light from the first prism The second prism for reflecting the second prism, and the second actuator for changing the angle of the second prism with respect to the second axis of rotation based on the input second control signal. Accordingly, image stabilization for the dual prism can be realized. In particular, by rotating the dual prism independently, it is possible to implement image stabilization on the basis of a plurality of rotation axis.
한편, 프리즘 장치는, 제1 프리즘의 각도 변화에 따른 자기장 변화를 센싱하는 제1 홀 센서와, 제2 프리즘의 각도 변화에 따른 자기장 변화를 센싱하는 제2 홀 센서를 더 구비할 수 있다. 이에 따라, 듀얼 프리즘에 대한 손떨림 보상을 구현할 수 있게 된다.The prism device may further include a first hall sensor that senses a magnetic field change according to the change of the angle of the first prism, and a second hall sensor that senses a magnetic field change according to the change in the angle of the second prism. Accordingly, image stabilization for the dual prism can be realized.
한편, 카메라는, 제1 제어 신호와, 제1 홀 센서로부터의 제1 자기장 변화 정보에 기초하여, 제1 액츄에이터를 제어하고, 제2 제어 신호와, 제2 홀 센서로부터의 제2 자기장 변화 정보에 기초하여, 제2 액츄에이터를 제어하는 구동 제어부를 더 포함할 수 있다. 이에 따라, 듀얼 프리즘에 대한 손떨림 보상을 구현할 수 있게 된다.On the other hand, the camera controls the first actuator based on the first control signal and the first magnetic field change information from the first hall sensor, and the second control signal and the second magnetic field change information from the second hall sensor. On the basis of the, may further include a drive control unit for controlling the second actuator. Accordingly, image stabilization for the dual prism can be realized.
한편, 제1 액츄에이터는, 제1 구동 마그네트와, 제1 구동 코일을 구비할 수 있다. 이에 따라, 듀얼 프리즘에 대한 손떨림 보상을 구현할 수 있게 된다.In addition, a 1st actuator can be equipped with a 1st drive magnet and a 1st drive coil. Accordingly, image stabilization for the dual prism can be realized.
한편, 프리즘 장치는, 제1 면에 제1 프리즘을 고정하는 제1 프리즘 홀더와, 제1 프리즘 홀더의 제1 면의 배면인 제2 면에, 제1 면이 부착되는 제1 요크와, 제1 프리즘 홀더 방향으로 돌출되는 돌출부와, 돌출부 내에 형성된 개구부를 구비하는 제1 코일 홀더를 구비할 수 있다. 이에 따라, 듀얼 프리즘에 대한 손떨림 보상을 구현할 수 있게 된다.On the other hand, the prism device includes a first prism holder for fixing the first prism to the first surface, a first yoke to which the first surface is attached to the second surface, which is the rear surface of the first surface of the first prism holder, The first coil holder may include a protrusion protruding in the first prism holder direction and an opening formed in the protrusion. Accordingly, image stabilization for the dual prism can be realized.
한편, 제1 구동 마그네트는, 제1 요크의 제1 면의 배면인 제2 면에 부착되며, 제1 구동 코일은, 제1 코일 홀더와 제1 요크 사이에 배치되며, 제1 프리즘 홀더의 양단의 보스는, 제1 코일 홀더의 돌출부에 형성된 개구부와 결합될 수 있다. 이에 따라, 제1 구동 마그네트, 제1 프리즘 홀더, 제1 프리즘은, 제1 회전축을 기준으로 회전될 수 있다.On the other hand, a 1st drive magnet is attached to the 2nd surface which is the back surface of the 1st surface of a 1st yoke, and a 1st drive coil is arrange | positioned between a 1st coil holder and a 1st yoke, and both ends of a 1st prism holder The boss may be coupled to an opening formed in the protrusion of the first coil holder. Accordingly, the first driving magnet, the first prism holder, and the first prism may be rotated based on the first rotation axis.
본 발명의 다른 실시예에 따른 영상표시장치는, 제1 배율의 제1 카메라와, 제2 배율의 제2 카메라와, 디스플레이와, 제1 카메라와 제2 카메라를 통해 촬영된 이미지를 하나의 파일로 관리하도록 제어하는 제어부를 포함한다. 이에 따라, 서로 다른 배율 기반의 복수의 카메라를 이용하여 획득한 이미지를 통합 관리할 수 있게 된다. According to another exemplary embodiment of the present invention, an image display apparatus includes a first camera having a first magnification, a second camera having a second magnification, a display, and an image captured by the first camera and the second camera as one file. The control unit to control to manage. Accordingly, it is possible to integrate and manage the images obtained by using a plurality of cameras based on different magnifications.
한편, 제어부는, 제1 배율의 제1 카메라에서 획득된 이미지와, 제2 배율의 제2 카메라에서 획득된 이미지가 구분되어 별도로 표시되도록 제어할 수 있다. 이에 따라, 서로 다른 배율 기반의 복수의 카메라를 이용하여 획득한 이미지를 통합 관리할 수 있게 된다. The controller may control the image acquired by the first camera having the first magnification and the image obtained by the second camera having the second magnification to be separately displayed. Accordingly, it is possible to integrate and manage the images obtained by using a plurality of cameras based on different magnifications.
한편, 제어부는, 제1 배율의 제1 카메라에서 획득된 이미지의 확대 표시가 불가능한 경우, 제2 배율의 제2 카메라에서 획득된 이미지만 표시되도록 제어할 수 있다. 이에 따라, 서로 다른 배율 기반의 복수의 카메라를 이용하여 획득한 이미지를 통합 관리할 수 있게 된다. If the enlarged display of the image acquired by the first camera at the first magnification is impossible, the controller may control to display only the image acquired by the second camera at the second magnification. Accordingly, it is possible to integrate and manage the images obtained by using a plurality of cameras based on different magnifications.
한편, 제1 카메라 또는 제2 카메라는, 자이로 센서에서 감지된 움직임을 보상하기 위해, 입사되는 광을, 제1 회전축 및 제2 회전축 기준으로 각도 변화시켜, 출력하는 프리즘 장치와, 복수의 렌즈를 구비하며, 가변 초점을 위해 적어도 하나의 렌즈가 이동되며, 이동된 렌즈를 이용하여, 프리즘 장치로부터의 광을 출력하는 렌즈 장치와, 렌즈 장치로부터의 광을 전기 신호로 변환하는 이미지 센서를 포함할 수 있다. 이에 따라, 듀얼 프리즘에 대한 손떨림 보상을 구현할 수 있게 된다. 특히, 듀얼 프리즘을 독립적으로 회전 구동시켜 복수의 회전축 기준으로 손떨림 보상을 구현할 수 있게 된다.On the other hand, the first camera or the second camera, in order to compensate for the motion detected by the gyro sensor, the prism device for changing the angle of the incident light on the basis of the first rotation axis and the second rotation axis, and outputs a plurality of lenses And a lens device for outputting light from the prism device using the moved lens, and an image sensor for converting light from the lens device into an electrical signal. Can be. Accordingly, image stabilization for the dual prism can be realized. In particular, by rotating the dual prism independently, it is possible to implement image stabilization on the basis of a plurality of rotation axis.
도 1a은 본 발명의 일 실시예에 따른 영상표시장치의 일예인 이동 단말기를 전면에서 바라본 사시도이다.1A is a perspective view of a mobile terminal, which is an example of an image display apparatus, according to an exemplary embodiment.
도 1b는 도 1a에 도시한 이동 단말기의 후면 사시도이다. FIG. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
도 2는 도 1의 이동 단말기의 블럭도이다.2 is a block diagram of the mobile terminal of FIG. 1.
도 3a는 도 2의 카메라의 내부 단면도이다.3A is an internal cross-sectional view of the camera of FIG. 2.
도 3b는 도 2의 카메라의 내부 블록도이다.3B is an internal block diagram of the camera of FIG. 2.
도 4는 이중 프리즘 구조의 카메라를 도시한 도면이다.4 is a diagram illustrating a camera having a double prism structure.
도 5는 본 발명의 실시예에 따른 회전 가능한 이중 프리즘 모듈을 구비하는 카메라의 일예를 도시하는 도면이다.5 is a diagram illustrating an example of a camera having a rotatable dual prism module according to an embodiment of the present invention.
도 6 내지 도 8은 도 5의 카메라의 설명에 참조되는 도면이다.6 to 8 are views referred to for description of the camera of FIG. 5.
도 9a 내지 도 11j는 본 발명의 일 실시예에 따른 영상표시장치의 동작 설명에 참조되는 도면이다.9A to 11J are diagrams for describing an operation of an image display apparatus according to an embodiment of the present invention.
도 12a 내지 도 12f는 본 발명의 다른 실시예에 따른 영상표시장치의 동작 설명에 참조되는 도면이다.12A to 12F are views for explaining an operation of an image display apparatus according to another exemplary embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "module" and "unit" for components used in the following description are merely given in consideration of ease of preparation of the present specification, and do not impart any particular meaning or role by themselves. Therefore, the "module" and "unit" may be used interchangeably.
도 1a은 본 발명의 일 실시예에 따른 영상표시장치의 일예인 이동 단말기를 전면에서 바라본 사시도이고, 도 1b는 도 1a에 도시한 이동 단말기의 후면 사시도이다. 1A is a front perspective view of a mobile terminal as an example of an image display apparatus according to an embodiment of the present invention, and FIG. 1B is a rear perspective view of the mobile terminal shown in FIG. 1A.
도 1a을 참조하면, 이동 단말기(100)의 외관을 이루는 케이스는, 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된다. 프론트 케이스(100-1)와 리어 케이스(100-2)에 의해 형성된 공간에는 각종 전자부품들이 내장될 수 있다.Referring to FIG. 1A, the case forming the exterior of the mobile terminal 100 is formed by the front case 100-1 and the rear case 100-2. Various electronic components may be built in the space formed by the front case 100-1 and the rear case 100-2.
구체적으로 프론트 케이스(100-1)에는 디스플레이(180), 제1 음향출력모듈(153a), 제1 카메라(195a), 및 제1 내지 제3 사용자 입력부(130a, 130b, 130c)가 배치될 수 있다. 그리고, 리어 케이스(100-2)의 측면에는 제4 사용자 입력부(130d), 제5 사용자 입력부(130e), 및 제1 내지 제3 마이크(123a, 123b, 123c)가 배치될 수 있다.In detail, the front case 100-1 may include a display 180, a first sound output module 153a, a first camera 195a, and first to third user input units 130a, 130b, and 130c. have. The fourth user input unit 130d, the fifth user input unit 130e, and the first to third microphones 123a, 123b, and 123c may be disposed on the side surface of the rear case 100-2.
디스플레이(180)는 터치패드가 레이어 구조로 중첩됨으로써, 디스플레이(180)가 터치스크린으로 동작할 수 있다.As the display 180 overlaps the touch pad in a layer structure, the display 180 may operate as a touch screen.
제1 음향출력 모듈(153a)은 리시버 또는 스피커의 형태로 구현될 수 있다. 제1 카메라(195a)는 사용자 등에 대한 이미지 또는 동영상을 촬영하기에 적절한 형태로 구현될 수 있다. 그리고, 마이크(123)는 사용자의 음성, 기타 소리 등을 입력받기 적절한 형태로 구현될 수 있다.The first sound output module 153a may be implemented in the form of a receiver or a speaker. The first camera 195a may be implemented in a form suitable for capturing an image or a video of a user or the like. The microphone 123 may be implemented in a form suitable for receiving a user's voice or other sound.
제1 내지 제5 사용자 입력부(130a, 130b, 130c, 130d, 130e)와 후술하는 제6 및 제7 사용자 입력부(130f, 130g)는 사용자 입력부(130)라 통칭할 수 있다.The first to fifth user input units 130a, 130b, 130c, 130d, and 130e and the sixth and seventh user input units 130f and 130g to be described below may be collectively referred to as the user input unit 130.
제1 내지 제2 마이크(123a, 123b)는, 리어 케이스(100-2)의 상측, 즉, 이동 단말기(100)의 상측에, 오디오 신호 수집을 위해 배치되며, 제3 마이크(123c)는, 리어 케이스(100-2)의 하측, 즉, 이동 단말기(100)의 하측에, 오디오 신호 수집을 위해 배치될 수 있다. The first to second microphones 123a and 123b are disposed above the rear case 100-2, that is, above the mobile terminal 100 to collect audio signals, and the third microphone 123c may include The rear case 100-2, that is, the lower side of the mobile terminal 100, may be arranged to collect audio signals.
도 1b를 참조하면, 리어 케이스(100-2)의 후면에는 제2 카메라(195b), 제3 카메라(195c), 및 제4 마이크(123d)가 추가로 장착될 수 있으며, 리어 케이스(100-2)의 측면에는 제6 및 제7 사용자 입력부(130f, 130g)와, 인터페이스부(175)가 배치될 수 있다.Referring to FIG. 1B, a second camera 195b, a third camera 195c, and a fourth microphone 123d may be additionally mounted on the rear of the rear case 100-2, and the rear case 100- The sixth and seventh user input units 130f and 130g and the interface unit 175 may be disposed on side surfaces of 2).
제2 카메라(195b)는 제1 카메라(195a)와 실질적으로 반대되는 촬영 방향을 가지며, 제1 카메라(195a)와 서로 다른 화소를 가질 수 있다. 제2 카메라(195b)에 인접하게는 플래쉬(미도시)와 거울(미도시)이 추가로 배치될 수도 있다. 또한, 제2 카메라(195b) 인접하게 다른 카메라를 더 설치하여 3차원 입체 영상의 촬영을 위해 사용할 수도 있다.The second camera 195b may have a photographing direction substantially opposite to that of the first camera 195a, and may have different pixels from the first camera 195a. A flash (not shown) and a mirror (not shown) may be further disposed adjacent to the second camera 195b. In addition, another camera may be further provided adjacent to the second camera 195b to be used for capturing 3D stereoscopic images.
리어 케이스(100-2)에는 제2 음향출력 모듈(미도시)가 추가로 배치될 수도 있다. 제2 음향출력 모듈은 제1 음향출력 모듈(153a)와 함께 스테레오 기능을 구현할 수 있으며, 스피커폰 모드로 통화를 위해 사용될 수도 있다.A second sound output module (not shown) may be further disposed on the rear case 100-2. The second sound output module may implement a stereo function together with the first sound output module 153a and may be used for a call in the speakerphone mode.
리어 케이스(100-2) 측에는 이동 단말기(100)에 전원을 공급하기 위한 전원공급부(190)가 장착될 수 있다. 전원공급부(190)는, 예를 들어 충전 가능한 배터리로서, 충전 등을 위하여 리어 케이스(100-2)에 착탈 가능하게 결합될 수 있다.The power supply unit 190 for supplying power to the mobile terminal 100 may be mounted on the rear case 100-2 side. The power supply unit 190 is, for example, a rechargeable battery, and may be detachably coupled to the rear case 100-2 for charging.
제4 마이크(123d)는, 리어 케이스(100-2)의 전면, 즉, 이동 단말기(100)의 뒷면에, 오디오 신호 수집을 위해 배치될 수 있다. The fourth microphone 123d may be disposed at the front of the rear case 100-2, that is, at the rear of the mobile terminal 100 to collect audio signals.
도 2는 도 1의 이동 단말기의 블럭도이다. 2 is a block diagram of the mobile terminal of FIG. 1.
도 2를 참조하면, 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(175), 제어부(170), 및 전원 공급부(190)를 포함할 수 있다. 이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다.Referring to FIG. 2, the mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, and a memory. 160, an interface unit 175, a control unit 170, and a power supply unit 190 may be included. Such components may be configured by combining two or more components into one component, or by dividing one or more components into two or more components as necessary when implemented in an actual application.
무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(113), 무선 인터넷 모듈(115), 근거리 통신 모듈(117), 및 GPS 모듈(119) 등을 포함할 수 있다.The wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 113, a wireless internet module 115, a short range communication module 117, and a GPS module 119.
방송수신 모듈(111)은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신할 수 있다. 방송수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast receiving module 111 may receive at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel. The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.
이동통신 모듈(113)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신할 수 있다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 113 may transmit / receive a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to voice call signal, video call signal, or text / multimedia message transmission and reception.
무선 인터넷 모듈(115)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(115)은 이동 단말기(100)에 내장되거나 외장될 수 있다. The wireless internet module 115 refers to a module for wireless internet access. The wireless internet module 115 may be embedded or external to the mobile terminal 100.
근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), NFC(Near Field Communication) 등이 이용될 수 있다.The short range communication module 117 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), and the like may be used.
GPS(Global Position System) 모듈(119)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다.The GPS (Global Position System) module 119 receives position information from a plurality of GPS satellites.
A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(195)와 마이크(123) 등이 포함될 수 있다. The A / V input unit 120 is for inputting an audio signal or a video signal, and may include a camera 195 and a microphone 123.
카메라(195)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다. 그리고, 처리된 화상 프레임은 디스플레이(180)에 표시될 수 있다.The camera 195 may process an image frame such as a still image or a video obtained by the image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display 180.
카메라(195)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(195)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 195 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. Two or more cameras 195 may be provided depending on the configuration aspect of the terminal.
마이크(123)는, 디스플레이 오프 모드, 예를 들어, 통화모드, 녹음모드, 또는 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 오디오 신호를 입력받아 전기적인 음성 데이터로 처리할 수 있다. The microphone 123 may receive an external audio signal by a microphone in a display off mode, for example, a call mode, a recording mode, or a voice recognition mode, and process the external audio signal as electrical voice data.
한편, 마이크(123)는, 서로 다른 위치에, 복수개로서 배치될 수 있다. 각 마이크에서 수신되는 오디오 신호는 제어부(170) 등에서 오디오 신호 처리될 수 있다.On the other hand, the microphone 123 may be arranged as a plurality in different positions. The audio signal received by each microphone may be processed by the controller 170 or the like.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자 입력부(130)는 사용자의 누름 또는 터치 조작에 의해 명령 또는 정보를 입력받을 수 있는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전) 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이(180)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.The user input unit 130 generates key input data input by the user for controlling the operation of the terminal. The user input unit 130 may be configured of a key pad, a dome switch, a touch pad (constant voltage / capacitance), etc. that may receive a command or information by a user's pressing or touch manipulation. In particular, when the touch pad has a mutual layer structure with the display 180 described later, this may be referred to as a touch screen.
센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다.The sensing unit 140 detects a current state of the mobile terminal 100 such as an open / closed state of the mobile terminal 100, a location of the mobile terminal 100, presence or absence of user contact, and the like to control the operation of the mobile terminal 100. The sensing signal may be generated.
센싱부(140)는 근접센서(141), 압력센서(143), 및 모션 센서(145), 터치 센서(146) 등을 포함할 수 있다.The sensing unit 140 may include a proximity sensor 141, a pressure sensor 143, a motion sensor 145, a touch sensor 146, and the like.
근접센서(141)는 이동 단말기(100)로 접근하는 물체나, 이동 단말기(100)의 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있다. 특히, 근접센서(141)는, 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. The proximity sensor 141 may detect the presence or absence of an object approaching the mobile terminal 100 or an object present in the vicinity of the mobile terminal 100 without mechanical contact. In particular, the proximity sensor 141 may detect a proximity object by using a change in an alternating magnetic field or a change in a static magnetic field, or using a rate of change in capacitance.
압력센서(143)는 이동 단말기(100)에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. The pressure sensor 143 may detect whether pressure is applied to the mobile terminal 100 and the magnitude of the pressure.
모션 센서(145)는 가속도 센서, 자이로 센서 등을 이용하여 이동 단말기(100)의 위치나 움직임 등을 감지할 수 있다. The motion sensor 145 may detect the position or movement of the mobile terminal 100 using an acceleration sensor, a gyro sensor, or the like.
터치 센서(146)는, 사용자의 손가락에 의한 터치 입력 또는 특정 펜에 의한 터치 입력을 감지할 수 있다. 예를 들어, 디스플레이(180) 상에 터치 스크린 패널이 배치되는 경우, 터치 스크린 패널은, 터치 입력의 위치 정보, 세기 정보 등을 감지하기 위한 터치 센서(146)를 구비할 수 있다. 터치 센서(146)에서 감지된 센싱 신호는, 제어부(170)로 전달될 수 있다.The touch sensor 146 may detect a touch input by a user's finger or a touch input by a specific pen. For example, when the touch screen panel is disposed on the display 180, the touch screen panel may include a touch sensor 146 for sensing location information, intensity information, and the like of the touch input. The sensing signal detected by the touch sensor 146 may be transmitted to the controller 170.
출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것이다. 출력부(150)에는 디스플레이(180), 음향출력 모듈(153), 알람부(155), 및 햅틱 모듈(157) 등이 포함될 수 있다.The output unit 150 is for outputting an audio signal, a video signal, or an alarm signal. The output unit 150 may include a display 180, a sound output module 153, an alarm unit 155, and a haptic module 157.
디스플레이(180)는 이동 단말기(100)에서 처리되는 정보를 표시 출력한다. 예를 들어 이동 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다. The display 180 displays and outputs information processed by the mobile terminal 100. For example, when the mobile terminal 100 is in a call mode, the mobile terminal 100 displays a user interface (UI) or a graphic user interface (GUI) related to the call. When the mobile terminal 100 is in a video call mode or a photographing mode, the mobile terminal 100 may display captured or received images respectively or simultaneously, and display a UI and a GUI.
한편, 전술한 바와 같이, 디스플레이(180)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이(180)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다. Meanwhile, as described above, when the display 180 and the touch pad form a mutual layer structure and constitute a touch screen, the display 180 may also be used as an input device capable of inputting information by a user's touch in addition to the output device. Can be.
음향출력 모듈(153)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 또한, 음향출력 모듈(153)은 이동 단말기(100)에서 수행되는 기능, 예를 들어, 호 신호 수신음, 메시지 수신음 등과 관련된 오디오 신호를 출력한다. 이러한 음향출력 모듈(153)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 153 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 153 outputs an audio signal related to a function performed in the mobile terminal 100, for example, a call signal reception sound and a message reception sound. The sound output module 153 may include a speaker, a buzzer, and the like.
알람부(155)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 알람부(155)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. The alarm unit 155 outputs a signal for notifying occurrence of an event of the mobile terminal 100. The alarm unit 155 outputs a signal for notifying occurrence of an event in a form other than an audio signal or a video signal. For example, the signal may be output in the form of vibration.
햅틱 모듈(haptic module)(157)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(157)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. 햅틱 모듈(157)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(157)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 157 generates various haptic effects that a user can feel. A representative example of the haptic effect generated by the haptic module 157 is a vibration effect. When the haptic module 157 generates vibration by the tactile effect, the intensity and pattern of the vibration generated by the haptic module 157 may be converted, and may be output by combining different vibrations or sequentially.
메모리(160)는 제어부(170)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 160 may store a program for processing and controlling the controller 170, and may provide a function for temporarily storing input or output data (eg, a phone book, a message, a still image, a video, etc.). It can also be done.
인터페이스부(175)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 인터페이스부(175)는 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(100) 내부의 각 구성 요소에 전달할 수 있고, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The interface unit 175 serves as an interface with all external devices connected to the mobile terminal 100. The interface unit 175 may receive data from an external device or receive power and transfer the data to each component inside the mobile terminal 100, and may transmit data within the mobile terminal 100 to an external device.
제어부(170)는 통상적으로 상기 각부의 동작을 제어하여 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행할 수 있다. 또한, 제어부(170)는 멀티 미디어 재생을 위한 멀티미디어 재생 모듈(181)을 구비할 수도 있다. 멀티미디어 재생 모듈(181)은 제어부(170) 내에 하드웨어로 구성될 수도 있고, 제어부(170)와 별도로 소프트웨어로 구성될 수도 있다. 한편, 제어부(170)는, 애플리케이션 구동을 위한 애플리케이션 프로세서(미도시)를 구비할 수 있다. 또는 애플리케이션 프로세서(미도시)는 제어부(170)와 별도로 마련되는 것도 가능하다. The controller 170 typically controls the operations of each unit to control the overall operation of the mobile terminal 100. For example, related control and processing for voice calls, data communications, video calls, and the like can be performed. In addition, the controller 170 may include a multimedia playback module 181 for multimedia playback. The multimedia playback module 181 may be configured in hardware in the controller 170 or may be configured in software separately from the controller 170. The controller 170 may include an application processor (not shown) for driving an application. Alternatively, the application processor (not shown) may be provided separately from the controller 170.
그리고, 전원 공급부(190)는 제어부(170)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.In addition, the power supply unit 190 may receive the external power and the internal power under the control of the controller 170 to supply power required for the operation of each component.
도 3a는 도 2의 카메라의 내부 단면도이다.3A is an internal cross-sectional view of the camera of FIG. 2.
도면을 참조하면, 도 3a는, 카메라(195) 내의, 제2 카메라(195b)에 대한 단면도의 일예이다.3A is an example of sectional drawing about the 2nd camera 195b in the camera 195. As shown in FIG.
제2 카메라(195b)는, 조리개(194b), 프리즘 모듈(192b), 렌즈 장치(193b), 이미지 센서(820b)를 구비할 수 있다.The second camera 195b may include an aperture 194b, a prism module 192b, a lens device 193b, and an image sensor 820b.
조리개(194b)는, 렌즈 장치(193b)로 입사되는 광을 개폐할 수 있다.The stop 194b may open and close the light incident on the lens device 193b.
이미지 센서(820b)는, RGB 색상을 센싱하기 위해, RGb 필터(915b)와, 광 신호를 전기 신호로 변환하는 센서 어레이(911b)를 구비할 수 있다.The image sensor 820b may include an RGb filter 915b and a sensor array 911b for converting an optical signal into an electrical signal in order to sense an RGB color.
이에 따라, 이미지 센서(820b)는, 각각 RGB 이미지를 센싱하여, 출력할 수 있다.Accordingly, the image sensor 820b may sense and output RGB images, respectively.
도 3b는 도 2의 카메라의 내부 블록도이다.3B is an internal block diagram of the camera of FIG. 2.
도면을 참조하면, 도 3b는, 카메라(195) 내의 제2 카메라(195b)에 대한 블록도의 일예이다.Referring to the drawings, FIG. 3B is an example of a block diagram for the second camera 195b in the camera 195.
제2 카메라(195b)는, 프리즘 모듈(192b), 렌즈 장치(193b), 이미지 센서(820b), 이미지 프로세서(830)를 구비할 수 있다. The second camera 195b may include a prism module 192b, a lens device 193b, an image sensor 820b, and an image processor 830.
이미지 프로세서(830)는, 이미지 센서(820b)로부터의, 전기 신호에 기초하여, RGB 이미지를 생성할 수 있다. The image processor 830 may generate an RGB image based on the electrical signal from the image sensor 820b.
한편, 이미지 센서(820b)는, 전기 신호에 기초하여, 노출 시간이 조절될 수 있다.Meanwhile, the image sensor 820b may adjust the exposure time based on the electrical signal.
한편, 이미지 프로세서(830)로부터의 RGB 이미지는 이동 단말기(100)의 제어부(170)로 전달될 수 있다.Meanwhile, the RGB image from the image processor 830 may be transferred to the controller 170 of the mobile terminal 100.
한편, 이동 단말기(100)의 제어부(170)는, 렌즈 장치(193b) 내의 렌즈의 이동 등을 위해, 제어 신호를, 렌즈 장치(193b)로 출력할 수 있다. 예를 들어, 오토 포커싱을 위한 제어 신호를 렌즈 장치(193b)로 출력할 수 있다. The controller 170 of the mobile terminal 100 may output a control signal to the lens device 193b for the movement of the lens in the lens device 193b or the like. For example, a control signal for auto focusing may be output to the lens device 193b.
한편, 이동 단말기(100)의 제어부(170)는, 프리즘 모듈(192b) 내의 손떨림 방지 기능을 위한 제어 신호를, 프리즘 모듈(192b)로 출력할 수도 있다.The controller 170 of the mobile terminal 100 may output a control signal for the anti-shake function in the prism module 192b to the prism module 192b.
도 4는 이중 프리즘 구조의 카메라를 도시한 도면이다.4 is a diagram illustrating a camera having a double prism structure.
도면을 참조하면, 도 4의 카메라(195x)는, 이미지 센서(820x), 이미지 센서로 광을 전달하는 렌즈 장치(193x), 제1 프리즘(192ax)과 제2 프리즘(192bx)을 구비하는 듀얼 프리즘 장치(192x)를 포함하는 것을 예시한다.Referring to the drawings, the camera 195x of FIG. 4 includes an image sensor 820x, a lens device 193x that transmits light to the image sensor, a dual device including a first prism 192ax and a second prism 192bx. An example of including the prism device 192x is illustrated.
도 4의 카메라(195x)는, 손떨림 방지를 위해, 렌즈 장치(193x)의 이동을 수행한다. 도면에서는, Dra 방향으로 보상 수행이 되는 것을 예시한다.The camera 195x of FIG. 4 performs the movement of the lens device 193x to prevent camera shake. In the drawing, the compensation is performed in the Dra direction.
이러한 방식에 의할 경우, 렌즈 장치(193x)의 광학 줌이 고배율일 때, 손 떨림 보상은 더 많이 수행되어야 하는 단점이 있다. 따라서, 손 떨림 보상의 정확도가 떨어지게 된다.In this manner, when the optical zoom of the lens device 193x is high magnification, hand shake compensation has to be performed more. Therefore, the accuracy of image stabilization is lowered.
본 발명에서는, 이러한 점을 보완하기 위해, 손 떨림 보상을, 프리즘 모듈 내부에 구현하고, 특히, 회전 액츄에이터를 사용하여, 각도 보상을 수행하는 것으로 한다. 이에 의하면, 각도 보상을 수행함으로써, 렌즈 장치(193x)의 광학 줌이, 저배율이거나 고배율인 경우에 상관 없이, 소정 범위 이내의 각도만 보상하면 되는 장점이 있다. 예를 들어, 복수의 프리즘 모듈을 이용하여, 각각 제1 및 제2 회전축 방향으로, 제1 각도를 보상할 수 있다. 이에 따라, 광학 줌에 관계 없이, 소정 범위 이내의 각도 보상이 가능해지므로, 손 떨림 보상의 정확도가 향상된다. 이에 대해서는 도 5 이하를 참조하여 기술한다.In the present invention, to compensate for this, hand shake compensation is implemented inside the prism module, and in particular, angle compensation is performed by using a rotary actuator. According to this, by performing angle compensation, there is an advantage that only the angle within a predetermined range needs to be compensated regardless of the case where the optical zoom of the lens device 193x is low magnification or high magnification. For example, the plurality of prism modules may be used to compensate the first angle in the first and second rotation axis directions, respectively. As a result, angle compensation within a predetermined range can be performed irrespective of the optical zoom, thereby improving the accuracy of image stabilization. This will be described with reference to FIG. 5 or below.
도 5는 본 발명의 실시예에 따른 회전 가능한 이중 프리즘 모듈을 구비하는 카메라의 일예를 도시하는 도면이고, 도 6 내지 도 8은 도 5의 카메라의 설명에 참조되는 도면이다.5 is a view showing an example of a camera having a rotatable dual prism module according to an embodiment of the present invention, Figures 6 to 8 is a view referred to the description of the camera of FIG.
도면을 참조하면, 도 5의 카메라(500a)는, 이미지 센서(520), 이미지 센서(520)로 광을 전달하는 렌즈 장치(593), 제1 프리즘 모듈(592a)과 제2 프리즘 모듈(592b)을 구비하는 듀얼 프리즘 장치(592)를 포함하는 것을 예시한다.Referring to the drawings, the camera 500a of FIG. 5 includes an image sensor 520, a lens device 593 that transmits light to the image sensor 520, a first prism module 592a, and a second prism module 592b. Illustrates a dual prismatic device 592 having a).
듀얼 프리즘 장치(592)는, 도 4와 달리, 손 떨림 방지 기능 구현을 위해, 회전하는 것에 그 차이가 있다.The dual prism device 592, unlike FIG. 4, differs in rotating to implement the anti-shake function.
한편, 렌즈 장치(593)는, 도 4와 달리, 손 떨림 방지 기능이 구비되지 않으므로, 보다 슬림하게 구현 가능하다.On the other hand, the lens device 593, unlike Figure 4, is not equipped with a hand shake function, it can be implemented more slim.
렌즈 장치(593)는, 적어도 하나의 렌즈를 구비하며, 가변 초점을 위해 렌즈가 이동될 수 있다.The lens device 593 includes at least one lens, and the lens may be moved for variable focus.
예를 들어, 렌즈 장치(593)는, 오목 렌즈와 볼록 렌즈 등 복수의 렌즈를 구비하며, 이미지 프로세서(830) 또는 제어부(170)로부터의 제어 신호에 기초하여, 가변 초점을 위해, 내부의 렌즈 중 적어도 하나를 이동시킬 수 있다. 특히, 이미지 센서(820b)로 이동하거나, 이미지 센서(820b)의 반대 방향으로 이동시킬 수 있다.For example, the lens device 593 includes a plurality of lenses, such as a concave lens and a convex lens, and based on a control signal from the image processor 830 or the controller 170, the internal lens for variable focus. At least one of the can be moved. In particular, it may move to the image sensor 820b or move in the opposite direction of the image sensor 820b.
한편, 도 5는, 이미지 센서(520), 렌즈 장치(593), 듀얼 프리즘 장치(592)의 순서로 배열되며, 듀얼 프리즘 장치(592)로 입사되는 광이, 렌즈 장치(593)와, 이미지 센서(520)로 전달되는 것을 예시하나, 이와 달리 변형이 가능하다.5 is arranged in the order of the image sensor 520, the lens device 593, and the dual prism device 592, and the light incident on the dual prism device 592 enters the lens device 593 and the image. Although illustrated as being transmitted to the sensor 520, other modifications are possible.
구체적으로, 상부로부터의 광이 제1 프리즘 모듈(592a) 내의 제1 프리즘(PSMa)의 반사면에서 반사되어, 제2 프리즘 모듈(592b)로 전달되고 제2 프리즘 모듈(592b) 내의 제2 프리즘(PSMb)의 반사면에서 반사되어, 렌즈 장치(593)와, 이미지 센서(520)로 전달될 수 있다.Specifically, light from the top is reflected at the reflecting surface of the first prism PSMa in the first prism module 592a, transmitted to the second prism module 592b and the second prism in the second prism module 592b. The light may be reflected by the reflective surface of the PSMb and transmitted to the lens device 593 and the image sensor 520.
즉, 도 5와 달리, 이미지 센서(520), 듀얼 프리즘 장치(592), 의 순서로 배열되며, 렌즈 장치(593)로 입사되는 광이, 듀얼 프리즘 장치(592)와, 이미지 센서(520)로 전달될 수도 있다. That is, unlike FIG. 5, light arranged in the order of the image sensor 520, the dual prism device 592, and incident on the lens device 593 is the dual prism device 592 and the image sensor 520. May be delivered.
듀얼 프리즘 장치(592)는, 제1 프리즘(PSMa)과, 손떨림 보상을 위해 제1 프리즘(PSMa)을 제1 방향으로 각도 변화시키는 제1 회전 액츄에이터를 구비하는 제1 프리즘 모듈(692a)과, 제2 프리즘(PSMb)과, 손떨림 보상을 위해 제2 프리즘(PSMb)을 제2 방향으로 각도 변화시키는 제2 회전 액츄에이터를 구비하는 제2 프리즘 모듈(692b)을 포함할 수 있다.The dual prism device 592 includes a first prism module 692a having a first prism PSMa, a first rotational actuator for angularly shifting the first prism PSMa in a first direction to compensate for camera shake, A second prism module 692b may include a second prism PSMb and a second rotational actuator for angularly shifting the second prism PSMb in a second direction to compensate for image stabilization.
이때, 제1 프리즘(PSMa)과 제2 프리즘(PSMb)은 서로 수직으로 배치되는 것이 바람직하다.In this case, the first prism PSMa and the second prism PSMb may be disposed perpendicular to each other.
이에 따르면, 이미지 센서(520), 렌즈 장치(593), 및 제1 프리즘 모듈(692a)은, 일방향으로 나란히 배치되나, 제2 프리즘 모듈(692b)은, 제1 프리즘 모듈(692a)과 교차하도록 배치될 수 있다. Accordingly, the image sensor 520, the lens device 593, and the first prism module 692a are arranged side by side in one direction, but the second prism module 692b crosses the first prism module 692a. Can be deployed.
이에 따라, 제1 프리즘 모듈(692a)과 제2 프리즘 모듈(692b)은, L자 타입의 듀얼 프리즘 장치(592)라 명명할 수 있다. 그리고, 이러한 카메라(500a) 구조를 L자 타입의 카메라라 명명할 수도 있다.Accordingly, the first prism module 692a and the second prism module 692b may be referred to as an L-shaped dual prism device 592. In addition, such a structure of the camera 500a may be referred to as an L-type camera.
이러한 구조에 의하면, 제1 프리즘 모듈(692a)과, 제2 프리즘 모듈(692b)을 통해, 각각 제1 회전축을 기준으로 제1 방향(CRa), 및 제2 회전축을 기준으로 제2 방향(CRb)의 각도 보상을 수행할 수 있어, 손 떨림 방지 기능을 구현할 수 있게 된다.According to this structure, the first prism module 692a and the second prism module 692b, respectively, the first direction CRa with respect to the first rotation axis, and the second direction CRb with respect to the second rotation axis, respectively. Angle compensation can be performed, thereby preventing a hand shake function.
특히, 회전 액츄에이터를 사용하여, 각도 보상을 수행함으로써, 렌즈 장치(593)의 광학 줌이, 저배율이거나 고배율인 경우에 상관 없이, 소정 범위 이내의 각도만 보상하면 되는 장점이 있다. 결국, 광학 줌에 관계 없이, 손 떨림 보상의 정확도가 향상된다.In particular, by performing angle compensation using the rotary actuator, there is an advantage that only the angle within a predetermined range needs to be compensated regardless of the case where the optical zoom of the lens device 593 is low magnification or high magnification. As a result, regardless of the optical zoom, the accuracy of image stabilization is improved.
또한, 한정된 공간에서, 최적의 공간 배치를 할 수 있게 되므로, 슬림(slim) 카메라(500a)를 구현할 수 있게 된다. 따라서, 이동 단말기(100) 등에 적용될 수 있게 된다.In addition, in a limited space, since the optimum space can be arranged, a slim camera 500a can be implemented. Therefore, it can be applied to the mobile terminal 100 or the like.
도 6은 본 발명의 실시예에 따른 회전 가능한 이중 프리즘 모듈을 구비하는 카메라의 다른 예를 도시하는 도면이다.6 is a diagram showing another example of a camera having a rotatable dual prism module according to an embodiment of the present invention.
도면을 참조하면, 도 6의 카메라(600)는, 이미지 센서(620), 이미지 센서(620)로 광을 전달하는 렌즈 장치(693), 제1 프리즘 모듈(692a)과 제2 프리즘 모듈(692b)을 구비하는 듀얼 프리즘 장치(692)를 포함하는 것을 예시한다.Referring to the drawings, the camera 600 of FIG. 6 includes an image sensor 620, a lens device 693 transmitting light to the image sensor 620, a first prism module 692a and a second prism module 692b. An example of a dual prism device 692 having
도 6의 카메라(600)는, 도 5의 카메라(500a)와 유사하나, 듀얼 프리즘 장치(692) 내의 제1 프리즘 모듈(692a)과 제2 프리즘 모듈(692b)의 배치가 다른 것에 그 차이가 있다. 이에 대해서는, 그 차이 위주로 기술한다. The camera 600 of FIG. 6 is similar to the camera 500a of FIG. 5, except that the arrangement of the first prism module 692a and the second prism module 692b in the dual prism device 692 is different. have. This description focuses on the difference.
도면에서는, 이미지 센서(620), 렌즈 장치(693), 듀얼 프리즘 장치(692)의 순서로 배열되며, 듀얼 프리즘 장치(692)로 입사되는 광이, 렌즈 장치(693)와, 이미지 센서(620)로 전달되는 것을 예시한다.In the drawing, light arranged in the order of the image sensor 620, the lens device 693, and the dual prism device 692, and the light incident on the dual prism device 692 is the lens device 693 and the image sensor 620. For example,
구체적으로, 상부로부터의 광이 제1 프리즘 모듈(692a) 내의 제1 프리즘(PSMa)의 반사면에서 반사되어, 제2 프리즘 모듈(692b)로 전달되고 제2 프리즘 모듈(692b) 내의 제2 프리즘(PSMb)의 반사면에서 반사되어, 렌즈 장치(693)와, 이미지 센서(620)로 전달될 수 있다.Specifically, light from the top is reflected at the reflecting surface of the first prism PSMa in the first prism module 692a, transmitted to the second prism module 692b, and the second prism in the second prism module 692b. The light may be reflected by the reflective surface of the PSMb and transmitted to the lens device 693 and the image sensor 620.
즉, 도 5와 달리, 도 6의 듀얼 프리즘 장치(692) 내의, 제1 프리즘 모듈(692a)이, 제2 프리즘 모듈(692b)에 비해 앞 방향으로 배치되는 것에 그 차이가 있다. 이에 따라, 제1 프리즘 모듈(692a) 내의 프리즘 모듈(PSMa)에서 반사되는 광이, 지면 방향 또는 우측 방향으로 진행하게 된다.That is, unlike FIG. 5, there is a difference in that the first prism module 692a in the dual prism device 692 of FIG. 6 is disposed in the forward direction compared to the second prism module 692b. Accordingly, the light reflected by the prism module PSMa in the first prism module 692a travels in the paper direction or the right direction.
즉, 도 6과 달리, 이미지 센서(620), 듀얼 프리즘 장치(692), 렌즈 장치(693)의 순서로 배열되며, 렌즈 장치(693)로 입사되는 광이, 듀얼 프리즘 장치(692)와, 이미지 센서(620)로 전달될 수도 있다. 이하에서는, 도 6의 구조를 중심으로 기술한다.That is, unlike FIG. 6, the light is incident in the order of the image sensor 620, the dual prism device 692, and the lens device 693, and the light incident on the lens device 693 includes the dual prism device 692. It may also be transferred to the image sensor 620. In the following description, the structure of FIG. 6 is mainly described.
듀얼 프리즘 장치(692)는, 제1 프리즘(PSMa)과, 손떨림 보상을 위해 제1 프리즘(PSMa)을 제1 방향으로 각도 변화시키는 제1 회전 액츄에이터를 구비하는 제1 프리즘 모듈(692a)과, 제2 프리즘(PSMb)과, 손떨림 보상을 위해 제2 프리즘(PSMb)을 제2 방향으로 각도 변화시키는 제2 회전 액츄에이터를 구비하는 제2 프리즘 모듈(692b)을 포함할 수 있다.The dual prism device 692 includes a first prism module 692a having a first prism PSMa, a first rotational actuator for angularly shifting the first prism PSMa in a first direction for image stabilization; A second prism module 692b may include a second prism PSMb and a second rotational actuator for angularly shifting the second prism PSMb in a second direction to compensate for image stabilization.
이때, 제1 프리즘(PSMa)과 제2 프리즘(PSMb)은 서로 수직으로 배치되는 것이 바람직하다.In this case, the first prism PSMa and the second prism PSMb may be disposed perpendicular to each other.
이에 따르면, 이미지 센서(620), 렌즈 장치(693), 및 제1 프리즘 모듈(692a)은, 일방향으로 나란히 배치되나, 제2 프리즘 모듈(692b)은, 제1 프리즘 모듈(692a)과 교차하도록 배치될 수 있다. Accordingly, the image sensor 620, the lens device 693, and the first prism module 692a are arranged side by side in one direction, but the second prism module 692b crosses the first prism module 692a. Can be arranged.
이에 따라, 제1 프리즘 모듈(692a)과 제2 프리즘 모듈(692b)은, L자 타입의 듀얼 프리즘 장치(692)라 명명할 수 있다. 그리고, 이러한 카메라(600) 구조를 L자 타입의 카메라라 명명할 수도 있다.Accordingly, the first prism module 692a and the second prism module 692b may be referred to as an L-shaped dual prism device 692. The camera 600 may also be referred to as an L-type camera.
이러한 구조에 의하면, 도 7과 같이, 제1 프리즘 모듈(692a)과, 제2 프리즘 모듈(692b)을 통해, 각각 제1 회전축(Axa)을 기준으로 제1 방향(CRa), 및 제2 회전축(Axb)을 기준으로 제2 방향(CRb)의 각도 보상을 수행할 수 있어, 손 떨림 방지 기능을 구현할 수 있으며, 또한, 한정된 공간에서, 최적의 공간 배치를 할 수 있게 되므로, 슬림(slim) 카메라(600)를 구현할 수 있게 된다. 따라서, 이동 단말기(100) 등에 적용될 수 있게 된다.According to this structure, as shown in FIG. 7, the first direction CRa and the second rotation axis with respect to the first rotation axis Axa through the first prism module 692a and the second prism module 692b, respectively. Angle compensation in the second direction CRb can be performed based on Axb, so that a hand shake prevention function can be implemented, and also, in a limited space, an optimal space arrangement can be performed. The camera 600 may be implemented. Therefore, it can be applied to the mobile terminal 100 or the like.
한편, 도 7 및 도 8을 참조하여 설명하면, 제1 프리즘 모듈(692a)은, 프리즘(PSMa)과, 제1 면에 프리즘(PSMa)을 고정하는 프리즘 홀더(PSMHa)와, 프리즘 홀더(PSMHa)의 제2 면에, 결합되는 요크(Yka)와, 요크(Yka)에 안착되는 구동 마그네트(DMa)와, 코일 홀더(CLHa)와, 코일 홀더(CLHa)와 요크(Yka) 사이에 배치되는 구동 코일(DCLa)과, 구동 코일(DCLa)을 고정하는 코일 홀더(CLHa)와, 구동 코일(DCLa)과 구동 마그네트(DMa) 사이에 위치하는 홀 센서(Hsa)를 구비할 수 있다.7 and 8, the first prism module 692a includes a prism PSMa, a prism holder PSMHa for fixing the prism PSMa on the first surface, and a prism holder PSMHa. Is disposed between the yoke (Yka) and the driving magnet (DMa) seated on the yoke (Yka), the coil holder (CLHa), and the coil holder (CLHa) and the yoke (Yka). The driving coil DCLa, the coil holder CLHa holding the driving coil DCLa, and the hall sensor Hsa positioned between the driving coil DCLa and the driving magnet DMa may be provided.
코일 홀더(CLHa)는, 프리즘 홀더(PSMa) 방향으로 돌출되는 양단의 돌출부와, 돌출부 내에 각각 형성된 개구부(HSSa)를 구비할 수 있다.The coil holder CLHa may include protrusions at both ends protruding in the prism holder PSMa direction and opening portions HSSa formed in the protrusions, respectively.
프리즘 홀더(PSMa)는, 코일 홀더(CLHa) 방향으로, 돌출되는 양단의 보스(boss)(BSSa)를 구비할 수 있다.The prism holder PSMa may include bosses BSSa at both ends that protrude in the coil holder CLHa direction.
프리즘 홀더(PSMa)의 양단의 보스((BSSa)는, 코일 홀더(CLHa) 내의 양단에 형성된 개구부(HSSa)와 결합될 수 있다.The bosses BSSa at both ends of the prism holder PSMa may be coupled to the openings HSSa formed at both ends in the coil holder CLHa.
한편, 제1 프리즘 모듈(692a) 내의 구동 마그네트(DMa)와, 구동 코일(DCLa)은, 제1 회전 액츄에이터(ACTa)를 구성할 수 있다.On the other hand, the drive magnet DMa and the drive coil DCLa in the first prism module 692a can constitute the first rotary actuator ACTa.
예를 들어, 홀 센서(HSa)에서 감지된 자기장에 기초한 보상 신호가, 구동 코일(DCLa)에 인가되는 경우, 구동 코일(DCLa)과, 구동 마그네트(DMa) 사이에, 로렌츠의 힘이 발생하여, 구동 마그네트(DMa)가 제1 방향으로 회전할 수 있게 된다.For example, when a compensation signal based on a magnetic field sensed by the hall sensor HSa is applied to the driving coil DCLa, a Lorentz force is generated between the driving coil DCLa and the driving magnet DMa. The driving magnet DMa may rotate in the first direction.
이에 따라, 구동 마그네트(DMa), 프리즘 홀더(PSMHa), 프리즘(PSMa)은, 제1 회전축(Axa)의 회전에 따라, 회전될 수 있다.Accordingly, the driving magnet DMa, the prism holder PSMHa, and the prism PSMa may be rotated according to the rotation of the first rotation axis Axa.
한편, 코일 홀더(CLHa), 구동 코일(DCLa), 홀 센서(HSa)는, 제1 회전축(Axa)의 회전에도 불구하고, 회전되지 않고 고정될 수 있다.Meanwhile, the coil holder CLHa, the driving coil DCLa, and the hall sensor HSa may be fixed without being rotated despite the rotation of the first rotation axis Axa.
이와 같이, 제1 프리즘 모듈(692a) 내의 일부 유닛은, 회전하고, 일부 유닛은 고정됨으로써, 홀 센서(HSa)에서 센싱된 자기장 신호에 기초하여, 손 떨림을 감지하고, 손 떨림 보상을 위해, 구동 마그네트(DMa)가 회전하여, 프리즘(PSMa) 등을 회전시킬 수 있게 된다. 따라서, 제1 방향에 대한 손 떨림 보상이 정확하게 수행될 수 있게 된다.As such, some units in the first prism module 692a rotate and some units are fixed to detect hand shake based on the magnetic field signal sensed by the hall sensor HSa, and to compensate for hand shake. The driving magnet DMa is rotated to rotate the prism PSMa or the like. Thus, image stabilization in the first direction can be performed accurately.
한편, 도 8을 참조하여 설명하면, 제2 프리즘 모듈(692b)은, 프리즘(PSMb)과, 제1 면에 프리즘(PSMb)을 고정하는 프리즘 홀더(PSMHb)와, 프리즘 홀더(PSMHb)의 제2 면에, 결합되는 요크(Ykb)와, 요크(Ykb)에 안착되는 구동 마그네트(DMb)와, 코일 홀더(CLHb)와, 코일 홀더(CLHb)와 요크(Ykb) 사이에 배치되는 구동 코일(DCLb)과, 구동 코일(DCLb)을 고정하는 코일 홀더(CLHb)와, 구동 코일(DCLb)과 구동 마그네트(DMb) 사이에 위치하는 홀 센서(Hsb)를 구비할 수 있다.Meanwhile, referring to FIG. 8, the second prism module 692b includes a prism PSMb, a prism holder PSMHb for fixing the prism PSMb to the first surface, and a prism holder PSMHb. The yoke Ykb coupled to the two surfaces, the drive magnet DMb seated on the yoke Ykb, the coil holder CLHb, and the drive coil disposed between the coil holder CLHb and the yoke Ykb The DCLb, the coil holder CLHb fixing the driving coil DCLb, and the hall sensor Hsb positioned between the driving coil DCLb and the driving magnet DMb may be provided.
코일 홀더(CLHb)는, 프리즘 홀더(PSMb) 방향으로 돌출되는 양단의 돌출부와, 돌출부 내에 각각 형성된 개구부(HSSb)를 구비할 수 있다.The coil holder CLHb may include protrusions at both ends protruding in the prism holder PSMb direction, and openings HSSb respectively formed in the protrusions.
프리즘 홀더(PSMb)는, 코일 홀더(CLHb) 방향으로, 돌출되는 양단의 보스(boss)(BSSb)를 구비할 수 있다.The prism holder PSMb may include bosses BSSb at both ends that protrude in the coil holder CLHb direction.
프리즘 홀더(PSMb)의 양단의 보스((BSSb)는, 코일 홀더(CLHb) 내의 양단에 형성된 개구부(HSSb)와 결합될 수 있다.The bosses BSSb at both ends of the prism holder PSMb may be coupled to the openings HSSb formed at both ends in the coil holder CLHb.
한편, 제2 프리즘 모듈(692b) 내의 구동 마그네트(DMb)와, 구동 코일(DCLb)은, 제2 회전 액츄에이터(ACTb)를 구성할 수 있다.On the other hand, the drive magnet DMb and the drive coil DCLb in the second prism module 692b can constitute the second rotary actuator ACTb.
예를 들어, 홀 센서(HSb)에서 감지된 자기장에 기초한 보상 신호가, 구동 코일(DCLb)에 인가되는 경우, 구동 코일(DCLb)과, 구동 마그네트(DMb) 사이에, 로렌츠의 힘이 발생하여, 구동 마그네트(DMb)가 제2 방향으로 회전할 수 있게 된다.For example, when a compensation signal based on the magnetic field sensed by the hall sensor HSb is applied to the driving coil DCLb, a Lorentz force is generated between the driving coil DCLb and the driving magnet DMb. The driving magnet DMb may rotate in the second direction.
이에 따라, 구동 마그네트(DMb), 프리즘 홀더(PSMHb), 프리즘(PSMb)은, 제2 회전축(Axb)의 회전에 따라, 회전될 수 있다.Accordingly, the driving magnet DMb, the prism holder PSMHb, and the prism PSMb may be rotated according to the rotation of the second rotation axis Axb.
한편, 코일 홀더(CLHb), 구동 코일(DCLb), 홀 센서(HSb)는, 제2 회전축(Axb)의 회전에도 불구하고, 회전되지 않고 고정될 수 있다.Meanwhile, the coil holder CLHb, the driving coil DCLb, and the hall sensor HSb may be fixed without being rotated despite the rotation of the second rotation shaft Axb.
이와 같이, 제2 프리즘 모듈(692b) 내의 일부 유닛은, 회전하고, 일부 유닛은 고정됨으로써, 홀 센서(HSb)에서 센싱된 자기장 신호에 기초하여, 손 떨림을 감지하고, 손 떨림 보상을 위해, 구동 마그네트(DMb)가 회전하여, 프리즘(PSMb) 등을 회전시킬 수 있게 된다. 따라서, 제2 방향에 대한 손 떨림 보상이 정확하게 수행될 수 있게 된다.As such, some units in the second prism module 692b are rotated and some units are fixed to detect hand shake based on the magnetic field signal sensed by the hall sensor HSb, and to compensate for hand shake. The driving magnet DMb rotates to rotate the prism PSMb or the like. Thus, image stabilization in the second direction can be performed accurately.
도 9a 내지 도 11j는 본 발명의 일 실시예에 따른 영상표시장치의 동작 설명에 참조되는 도면이다.9A to 11J are diagrams for describing an operation of an image display apparatus according to an embodiment of the present invention.
이동 단말기(100)의 카메라(195b 또는 195c)는, 도 9a와 같이, 촬영 모드에서, 제1 거리(D1) 만큼 이격된, 피사체(DOG)를 포함하는 이미지(910)를 캡쳐할 수 있다. As illustrated in FIG. 9A, the camera 195b or 195c of the mobile terminal 100 may capture an image 910 including the subject DOG, spaced apart by the first distance D1 in the photographing mode.
이에 따라, 이동 단말기(100)의 제어부(170)는, 도 9a와 같이, 피사체(DOG)에 대응하는 오브젝트(OBa)를 포함하는 이미지(910)를 디스플레이(180)에 표시하도록 제어할 수 있다.Accordingly, the controller 170 of the mobile terminal 100 may control to display the image 910 including the object OBa corresponding to the subject DOG on the display 180 as shown in FIG. 9A. .
도 9a에서는 피사체(DOG)로 애완 동물인 강아지를 예시하나, 움직이는 차량, 동물, 사람 등 다양한 피사체가 가능하다. In FIG. 9A, a dog as a pet is illustrated as a subject DOG, but various subjects such as a moving vehicle, an animal, and a person are possible.
한편, 이동 단말기(100)의 제어부(170)는, 도 9b와 같이, 피사체(DOG)에 대응하는 오브젝트(OBa)가 선택되는 경우, 피사체(DOG)에 대응하는 오브젝트(OBa)에 대한 줌 트래킹(zoom tracking)을 수행하도록 제어할 수 있다.Meanwhile, as shown in FIG. 9B, when the object OBa corresponding to the subject DOG is selected, the controller 170 of the mobile terminal 100 zooms in on the object OBa corresponding to the subject DOG. control to perform (zoom tracking).
도 9b에서는, 사용자의 손가락 터치 입력(FNG)에 의해, 피사체(DOG)에 대응하는 오브젝트(OBa)가 선택되는 것을 예시하나, 이와 달리, 전면 카메라(195a)에서 획득된 이미지를 통한, 사용자 시선 추적에 의해, 피사체(DOG)에 대응하는 오브젝트(OBa)를 선택하거나, 사용자 음성에 의해 피사체(DOG)에 대응하는 오브젝트(OBa)를 선택하는 것 등이 가능하다.In FIG. 9B, the object OBa corresponding to the subject DOG is selected by the user's finger touch input FNG. However, the user's gaze through the image acquired by the front camera 195a may be different. By tracking, it is possible to select the object OBa corresponding to the subject DOG, or to select the object OBa corresponding to the subject DOG by the user's voice.
한편, 도 9b와 같이, 피사체(DOG)에 대응하는 오브젝트(OBa)가 선택되는 경우, 이동 단말기(100)의 제어부(170)는, 선택된 피사체(DOG)에 대응하는 오브젝트(OBa)를 하이라이트 표시되도록 제어할 수 있다.Meanwhile, as illustrated in FIG. 9B, when the object OBa corresponding to the subject DOG is selected, the controller 170 of the mobile terminal 100 highlights the object OBa corresponding to the selected subject DOG. Can be controlled.
한편, 이동 단말기(100)의 제어부(170)는, 도 9c와 같이, 선택된 피사체(DOG)에 대응하는 오브젝트(OBa)가 활성화되어 표시되도록 제어할 수 있다.Meanwhile, as illustrated in FIG. 9C, the controller 170 of the mobile terminal 100 may control the object OBa corresponding to the selected subject DOG to be activated and displayed.
그리고, 이동 단말기(100)의 제어부(170)는, 도 9c와 같이, 줌을 위한 확대 입력이 있는 경우, 도 9d와 같이, 선택된 피사체(DOG)에 대응하는 오브젝트(OBa)를 확대하여, 확대된 오브젝트(OBaa)를 표시하도록 제어할 수 있다.When there is an enlargement input for zooming as shown in FIG. 9C, the controller 170 of the mobile terminal 100 enlarges the object OBa corresponding to the selected subject DOG as shown in FIG. 9D. It can be controlled to display the object (OBaa).
이때, 이동 단말기(100)의 제어부(170)는, 원하는 줌 배율을 설정할 수 있다. 그리고, 설정된 줌 배율에 따라, 이동 단말기(100)의 제어부(170)는, 렌즈 장치(693)에 제어 신호를 전송할 수 있다.In this case, the controller 170 of the mobile terminal 100 may set a desired zoom ratio. The controller 170 of the mobile terminal 100 may transmit a control signal to the lens device 693 according to the set zoom factor.
한편, 이동 단말기(100)의 제어부(170)는, 도 9d와 같이, 확대되기 이전의 오브젝트(OBa)의 위치에 대응하여, 확대된 오브젝트(OBaa)가 표시되도록 제어할 수 있다. Meanwhile, as illustrated in FIG. 9D, the controller 170 of the mobile terminal 100 may control the enlarged object OBaa to be displayed in correspondence with the position of the object OBa before the enlargement.
또는, 이동 단말기(100)의 제어부(170)는, 도 9e와 같이, 확대되기 이전의 오브젝트(OBa)의 위치와 관계없이, 확대된 오브젝트(OBaa)가 디스플레이(180)의 중앙 영역에 표시되도록 제어할 수도 있다. Alternatively, as shown in FIG. 9E, the controller 170 of the mobile terminal 100 may display the enlarged object OBaa in the center area of the display 180 regardless of the position of the object OBa before the enlargement. You can also control it.
도면에서는, 확대된 오브젝트(OBaa)를 포함하는 이미지(915)가 디스플레이(180)에 표시되는 것을 예시한다.In the drawing, an image 915 including an enlarged object OBaa is illustrated on the display 180.
한편, 피사체(DOG)가 이동하여, 제1 거리(D1) 보다 가까운 제2 거리(D2)로 접근하는 경우, 이동 단말기(100)의 제어부(170)는, 렌즈 장치(693) 내의 렌즈의 위치를 가변하도록 제어할 수 있다. On the other hand, when the subject DOG moves and approaches the second distance D2 closer than the first distance D1, the control unit 170 of the mobile terminal 100 moves the position of the lens in the lens device 693. Can be controlled to vary.
이에 따라, 움직이는 피사체(DOG)에 대한 줌의 배율이 유지되면서, 자동 초점(AF) 기능이 수행될 수 있게 된다.Accordingly, while the magnification of the zoom for the moving subject DOG is maintained, the auto focus AF function can be performed.
예를 들어, 이동 단말기(100)의 제어부(170)는, 피사체(DOG)가 가까워질수록, 렌즈 장치(693) 내의 렌즈 중 일부가, 이미지 센서(620)로부터 멀어질 수 있다. For example, the control unit 170 of the mobile terminal 100, the closer the subject (DOG), the part of the lens in the lens device 693, the farther away from the image sensor 620.
도 10a는, 도 9a와 같이, 피사체(DOG)의 거리가 제1 거리(D1) 만큼 이격된 경우의, 렌즈 장치(693) 내의 제1 렌즈(Lsa)와 제2 렌즈(Lsb) 사이의 간격이, DSb 인 것을 예시한다.FIG. 10A shows the distance between the first lens Lsa and the second lens Lsb in the lens device 693 when the distance of the subject DOG is spaced apart by the first distance D1 as shown in FIG. 9A. This illustrates that it is DSb.
한편, 도 10b는, 도 9f와 같이, 피사체(DOG)의 거리가 제1 거리(D1) 보다 가까운 제2 거리(D2) 만큼 이격된 경우의, 렌즈 장치(693) 내의 제1 렌즈(Lsa)와 제2 렌즈(Lsb) 사이의 간격이, DSb 보다 멀어진 DSa 인 것을 예시한다.10B illustrates a first lens Lsa in the lens device 693 when the distance of the subject DOG is spaced apart by the second distance D2 closer than the first distance D1. The distance between the second lens Lsb and the second lens Lsb is far from DSa.
도 9f에서는, 피사체(DOG)의 거리가 제1 거리(D1) 보다 가까운 제2 거리(D2)로 접근하는 경우, 일정한 크기의 피사체(DOG)에 대한 오브젝트(OBaa)를 포함하는 이미지(915b)가 디스플레이(180)에 표시되는 것을 예시한다.In FIG. 9F, when the distance of the subject DOG approaches the second distance D2 closer than the first distance D1, the image 915b including the object OBaa for the subject DOG having a constant size. Illustrates that is displayed on the display 180.
한편, 도 9g에서는, 피사체(DOG)의 거리가 제2 거리(D2) 보다 가까운 제3 거리(D3)로 접근하는 경우, 일정한 크기의 피사체(DOG)에 대한 오브젝트(OBaa)를 포함하는 이미지(915c)가 디스플레이(180)에 표시되는 것을 예시한다.Meanwhile, in FIG. 9G, when the distance of the subject DOG approaches the third distance D3 closer than the second distance D2, the image including the object OBaa for the subject DOG having a constant size ( 915c is shown on the display 180.
이동 단말기(100)의 제어부(170)는, 피사체(DOG)가 가까워질수록, 줌의 배율이 낮아지도록 하면서, 피사체(DOG)에 대한 오브젝트의 크기는 일정하게 표시되도록 제어할 수 있다.The controller 170 of the mobile terminal 100 may control the size of the object with respect to the subject DOG to be constantly displayed while the zoom magnification decreases as the subject DOG approaches.
이와 같이, 이동 단말기(100)의 제어부(170)는, 도 9c와 같이, 피사체에 대한 고정 줌 배율이 설정되는 경우, 줌 트래킹 모드가 수행되도록 제어할 수 있으며, 이에 따라, 피사체(DOG)에 대응하는 오브젝트가, 피사체의 움직임에 관계없이 일정한 크기로 표시될 수 있게 된다.As described above, when the fixed zoom magnification of the subject is set, the controller 170 of the mobile terminal 100 may control the zoom tracking mode to be performed. The corresponding object can be displayed at a constant size regardless of the movement of the subject.
한편, 피사체(DOG)가 좌,우로 움직이더라도, 이동 단말기(100)의 제어부(170)는, 줌 트래킹 모드에 따라, 도 9h와 같이, 피사체(DOG)에 대한 오브젝트(OBaa)를 포함하는 이미지(915d)가 디스플레이(180)에 표시되도록 제어할 수 있다.On the other hand, even if the subject DOG moves left and right, the control unit 170 of the mobile terminal 100 according to the zoom tracking mode, as illustrated in FIG. 9H, includes an image including the object OBaa for the subject DOG. 915d may be controlled to be displayed on the display 180.
한편, 이동 단말기(100)의 카메라(195b 또는 195c)는, 도 11a와 같이, 촬영 모드에서, 제1 거리(Da) 만큼 이격된, 피사체(HUM)를 포함하는 이미지(1010)를 캡쳐할 수 있다. Meanwhile, as illustrated in FIG. 11A, the camera 195b or 195c of the mobile terminal 100 may capture an image 1010 including the subject HUM spaced apart by the first distance Da in the photographing mode. have.
이에 따라, 이동 단말기(100)의 제어부(170)는, 도 11a와 같이, 피사체(HUM)에 대응하는 오브젝트(OBb)를 포함하는 이미지(1010)를 디스플레이(180)에 표시하도록 제어할 수 있다.Accordingly, the controller 170 of the mobile terminal 100 may control to display the image 1010 including the object OBb corresponding to the subject HUM on the display 180 as shown in FIG. 11A. .
도 11a에서는 피사체(HUM)로 사람을 예시하나, 움직이는 차량, 동물 등 다양한 피사체가 가능하다. In FIG. 11A, a person is illustrated as the subject HUM, but various subjects such as a moving vehicle and an animal are possible.
한편, 이동 단말기(100)의 제어부(170)는, 도 11b와 같이, 피사체(HUM)에 대응하는 오브젝트(OBb)가 선택되는 경우, 피사체(HUM)에 대응하는 오브젝트(OBb)에 대한 줌 트래킹(zoom tracking)을 수행하도록 제어할 수 있다.Meanwhile, as shown in FIG. 11B, when the object OBb corresponding to the subject HUM is selected, the controller 170 of the mobile terminal 100 zooms in on the object OBb corresponding to the subject HUM. control to perform (zoom tracking).
도 11b에서는, 사용자의 손가락 터치 입력(FNG)에 의해, 피사체(HUM)에 대응하는 오브젝트(OBb)가 선택되는 것을 예시하나, 이와 달리, 전면 카메라(195a)에서 획득된 이미지를 통한, 사용자 시선 추적에 의해, 피사체(HUM)에 대응하는 오브젝트(OBb)를 선택하거나, 사용자 음성에 의해 피사체(HUM)에 대응하는 오브젝트(OBb)를 선택하는 것 등이 가능하다.In FIG. 11B, the object OBb corresponding to the subject HUM is selected by the user's finger touch input FNG. However, the user's gaze through the image acquired by the front camera 195a may be different. By tracking, it is possible to select the object OBb corresponding to the subject HUM, to select the object OBb corresponding to the subject HUM by the user's voice.
한편, 이동 단말기(100)의 제어부(170)는, 도 11c와 같이, 줌을 위한 확대 입력이 있는 경우, 도 11d와 같이, 선택된 피사체(HUM)에 대응하는 오브젝트(OBb)를 확대하여, 확대된 오브젝트(OBba)를 표시하도록 제어할 수 있다.Meanwhile, when there is an enlargement input for zooming as shown in FIG. 11C, the controller 170 of the mobile terminal 100 enlarges the object OBb corresponding to the selected subject HUM as shown in FIG. 11D. It can be controlled to display the object (OBba).
이때, 이동 단말기(100)의 제어부(170)는, 원하는 줌 배율을 설정할 수 있다. 그리고, 설정된 줌 배율에 따라, 이동 단말기(100)의 제어부(170)는, 렌즈 장치(693)에 제어 신호를 전송할 수 있다.In this case, the controller 170 of the mobile terminal 100 may set a desired zoom ratio. The controller 170 of the mobile terminal 100 may transmit a control signal to the lens device 693 according to the set zoom factor.
한편, 이동 단말기(100)의 제어부(170)는, 도 11d와 같이, 확대되기 이전의 오브젝트(OBb)의 위치에 대응하여, 확대된 오브젝트(OBba)가 표시되도록 제어할 수 있다. Meanwhile, as illustrated in FIG. 11D, the controller 170 of the mobile terminal 100 may control to display the enlarged object OBba corresponding to the position of the object OBb before the enlargement.
또는, 이동 단말기(100)의 제어부(170)는, 도 11e와 같이, 확대되기 이전의 오브젝트(OBb)의 위치와 관계없이, 확대된 오브젝트(OBba)가 디스플레이(180)의 중앙 영역에 표시되도록 제어할 수도 있다. Alternatively, as shown in FIG. 11E, the controller 170 of the mobile terminal 100 may display the enlarged object OBba in the center area of the display 180 regardless of the position of the object OBb before the enlargement. You can also control it.
도면에서는, 확대된 오브젝트(OBba)를 포함하는 이미지(1015)가 디스플레이(180)에 표시되는 것을 예시한다.In the drawing, an image 1015 including an enlarged object OBba is illustrated on the display 180.
한편, 피사체(HUM)가 이동하여, 제1 거리(Da) 보다 가까운 제2 거리(Db)로 접근하는 경우, 이동 단말기(100)의 제어부(170)는, 렌즈 장치(693) 내의 렌즈의 위치를 가변하도록 제어할 수 있다. On the other hand, when the subject HUM moves and approaches the second distance Db closer than the first distance Da, the controller 170 of the mobile terminal 100 moves the position of the lens in the lens device 693. Can be controlled to vary.
이에 따라, 움직이는 피사체(HUM)에 대한 줌의 배율이 유지되면서, 자동 초점(AF) 기능이 수행될 수 있게 된다.Accordingly, while the magnification of the zoom for the moving subject HUM is maintained, the auto focus AF function can be performed.
예를 들어, 이동 단말기(100)의 제어부(170)는, 피사체(HUM)가 가까워질수록, 렌즈 장치(693) 내의 렌즈 중 일부가, 이미지 센서(620)로부터 멀어질 수 있다. For example, the control unit 170 of the mobile terminal 100, as the subject (HUM) is closer, some of the lenses in the lens device 693 may be farther away from the image sensor 620.
도 10a는, 도 11a와 같이, 피사체(HUM)의 거리가 제1 거리(Da) 만큼 이격된 경우의, 렌즈 장치(693) 내의 제1 렌즈(Lsa)와 제2 렌즈(Lsb) 사이의 간격이, DSb 인 것을 예시한다.FIG. 10A illustrates the distance between the first lens Lsa and the second lens Lsb in the lens device 693 when the distance of the subject HUM is spaced apart by the first distance Da, as shown in FIG. 11A. This illustrates that it is DSb.
한편, 도 10b는, 도 11f와 같이, 피사체(HUM)의 거리가 제1 거리(Da) 보다 가까운 제2 거리(Db) 만큼 이격된 경우의, 렌즈 장치(693) 내의 제1 렌즈(Lsa)와 제2 렌즈(Lsb) 사이의 간격이, DSb 보다 멀어진 DSa 인 것을 예시한다.On the other hand, FIG. 10B shows the first lens Lsa in the lens device 693 when the distance of the subject HUM is spaced apart by the second distance Db closer than the first distance Da, as shown in FIG. 11F. The distance between the second lens Lsb and the second lens Lsb is far from DSa.
도 11f에서는, 피사체(HUM)의 거리가 제1 거리(Da) 보다 가까운 제2 거리(Db)로 접근하는 경우, 일정한 크기의 피사체(HUM)에 대한 오브젝트(OBba)를 포함하는 이미지(1015b)가 디스플레이(180)에 표시되는 것을 예시한다.In FIG. 11F, when the distance of the subject HUM approaches the second distance Db closer than the first distance Da, the image 1015b including the object OBba for the subject HUM having a constant size. Illustrates that is displayed on the display 180.
한편, 도 11g에서는, 피사체(HUM)의 거리가 제2 거리(Db) 보다 가까운 제3 거리(Dc)로 접근하는 경우, 일정한 크기의 피사체(HUM)에 대한 오브젝트(OBba)를 포함하는 이미지(1015c)가 디스플레이(180)에 표시되는 것을 예시한다.Meanwhile, in FIG. 11G, when the distance of the subject HUM approaches the third distance Dc closer than the second distance Db, the image including the object OBba for the subject HUM having a constant size ( 1015c is displayed on the display 180.
이동 단말기(100)의 제어부(170)는, 피사체(HUM)가 가까워질수록, 줌의 배율이 낮아지도록 하면서, 피사체(HUM)에 대한 오브젝트의 크기는 일정하게 표시되도록 제어할 수 있다.The controller 170 of the mobile terminal 100 may control the size of the object with respect to the subject HUM to be constantly displayed while the zoom magnification decreases as the subject HUM gets closer.
이와 같이, 이동 단말기(100)의 제어부(170)는, 도 11c와 같이, 피사체에 대한 고정 줌 배율이 설정되는 경우, 줌 트래킹 모드가 수행되도록 제어할 수 있으며, 이에 따라, 피사체(HUM)에 대응하는 오브젝트가, 피사체의 움직임에 관계없이 일정한 크기로 표시될 수 있게 된다.As described above, when the fixed zoom magnification of the subject is set, the controller 170 of the mobile terminal 100 may control the zoom tracking mode to be performed. Accordingly, the control unit 170 of the mobile terminal 100 may control the subject HUM. The corresponding object can be displayed at a constant size regardless of the movement of the subject.
한편, 피사체(HUM)가 뒤 돌아서 다시 멀어지더라도, 이동 단말기(100)의 제어부(170)는, 줌 트래킹 모드에 따라, 도 11h와 같이, 피사체(HUM)에 대한 오브젝트(OBbm)를 포함하는 이미지(1015d)가 디스플레이(180)에 표시되도록 제어할 수 있다.On the other hand, even if the subject HUM is turned back and moves away, the controller 170 of the mobile terminal 100 includes the object OBbm for the subject HUM, as shown in FIG. 11H, according to the zoom tracking mode. The image 1015d may be controlled to be displayed on the display 180.
이동 단말기(100)의 제어부(170)는, 피사체(HUM)의 얼굴에 대한 오브젝트 검출 등을 통해, 피사체(HUM)가 정면으로 접근하는 지, 뒤 돌아서 멀어지는 지 여부를 판단하고, 피사체(HUM)가 뒤 돌아서 다시 멀어지더라도, 트래킹 모드에 따라, 도 11h와 같이, 피사체(HUM)에 대한 오브젝트(OBbm)를 포함하는 이미지(1015d)가 디스플레이(180)에 표시되도록 제어할 수 있다.The controller 170 of the mobile terminal 100 determines whether the subject HUM is approaching the front or is turned away from the subject through object detection of the face of the subject HUM, and the subject HUM. Even if the user turns back and moves away, the image 1015d including the object OBbm for the subject HUM may be displayed on the display 180 according to the tracking mode.
도 11h는 피사체(HUM)가 뒤 돌아서, 제3 거리(Dc)에 위치하는 것을 예시하며, 도 11i는 피사체(HUM)가 뒤 돌아서, 제3 거리(Dc) 보다 먼 제1 거리(Da)에 위치하는 것을 예시한다.FIG. 11H illustrates that the subject HUM is turned back and positioned at the third distance Dc. FIG. 11I illustrates that the subject HUM is turned back and is located at a first distance Da farther than the third distance Dc. Example of location.
이동 단말기(100)의 제어부(170)는, 도 11i의 경우에도, 일정한 크기의 피사체(HUM)에 대한 오브젝트(OBbm)를 포함하는 이미지(1015e)가 디스플레이(180)에 표시되도록 제어할 수 있다.In the case of FIG. 11I, the controller 170 of the mobile terminal 100 may control the display 180 to display an image 1015e including an object OBbm for a subject HUM having a predetermined size. .
그리고, 도 11j와 같이, 피사체(HUM)가 뒤 돌아서, 얼굴이 정면을 향하는 경우에도, 이동 단말기(100)의 제어부(170)는, 일정한 크기의 피사체(HUM)에 대한 오브젝트(OBbm)를 포함하는 이미지(1015f)가 디스플레이(180)에 표시되도록 제어할 수 있다. 이에 따라, 사용자가 관심 있어 하는 피사체의 이동 등에도 불구하고, 트래킹이 가능하며, 일정한 크기로 표시가 가능해지므로, 이용 편의성이 증대될 수 있게 된다.11J, even when the subject HUM is turned back and the face faces the front, the controller 170 of the mobile terminal 100 includes the object OBbm for the subject HUM having a constant size. The image 1015f may be controlled to be displayed on the display 180. Accordingly, despite the movement of the subject of interest to the user, tracking is possible, and since the display can be displayed at a constant size, the user's convenience can be increased.
한편, 도 9a 내지 도 11j의 경우, 사용자의 손 떨림이 있더라도, 이동 단말기(100)는, 제1 프리즘 모듈(692a)과 제2 프리즘 모듈(692b)을 구비하는 듀얼 프리즘 장치(692)를 포함하므로, 손 떨림 보정 기능이 적용되게 된다.9A to 11J, the mobile terminal 100 includes the dual prism device 692 including the first prism module 692a and the second prism module 692b even if the user shakes the hand. Therefore, the camera shake correction function is applied.
도 12a 내지 도 12f는 본 발명의 다른 실시예에 따른 영상표시장치의 동작 설명에 참조되는 도면이다.12A to 12F are views for explaining an operation of an image display apparatus according to another exemplary embodiment of the present invention.
도 12a를 참조하면, 본 발명의 다른 실시예에 따른 영상표시장치, 특히, 이동 단말기(100)는, 고배율의 카메라(195b)와 저배율의 카메라(195c)를 구비할 수 있다.Referring to FIG. 12A, an image display device according to another embodiment of the present invention, in particular, the mobile terminal 100 may include a high magnification camera 195b and a low magnification camera 195c.
그리고, 이동 단말기(100)는, 촬영 모드시, 고배율의 카메라(195b)와 저배율의 카메라(195c)를 이용하여, 각각 이미지를 획득할 수 있다.In addition, in the photographing mode, the mobile terminal 100 may obtain an image using the high magnification camera 195b and the low magnification camera 195c, respectively.
도 12a에서는, 야구장의 투수를 포함하는 영역(BSBa)을 고배율의 카메라(195b)와 저배율의 카메라(195c)를 이용하여, 촬영하는 것을 예시한다.In FIG. 12A, the area | region BSBa containing the pitcher of a baseball field is image | photographed using the high magnification camera 195b and the low magnification camera 195c.
한편, 촬영 모드시, 이동 단말기(100)의 제어부(170)는, 고배율의 카메라(195b) 보다, 저배율의 카메라(195c)에서 촬영된 이미지가, 디폴트(default)로 표시되도록 제어할 수 있다.In the photographing mode, the controller 170 of the mobile terminal 100 may control the image captured by the low magnification camera 195c to be displayed as a default rather than the high magnification camera 195b.
즉, 이동 단말기(100)의 제어부(170)는, 도 12b와 같이, 저배율의 카메라(195c)에서 촬영된 이미지(1110)가 디스플레이(180)에 표시되도록 제어할 수 있다.That is, as shown in FIG. 12B, the controller 170 of the mobile terminal 100 may control the image 1110 photographed by the low magnification camera 195c to be displayed on the display 180.
한편, 이동 단말기(100)의 제어부(170)는, 이미지(1110) 내의 투수에 대응하는 오브젝트(PTC)가, 손가락(FNG) 터치 등에 의해, 도 12b와 같이, 선택되는 경우, 도 12c와 같이, 저배율의 카메라(195c)에서 촬영된 이미지(1010b)와, 고배율의 카메라(195b)에서 촬영된 이미지(1020)가 함께 표시되도록 제어할 수 있다.On the other hand, the control unit 170 of the mobile terminal 100, when the object (PTC) corresponding to the pitcher in the image 1110 is selected by the finger (FNG) touch, as shown in Fig. 12B, as shown in Fig. 12C The image 1010b captured by the low magnification camera 195c and the image 1020 captured by the high magnification camera 195b may be displayed together.
이때, 이미지(1010b) 내의 선택된 오브젝트는, 도면과 같이, 하이라이트(FCS)되어 표시될 수 있다.In this case, the selected object in the image 1010b may be highlighted and displayed as shown in the figure.
이동 단말기(100)의 제어부(170)는, 고배율의 카메라(195b)와 저배율의 카메라(195c)를 통해 촬영된 이미지를 하나의 파일로 관리할 수 있다. The controller 170 of the mobile terminal 100 may manage images captured by the high magnification camera 195b and the low magnification camera 195c as one file.
이에 따라, 이동 단말기(100)의 제어부(170)는, 도 12b와 같이, 저배율의 카메라(195c)로 확대된 이미지의 표시가 불가능한 경우, 고배율의 카메라(195b)에서 촬영된 이미지(1020)가 함께 표시되도록 제어할 수 있다.Accordingly, when the controller 170 of the mobile terminal 100 cannot display an image enlarged by the low magnification camera 195c as shown in FIG. 12B, the image 1020 captured by the high magnification camera 195b is displayed. It can be controlled to be displayed together.
또는, 도 12b에서, 이미지(1110) 내의 투수에 대응하는 오브젝트(PTC)가, 선택되는 경우, 이동 단말기(100)의 제어부(170)는, 도 12d와 같이, 저배율의 카메라(195c)에서 촬영된 이미지(1010b)는 지표시하 않고, 고배율의 카메라(195b)에서 촬영된 이미지(1020b)만이 표시되도록 제어할 수도 있다. 이에 따라, 사용자가 원하는 오브젝트에 대한 광학 줌 기반의 이미지 표시가 가능하게 된다.Alternatively, in FIG. 12B, when an object (PTC) corresponding to the pitcher in the image 1110 is selected, the controller 170 of the mobile terminal 100 is photographed by the low magnification camera 195c as shown in FIG. 12D. The displayed image 1010b may be controlled so that only the image 1020b captured by the high magnification camera 195b is displayed. Accordingly, the optical zoom based image display for the object desired by the user is possible.
도 12e는 확대된 이미지(1215)가, 기본 이미지(1210)에 중첩되어 표시되는 것을 예시하며, 도 12f는 확대된 이미지(1225)가, 기본 이미지(1220)에 중첩되어 표시되는 것을 예시한다.12E illustrates that the enlarged image 1215 is displayed superimposed on the base image 1210, and FIG. 12F illustrates that the enlarged image 1225 is displayed superimposed on the base image 1220.
도 12e 또는 도 12f와 달리, 도 12c 또는 도 12d와 같이, 특히, 사용자가 원하는 오브젝트에 대한 광학 줌 기반의 이미지(1020,1020b)가, 저배율의 카메라(195c)에서 촬영된 이미지(1010b)와 구분되어, 중첩되지 않고, 별도로 표시됨으로써, 사용자가 원하는 해당 오브젝트에 대한 시청 몰입도가 향상될 수 있게 된다.Unlike FIG. 12E or FIG. 12F, as shown in FIG. 12C or FIG. 12D, in particular, the optical zoom-based images 1020 and 1020b for the object desired by the user are different from the image 1010b captured by the low magnification camera 195c. By being separated and not overlapping and being displayed separately, viewing immersion of the object desired by the user can be improved.
한편,도 12a 내지 도 12f의 경우, 사용자의 손 떨림이 있더라도, 이동 단말기(100)는, 제1 프리즘 모듈(692a)과 제2 프리즘 모듈(692b)을 구비하는 듀얼 프리즘 장치(692)를 포함하므로, 손 떨림 보정 기능이 적용되게 된다.12A to 12F, the mobile terminal 100 includes the dual prism device 692 including the first prism module 692a and the second prism module 692b even if the user shakes the hand. Therefore, the camera shake correction function is applied.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

Claims (19)

  1. 카메라;camera;
    디스플레이;display;
    상기 카메라를 통해 촬영된 이미지를 표시하고, 상기 디스플레이에 표시된 이미지 내의 제1 피사체에 대응하는 오브젝트가 선택되는 경우, 상기 제1 피사체에 대응하는 상기 오브젝트에 대한 줌 트래킹을 수행하도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 영상표시장치.A controller configured to display an image photographed through the camera and perform zoom tracking on the object corresponding to the first subject when an object corresponding to the first subject in the image displayed on the display is selected; Image display apparatus comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 디스플레이에 표시된 이미지 내의 제1 피사체에 대응하는 오브젝트가 선택되는 경우, 상기 제1 피사체에 대응하는 상기 오브젝트가 하이라이트 표시되도록 제어하는 것을 특징으로 하는 영상표시장치.And when an object corresponding to the first subject in the image displayed on the display is selected, the object corresponding to the first subject is displayed to be highlighted.
  3. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    줌을 위한 확대 입력이 있는 경우, 상기 제1 피사체에 대응하는 상기 오브젝트를 확대하여, 확대된 오브젝트를 표시하도록 제어하는 것을 특징으로 하는 영상표시장치.And a magnification input for zooming, in which the object corresponding to the first subject is enlarged to control to display the enlarged object.
  4. 제3항에 있어서,The method of claim 3,
    상기 제어부는,The control unit,
    상기 확대된 오브젝트 표시시, 상기 확대된 오브젝트가, 상기 디스플레이의 중앙 영역에 표시되도록 제어하는 것을 특징으로 하는 영상표시장치.And displaying the enlarged object on the center area of the display when the enlarged object is displayed.
  5. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    설정된 줌 배율에 따라, 상기 카메라 내의 렌즈 장치에 제어 신호를 출력하도록 제어하는 것을 특징으로 하는 영상표시장치.And a control signal is output to a lens device in the camera according to a set zoom factor.
  6. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 제1 피사체가 이동하는 경우, 상기 카메라 내의 렌즈 장치에 제어 신호를 출력하도록 제어하는 것을 특징으로 하는 영상표시장치.And outputting a control signal to a lens device in the camera when the first subject is moved.
  7. 제6항에 있어서,The method of claim 6,
    상기 제어부는,The control unit,
    상기 제1 피사체가 가까워질수록, 상기 렌즈 구조채 내의 렌즈 중 일부가, 상기 카메라 내의 이미지 센서로부터 멀어지거나, 상기 렌즈 구조채 내의 제1 렌즈왕 제2 렌즈 사이의 간격이 멀어지도록 제어하는 것을 특징으로 하는 영상표시장치.As the first subject gets closer, a part of the lenses in the lens structure is controlled to move away from the image sensor in the camera or the distance between the first lens king and the second lens in the lens structure is farther away. A video display device.
  8. 제1항에 있어서,The method of claim 1,
    상기 제어부는,The control unit,
    상기 제1 피사체에 대한 고정 줌 배율이 설정되는 경우, 상기 제1 피사체의 이동에도 상기 제1 피사체에 대응하는 오브젝트의 크기가 일정하게 표시되도록 제어하는 것을 특징으로 하는 영상표시장치.And when the fixed zoom factor is set for the first subject, controlling the size of an object corresponding to the first subject to be constantly displayed even with the movement of the first subject.
  9. 제8항에 있어서,The method of claim 8,
    상기 제어부는,The control unit,
    상기 제1 피사체가 가까워질수록, 줌 배율이 낮아지도록 제어하는 것을 특징으로 하는 영상표시장치.And the zoom magnification is lowered as the first subject gets closer.
  10. 제1항에 있어서,The method of claim 1,
    상기 카메라는,The camera,
    자이로 센서에서 감지된 움직임을 보상하기 위해, 입사되는 광을, 제1 회전축 및 제2 회전축 기준으로 각도 변화시켜, 출력하는 프리즘 장치;In order to compensate for the motion detected by the gyro sensor, a prism device for changing the angle of the incident light with respect to the first axis and the second axis of rotation, and outputs;
    복수의 렌즈를 구비하며, 가변 초점을 위해 적어도 하나의 렌즈가 이동되며, 상기 이동된 렌즈를 이용하여, 상기 프리즘 장치로부터의 광을 출력하는 렌즈 장치;A lens device having a plurality of lenses, at least one lens being moved for variable focus, and outputting light from the prism device using the moved lens;
    상기 렌즈 장치로부터의 광을 전기 신호로 변환하는 이미지 센서;를 포함하는 것을 특징으로 하는 영상표시장치.And an image sensor for converting light from the lens device into an electrical signal.
  11. 제10항에 있어서,The method of claim 10,
    상기 프리즘 장치는,The prism device,
    입력되는 광이 반사되는 제1 프리즘;A first prism on which input light is reflected;
    입력되는 제1 제어 신호에 기초하여, 상기 제1 프리즘을 상기 제1 회전축 기준으로 각도 변화시키는 제1 액츄에이터;A first actuator configured to change the angle of the first prism with respect to the first axis of rotation based on the input first control signal;
    상기 제1 프리즘으로부터의 광을 반사하는 제2 프리즘;A second prism that reflects light from the first prism;
    입력되는 제2 제어 신호에 기초하여, 상기 제2 프리즘을 상기 제2 회전축 기준으로 각도 변화시키는 제2 액츄에이터;를 구비하는 것을 특징으로 하는 영상표시장치.And a second actuator configured to change an angle of the second prism with respect to the second axis of rotation based on the input second control signal.
  12. 제11항에 있어서,The method of claim 11,
    상기 프리즘 장치는,The prism device,
    상기 제1 프리즘의 각도 변화에 따른 자기장 변화를 센싱하는 제1 홀 센서;A first hall sensor sensing a change in magnetic field according to a change in angle of the first prism;
    상기 제2 프리즘의 각도 변화에 따른 자기장 변화를 센싱하는 제2 홀 센서;를 더 구비하는 것을 특징으로 하는 영상표시장치.And a second hall sensor which senses a change in the magnetic field according to the change of the angle of the second prism.
  13. 제12항에 있어서,The method of claim 12,
    상기 카메라는,The camera,
    상기 제1 제어 신호와, 상기 제1 홀 센서로부터의 제1 자기장 변화 정보에 기초하여, 상기 제1 액츄에이터를 제어하고, 상기 제2 제어 신호와, 상기 제2 홀 센서로부터의 제2 자기장 변화 정보에 기초하여, 상기 제2 액츄에이터를 제어하는 구동 제어부;를 더 포함하는 것을 특징으로 하는 영상표시장치.The first actuator is controlled based on the first control signal and first magnetic field change information from the first hall sensor, and the second control signal and second magnetic field change information from the second hall sensor are controlled. And a driving controller configured to control the second actuator.
  14. 제11항에 있어서,The method of claim 11,
    상기 제1 액츄에이터는, The first actuator is,
    제1 구동 마그네트와, 제1 구동 코일을 구비하는 것을 특징으로 하는 영상표시장치.And a first driving magnet and a first driving coil.
  15. 제14항에 있어서,The method of claim 14,
    상기 프리즘 장치는,The prism device,
    제1 면에 상기 제1 프리즘을 고정하는 제1 프리즘 홀더;A first prism holder fixing the first prism to a first surface;
    상기 제1 프리즘 홀더의 상기 제1 면의 배면인 제2 면에, 제1 면이 부착되는 제1 요크;A first yoke having a first surface attached to a second surface that is a rear surface of the first surface of the first prism holder;
    상기 제1 프리즘 홀더 방향으로 돌출되는 돌출부와, 상기 돌출부 내에 형성된 개구부를 구비하는 제1 코일 홀더;를 구비하며,And a first coil holder having a protrusion protruding in the direction of the first prism holder and an opening formed in the protrusion.
    상기 제1 구동 마그네트는, The first driving magnet,
    상기 제1 요크의 상기 제1 면의 배면인 제2 면에 부착되며,Is attached to a second surface, which is a rear surface of the first surface of the first yoke,
    상기 제1 구동 코일은, The first drive coil,
    상기 제1 코일 홀더와 상기 제1 요크 사이에 배치되며,Disposed between the first coil holder and the first yoke,
    상기 제1 프리즘 홀더의 양단의 보스는, 상기 제1 코일 홀더의 상기 돌출부에 형성된 상기 개구부와 결합되는 것을 특징으로 하는 영상표시장치.And bosses at both ends of the first prism holder are coupled to the openings formed at the protrusions of the first coil holder.
  16. 제1 배율의 제1 카메라;A first camera at a first magnification;
    제2 배율의 제2 카메라;A second camera at a second magnification;
    디스플레이;display;
    상기 제1 카메라와 상기 제2 카메라를 통해 촬영된 이미지를 하나의 파일로 관리하도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 영상표시장치.And a controller configured to manage the images photographed by the first camera and the second camera to be managed as one file.
  17. 제16항에 있어서,The method of claim 16,
    상기 제어부는,The control unit,
    상기 제1 배율의 상기 제1 카메라에서 획득된 이미지와, 상기 제2 배율의 상기 제2 카메라에서 획득된 이미지가 구분되어 별도로 표시되도록 제어하는 것을 특징으로 하는 영상표시장치.And an image obtained by the first camera at the first magnification and an image obtained by the second camera at the second magnification are separated and displayed separately.
  18. 제16항에 있어서,The method of claim 16,
    상기 제어부는,The control unit,
    상기 제1 배율의 상기 제1 카메라에서 획득된 이미지의 확대 표시가 불가능한 경우, 상기 제2 배율의 상기 제2 카메라에서 획득된 이미지만 표시되도록 제어하는 것을 특징으로 하는 영상표시장치.And when the enlarged display of the image acquired by the first camera at the first magnification is impossible, only the image obtained by the second camera at the second magnification is displayed.
  19. 제16항에 있어서,The method of claim 16,
    상기 제1 카메라 또는 상기 제2 카메라는,The first camera or the second camera,
    자이로 센서에서 감지된 움직임을 보상하기 위해, 입사되는 광을, 제1 회전축 및 제2 회전축 기준으로 각도 변화시켜, 출력하는 프리즘 장치;In order to compensate for the motion detected by the gyro sensor, a prism device for changing the angle of the incident light with respect to the first axis and the second axis of rotation, and outputs;
    복수의 렌즈를 구비하며, 가변 초점을 위해 적어도 하나의 렌즈가 이동되며, 상기 이동된 렌즈를 이용하여, 상기 프리즘 장치로부터의 광을 출력하는 렌즈 장치;A lens device having a plurality of lenses, at least one lens being moved for variable focus, and outputting light from the prism device using the moved lens;
    상기 렌즈 장치로부터의 광을 전기 신호로 변환하는 이미지 센서;를 포함하는 것을 특징으로 하는 영상표시장치.And an image sensor for converting light from the lens device into an electrical signal.
PCT/KR2019/005613 2018-05-11 2019-05-10 Image display device WO2019216682A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0054546 2018-05-11
KR20180054546 2018-05-11

Publications (1)

Publication Number Publication Date
WO2019216682A1 true WO2019216682A1 (en) 2019-11-14

Family

ID=68467523

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/005613 WO2019216682A1 (en) 2018-05-11 2019-05-10 Image display device

Country Status (1)

Country Link
WO (1) WO2019216682A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133281A (en) * 2004-11-02 2006-05-25 Sharp Corp Reflection surface rocking mechanism and camera module using the same
KR20080024785A (en) * 2006-09-15 2008-03-19 장순욱 A shutter device and a picture-taking device for stereo camera
KR20080034726A (en) * 2006-10-17 2008-04-22 삼성테크윈 주식회사 Dual lens optical system and dual lens camera comprising the same
KR20080111803A (en) * 2007-06-20 2008-12-24 박철 Multi digital camera modules equipped electronic products
JP2009526427A (en) * 2006-02-06 2009-07-16 ノキア コーポレイション Method and device for position detection in an imaging system
JP2011008579A (en) * 2009-06-26 2011-01-13 Sanyo Electric Co Ltd Image processor, imaging apparatus, and reproduction device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133281A (en) * 2004-11-02 2006-05-25 Sharp Corp Reflection surface rocking mechanism and camera module using the same
JP2009526427A (en) * 2006-02-06 2009-07-16 ノキア コーポレイション Method and device for position detection in an imaging system
KR20080024785A (en) * 2006-09-15 2008-03-19 장순욱 A shutter device and a picture-taking device for stereo camera
KR20080034726A (en) * 2006-10-17 2008-04-22 삼성테크윈 주식회사 Dual lens optical system and dual lens camera comprising the same
KR20080111803A (en) * 2007-06-20 2008-12-24 박철 Multi digital camera modules equipped electronic products
JP2011008579A (en) * 2009-06-26 2011-01-13 Sanyo Electric Co Ltd Image processor, imaging apparatus, and reproduction device

Similar Documents

Publication Publication Date Title
WO2016024746A1 (en) Mobile terminal
WO2016024755A1 (en) Image photographing apparatus, image photographing system for performing photographing by using multiple image photographing apparatuses, and image photographing methods thereof
WO2018159864A1 (en) Mobile terminal and control method for mobile terminal
WO2019225978A1 (en) Camera and terminal including the same
WO2018135784A1 (en) Camera module and camera device
WO2019117652A1 (en) Prism apparatus, and camera apparatus including the same
WO2020171290A1 (en) Mobile terminal and electronic apparatus including mobile terminal
WO2016171334A1 (en) Camera module
WO2018021633A1 (en) Mobile terminal
WO2020045867A1 (en) Prism module, camera including same, and image display device
WO2021100939A1 (en) Mobile terminal
WO2017086538A1 (en) Mobile terminal and control method therefor
WO2015174611A1 (en) Mobile terminal and control method therefor
WO2020059925A1 (en) Mobile terminal
WO2022034942A1 (en) Image display device and method for controlling same
WO2019225979A1 (en) Camera and terminal including the same
WO2015064935A1 (en) Electronic device and control method thereof
WO2018034376A1 (en) Mobile terminal and control method therefor
WO2021230559A1 (en) Electronic device and operation method thereof
WO2016024707A1 (en) Mobile terminal and control method therefor
WO2019225928A1 (en) Camera and terminal comprising same
WO2019177219A1 (en) Optical device and mobile terminal comprising same
WO2019216682A1 (en) Image display device
WO2019022492A1 (en) Camera, and image display apparatus including the same
WO2020022548A1 (en) Mobile terminal and control method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19799001

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19799001

Country of ref document: EP

Kind code of ref document: A1