WO2006028276A1 - 映像機器 - Google Patents

映像機器 Download PDF

Info

Publication number
WO2006028276A1
WO2006028276A1 PCT/JP2005/016992 JP2005016992W WO2006028276A1 WO 2006028276 A1 WO2006028276 A1 WO 2006028276A1 JP 2005016992 W JP2005016992 W JP 2005016992W WO 2006028276 A1 WO2006028276 A1 WO 2006028276A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
user
movement
information
Prior art date
Application number
PCT/JP2005/016992
Other languages
English (en)
French (fr)
Inventor
Keiichi Toiyama
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/661,916 priority Critical patent/US20070216762A1/en
Priority to EP05783578A priority patent/EP1788474A1/en
Publication of WO2006028276A1 publication Critical patent/WO2006028276A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/02Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators

Definitions

  • the present invention is a video device that can be scrolled and enlarged and reduced in a series of operations such as moving the device and bringing the face closer to the device without performing multiple button operations.
  • a series of operations such as moving the device and bringing the face closer to the device without performing multiple button operations.
  • the portable view ⁇ is represented by a mobile phone and a personal digital assistance (PDA).
  • PDA personal digital assistance
  • scrolling, enlarging, and reducing are performed by multiple button operations.
  • a display with 640 horizontal pixels and 480 vertical pixels which is the number of VGA pixels, it displays only about 1/3 of the entire image of a digital camera with a recent 400 million pixel class. I can't. Therefore, the user usually browses the image down-sampled to the resolution of the display, enlarges the part to be watched, and scrolls and browses.
  • Figure 2 shows an example of a portable tablet that browses images by scrolling, enlarging, and reducing operations.
  • the display unit 2 0 1 displays an image
  • the scroll button 2 0 2 is used to perform a scrolling operation.
  • the small buttons 2 0 3 are used for enlargement and reduction.
  • the user When viewing the image displayed on the display unit 201, the user operates the enlargement / reduction button 20 3 to enlarge the image, and changes the enlargement ratio of the image to a predetermined enlargement ratio.
  • the user uses the scroll button 202 to shift the display position so that a predetermined image is displayed at a predetermined position. In this way, when the user presses the scroll button 20 2 and the enlargement / reduction button 20 3 a plurality of times, an image can be displayed at the enlargement ratio and display position desired by the user.
  • the video equipment of the present invention performs enlargement and reduction of a displayed image by operations such as movement and approach of the user, and includes an image holding unit, a movement detection unit, a position detection unit, and pixel conversion. Includes display.
  • the image holding unit holds information on the displayed image.
  • the movement detection unit detects the movement of the video equipment.
  • the position detection unit detects the position of the user.
  • the pixel conversion display unit reads out the image information held in the image holding unit, cuts out a predetermined range of the image information based on the movement information detected by the movement detection unit and the position information detected by the position detection unit, Enlarge / reduce and display the image.
  • FIG. 1 shows the configuration of a portable view box according to the first embodiment.
  • Figure 2 shows a conventional portable viewer that allows users to view images by scrolling, enlarging, and reducing operations.
  • FIG. 3 is a perspective view showing the appearance of the front surface of the portable view bowl according to the first embodiment.
  • FIG. 4 is a perspective view showing the outer appearance of the back surface of the portable speaker according to the first embodiment, the second embodiment, and the third embodiment.
  • FIG. 5 shows the configuration of the movement detection unit according to the first embodiment, the second embodiment, and the third embodiment.
  • FIG. 6 shows a movement detection routine of the movement detection unit according to the first embodiment.
  • FIG. 7 shows the configuration of the viewpoint position detection unit according to the first embodiment.
  • FIG. 8 is a flowchart showing a viewpoint position detection routine of the viewpoint position detection unit according to the first embodiment.
  • FIG. 9 shows the display unit according to the first embodiment, the second embodiment, and the third embodiment. Show.
  • FIG. 10 shows a display example for notifying the user according to the first embodiment, the second embodiment, and the third embodiment that the end of the image has been reached.
  • FIG. 11 shows the configuration of the pixel conversion unit according to the first embodiment.
  • FIG. 12 is a flowchart showing the pixel conversion routine of the pixel conversion unit according to the first embodiment.
  • FIG. 13 shows the configuration of the portable view box according to the second embodiment.
  • FIG. 14 is a perspective view showing the appearance of the front surface of the portable view bowl according to the second embodiment.
  • FIG. 15 shows the configuration of the pixel conversion unit according to the second embodiment.
  • 'FIG. 16 is a flowchart showing the pixel conversion routine of the pixel conversion unit according to the second embodiment.
  • FIG. 17 shows the configuration of the portable view box according to the third embodiment.
  • FIG. 18 is a perspective view showing the external appearance of the front surface of the portable display device according to the third embodiment.
  • FIG. 19 shows the configuration of the pixel conversion unit according to the third embodiment.
  • FIG. 20 is a flowchart showing a reference viewpoint position information holding routine performed by the pixel conversion unit according to the third embodiment.
  • FIG. 21 is a flowchart showing a pixel conversion routine of the pixel conversion unit according to the third embodiment.
  • Portable view ⁇ is an image data or HTM L. document etc. —A device that can display the evening, including mobile phones and PDAs.
  • the present invention can also be used for a large-sized video device (such as a large-screen liquid crystal TV or a plasma display device) that is not portable.
  • a large-sized video device such as a large-screen liquid crystal TV or a plasma display device
  • FIG. 1 shows the configuration of a portable view box according to the first embodiment.
  • the control unit 1001 controls the entire portable view screen 100 of the present embodiment, and stores information in the storage unit 102.
  • the image holding unit 10 3 holds an image displayed by the portable viewer 1 100.
  • the image holding unit 103 is, for example, a flash memory.
  • the movement detector 1 0 4 detects movement information of the portable view.
  • the movement detection unit 104 has the same configuration as a personal computer mouse.
  • the viewpoint position detection unit 105 functions as a position detection unit that detects the viewpoint position of the user. In this embodiment, the distance between the portable viewing heel and the user's face is measured using a CCD camera, and the viewpoint position of the user is detected.
  • the pixel conversion unit 106 reads the image held in the image holding unit 103. Further, the pixel conversion unit 106 cuts out an image based on the movement information detected by the movement detection unit 10 04 and the viewpoint position information detected by the viewpoint position detection unit 105, and the cut image Convert the resolution of, enlarge / reduce, and output.
  • the image display unit 107 operates to display the image information output from the pixel conversion unit 106.
  • the above-described units are connected by bus lines 10 8. Note that the image display unit 10 07 and the pixel conversion unit 10 6 may be included in the pixel conversion display unit 1 1 2.
  • the image storage unit 103 stores storage media such as HDDs and memory cards. It may be configured to include.
  • the movement detection unit 104 may be configured by a movement detection device such as a jail opening.
  • the viewpoint position detection unit 105 may be a distance measuring device using infrared rays or the like.
  • the display unit 30 2 displays image information in the image display unit 10 07.
  • the portable view camera 100 includes a CCD camera 30 3 as a camera unit.
  • Pole 4 0 2 rotates as the portable view rod moves.
  • the pole 4 0 2 rotates.
  • the rotation of the pole 40 2 is transmitted to the Y-axis detection roller 40 3 and the Y-axis movement detection roller 4 0 3 rotates.
  • the pole 4 0 2 rotates as the portable view ⁇ moves in the X-axis direction.
  • the rotation of the pole 40 2 is transmitted to the X axis detection roller 40 4 and rotates.
  • the rotation detection unit 40 5 detects the rotation of the Y-axis movement detection mouth roller 40 3 and the X-axis movement detection roller 40 4 and outputs movement information.
  • the pole support roller 40 6 supports the pole 40 2 so that the Y-axis movement detection roller 40 3 and the X-axis movement detection roller 4 0 4 are always in close contact with each other.
  • the movement detection unit 10 4 includes a Y-axis movement detection roller 40 3, an X-axis movement detection roller 4 0 4, and a rotation detection unit 4 0 5.
  • the rotation detection unit 45 detects information corresponding to the rotations of the Y-axis movement detection roller 40 3 and the X-axis movement detection roller 40 4.
  • the rotation detector 4 05 outputs movement information based on these pieces of information to the pixel converter 10 06 in FIG.
  • the rotation detection unit 40 5 converts the rotation angle of each roller into movement information and outputs it (step S 60 2).
  • the viewpoint position detection unit 105 in order to measure the distance between the portable view screen 100 that is the viewpoint position and the user's face, the CCD and the lens attached to the front surface thereof are used.
  • the viewpoint position detection unit 1 0 5 detects the object 7 0 2.
  • the object 7 0 2 is the face of the user.
  • the CCD 70 3 converts incident light into an image signal.
  • the lens 70 4 is arranged so that the image of the object 70 2 is formed on the CCD 70 3.
  • the lens fixing bracket 7 0 5 fixes the lens 7 0 4.
  • the rotation shaft 7 06 is rotated by the rotation of the lens moving motor 70 7. Therefore, the rotation of the lens moving module 70 7 moves the lens 70 4.
  • the lens moving width 70 8 indicates the moving width of the lens 70 4 by the rotation of the lens moving motor 70 07.
  • the maximum value of the lens movement width 7 0 8 is called the maximum movement width.
  • the state where the lens position is closest to the object 70 2 is the maximum lens position, and the state where the lens position is closest to the CCD 700 is the minimum lens position. In this embodiment, the maximum movement width is 1.0 cm.
  • the contrast detection unit 7 09 generates a contrast value from the image signal output from the C C D 70 3.
  • the contrast detection unit holding unit 7 1 0 holds the position information of the lens 7 0 4 and the contrast value generated by the contrast detection unit 7 0 9.
  • the motor rotation control unit 7 1 1 controls the rotation of the lens moving motor 7 07 according to the request from the contrast detection unit 7 09.
  • the maximum contrast extraction unit 7 1 2 extracts the maximum contrast value from the contrast values held in the contrast detection unit holding unit 7 10.
  • the distance information calculation unit 7 1 3 converts the lens position information output from the maximum contrast extraction unit 7 1 2 into distance information between the object 7 0 2 and the lens 7 0 4 and outputs it as viewpoint position information. That is, when the maximum contrast is obtained, it can be considered that the object 7 0 2 is in focus, and the focal distance corresponds to the viewpoint position information.
  • the C C D camera includes a lens 70 4 and a C C D 70 3.
  • the contrast detection unit 7 0 9 issues a control request to the motion rotation control unit 7 1 1.
  • the motor rotation control unit 7 1 1 rotates the lens moving motor 7 0 7,
  • the lens 70 4 is moved so that the position of the lens 70 4 is maximized, and the lens position information of the moved lens 70 4 is stored in the contrast detection unit holding unit 7 10 (step S 8 0 1). .
  • the contrast detection unit 70 9 extracts the contrast value based on the image signal obtained from the CCD 70 3, and stores it in the contrast detection unit holding unit 7 10 in association with the lens position information (Ste S 8 0 2).
  • the contrast detection unit 7 09 reads the lens position information from the contrast detection unit holding unit 7 10, and determines whether or not the position of the lens 70 4 is minimum (step S 8 0 3).
  • step S 8 0 3 If it is determined in step S 8 0 3 that there is no lens at the position where the lens position is the minimum, the contrast detection unit 7 0 9 requests a control from the motor rotation control unit 7 1 1 in step S 8 0 4. To shorten the lens position by a certain distance (step S 8 0 4).
  • the distance that the lens position moves in step S 80 3 is 0.1 cm. If the lens position is not minimum, the process returns from step S 8 0 4 to step S 8 0 2.
  • step S 8 0 3 When it is determined in step S 8 0 3 that the lens is at the position where the lens position is the minimum, the maximum contrast extraction unit 7 1 2 has the maximum contrast threshold value than the contrast detection unit holding unit 7 10. The lens position information is extracted and output to the distance information calculation unit 7 13 (step S 8 0 5).
  • the distance information calculation unit 7 13 calculates the viewpoint position information from the lens position information (step S 8 06).
  • the distance information calculation unit 7 13 outputs the viewpoint position information to the pixel conversion unit 10 6 (step S 8 0 7).
  • the distance information calculation unit 7 1 3 performs step S 8 0 6 016992
  • the lens position indicates the position of the lens when the lens is closest to C C D 700.
  • the focal length indicates the focal length corresponding to each lens position.
  • the distance information calculation unit 7 1 3 searches the lens position information output from the maximum contrast extraction unit 7 1 2 from the lens position in the left column of Table 1.
  • the distance information calculation unit 7 13 extracts the focal length corresponding to the searched lens position from the starboard focal length, and outputs it to the pixel conversion unit 106 as viewpoint position information.
  • the viewpoint position information is stored in the distance information calculation section 7 1 3 in the viewpoint position detection section 1 0 5. 16992
  • the enlargement ratio indicates the enlargement ratio corresponding to the viewpoint position indicated in the viewpoint position information in the left column. For example, when the viewpoint position is detected as 20 cm, the enlargement ratio used by the pixel conversion unit 106 is 0.64 times.
  • the lens position information is first converted from the focal position information, and the focal position information is used as the viewpoint position information. It is converted to enlargement rate information. However, it may be directly converted from lens position information to magnification information.
  • the image display unit 107 is a liquid crystal display device, and the resolution is X-axis pixel number 6 40 pixels and Y-axis pixel number 4 80 pixels. Further, the width of the display unit 302 in the X-axis direction is 6.4 cm, and the height in the Y-axis direction is 4.8 cm. Note that the description of this embodiment can be similarly applied even when the type, resolution, and size of the display device are different.
  • a 2 million pixel class digital camera image has an X-axis pixel count of 1600 pixels and a Y-axis pixel count of 1 2 0 0 pixels.
  • this image is displayed on the image display unit 10 7 of this embodiment, if only a part of the image is displayed, only about 1/6 can be displayed in the area ratio of the entire image, and the entire image is grasped. This is difficult. If the image is reduced to display the entire image, the resolution will be reduced to 1 Z 6 and the detailed information will be lost.
  • the number of pixels to be cut out and the start position of the cut-out are obtained, and the image is displayed so that the user can easily operate the mobile view screen and can easily view the image. I have to.
  • the calculation of the number of cutout pixels is a value obtained by dividing the resolution of the image display unit 107 by the enlargement ratio. For example, the viewpoint position is detected as 20 cm, and the magnification is 0. When calculated as 64 times, the cutout size in the X-axis direction is divided by 0.64 from 64 0 pixels, and the cutout size in the Y-axis direction is divided by 0.40 from 4.80 pixels. 7 5 0 pixels.
  • the clipping start position is the coordinates of the pixel used as a base point when the pixel conversion unit 106 uses the clipping size in the X-axis direction and the clipping size in the Y-axis direction.
  • the cutout start position is the upper left of the actual cutout area, but it may be the upper right, the lower left, the lower right, or any predetermined pixel position.
  • the upper left point of the image is set as the origin
  • the X-axis value increases in the direction
  • the Y-axis value increases in the downward direction
  • CPY is the Y-axis cutout start position (pixel)
  • RY is the vertical axis image resolution (pixels)
  • MY is the axis travel distance (cm)
  • 03 ⁇ is the display unit axis size (cm)
  • DRY is the display unit Y-axis resolution (pixels)
  • C PX is the X-axis cutting start position (pixel)
  • MX is the X axis travel distance (cm)
  • DRX means the display unit X-axis resolution (pixels).
  • the X-axis image resolution of the displayed image is 1600 pixels
  • the Y-axis image resolution is 1200 pixels
  • the movement information detected by the movement detector 5 0 1 is the Y-axis movement distance 1. 6 cm (downward)
  • X-axis travel distance is 1.28 cm (leftward)
  • X-axis size of display is 6.4 cm
  • Y-axis size is 4.8 cm
  • X-axis resolution of display is Assuming 640 pixels, Y-axis resolution of 480 pixels, and an enlargement ratio of 0.64
  • the Y-axis clipping start position is from the 475th pixel
  • the X-axis clipping start position is from the 100th pixel.
  • the clipping start position may be 0 or less, or the image size may be exceeded.
  • the end of the display portion 30 0 2 of the surface that has reached the end of the image is colored as shown in FIG. Can be notified.
  • the colored portion 1 3 0 2 of the display portion 3 0 2 is colored.
  • it indicates that the display image has reached the right edge of the image.
  • the same effect can be obtained by notifying the user that the end of the image has been reached in text display or graphic display.
  • the background color or a specific pattern may be added to the image for display.
  • the pixel conversion unit 1 0 6 includes an image cutout start position calculation unit 1 4 0 4, an enlargement rate calculation unit 1 4 0 2, an image cutout pixel number calculation unit 1 4 0 3, an image reading unit 1 4 0 5, and a resolution conversion unit Includes 1 4 0 6.
  • the enlargement ratio calculation unit 1402 calculates the enlargement ratio based on the viewpoint position information output from the viewpoint position detection unit 105.
  • the image cutout pixel number calculation unit 1 4 0 3 calculates the number of pixels of the image to be cut out based on the enlargement rate information output from the enlargement rate calculation unit 1 4 0 2 and the resolution information of the image display unit 1 0 7 To do.
  • the image cutout start position calculation unit 1 4 0 4 is based on the movement information output from the movement detection unit 1 0 4 and the image cutout pixel number calculation unit, and the image cutout pixel number information output from 1 4 0 3 Calculate the cutting start position.
  • the image reading unit 1 4 0 5 includes image cut-out start position information output from the image cut-out start position calculation unit 1 4 0 4 and image cut-out pixel number information output from the image cut-out pixel number calculation unit 1 4 0 3. Reads the designated pixel from the image holding unit 103.
  • the resolution conversion unit 1406 converts the image output from the image reading unit 1405 into an image having the resolution of the image display unit 107 and outputs the image.
  • the pixel conversion unit 10 6 receives viewpoint position information from the viewpoint position detection unit 10 5 and movement information from the movement detection unit 10 4 (step S 1 5 0 1). Then, the pixel conversion unit 10 6 calculates the enlargement ratio based on the movement information received from the movement detection unit 10 4 (step S 1 5 0 2). Then, the pixel conversion unit 10 6 calculates the number of cut-out pixels (step S 1 5 0 3).
  • the pixel conversion unit 106 calculates the image cutout start position (step S15504).
  • the pixel conversion unit 10 6 calculates in step S 1 5 0 3 from the image cutout start position calculated in step S 1 5 0 4 of the image stored in the image holding unit 1 0 3. Pixel data corresponding to the number of image cutout pixels is read (step S 1 5 0 5).
  • the pixel conversion unit 10 6 converts the resolution of the image cut out in step S 1550 and the resolution of the image display unit 1 07 (step S 1 5 0 6).
  • the pixel conversion unit 10 6 outputs the image converted in step S 1 5 06 to the image display unit 1 07 (step S 1 5 0 7).
  • the portable view kit includes a movement detection unit such as a mouse and a viewpoint position detection unit such as a CCD camera. Therefore, the user can perform a scroll operation by moving the portable view screen. In addition, the user can perform enlargement and reduction operations using general actions such as moving their face closer to or away from the portable viewfinder. In addition, by making the scroll distance on the screen the same as the actual movement distance of the actual portable view screen, a sense of operation is created when the image is viewed from a small window opened by the portable view screen.
  • the viewpoint position detection unit 105 When an infrared transmission / reception unit is used as the viewpoint position detection unit 105, for example, the viewpoint position detection unit is calculated based on the time required to receive the reflected infrared light emitted to the object 702, such as the user's face. The distance between 1 0 5 and object 7 0 2 is measured. In this case, in the portable view ⁇ 100 in FIG. An infrared transmission / reception unit may be provided instead of the camera 300.
  • the portable view kit according to the present invention is a series of operations such as moving the portable view kit and bringing the face closer to the view kit without scrolling, enlarging, and reducing operations multiple times. It can be done by operation.
  • the distance between the object 70 2 (assuming the user's face in the present embodiment) and the portable viewing eye is measured based on the contrast value.
  • the present invention is not limited to such a distance measurement. If the distance between the user's face and the portable view can be measured, the measurement can be performed by another method. May be.
  • the image signal output from the CCD 703 is analyzed, the contour of the human face or eye shape is recognized by software processing, and the correspondence table that defines the size of these images and the corresponding position information Refer to In this way, the distance between the user's face or eyes and the portable view eyelid may be measured. In this case, the distance can be measured more accurately by analyzing the contour of the user's face and measuring the distance.
  • by praying the eye shape and measuring the distance it is possible to perform image processing based on the eye position of the user and the distance of the portable view lamp. As a result, it is possible to more reliably generate a feeling of operation when viewing an image through a small window opened by a portable view ⁇ .
  • portable view rod in the second embodiment, as in the first embodiment, a portable view rod will be described as an example.
  • portable view ⁇ refers to a device that can display data such as image data and HTML documents. Includes mobile phones and PDAs.
  • Example of the appearance of the back surface of the portable view screen according to the second embodiment Detailed example of the movement detection unit, Example of the movement detection routine of the movement detection unit, Detailed example of the viewpoint position detection unit, View point detection routine of the viewpoint position detection unit
  • the calculation examples of the start position are the same as those in Embodiment 1, Fig. 4, Fig. 5, Fig. 6, Fig. 7, Fig. 8, Table 1, Table 2, Fig. 9, Equations 1 and 2, and Fig. 10. Explanation is omitted.
  • FIG. 13 shows a configuration example of the portable view box according to the second embodiment.
  • the control unit 1601 controls the entire portable view basket of the present embodiment.
  • the control unit 16 0 1 stores information in the storage unit 1 6 0 2.
  • the image holding unit 1 6 0 3 holds an image displayed by the portable viewer.
  • the image holding unit 160 is a flash memory, for example.
  • the movement detection unit 1 6 0 4 detects movement information of the portable view screen 1 6 0 0.
  • the movement detection unit 160 has the same configuration as that of a personal computer mouse.
  • the viewpoint position detector 1 6 0 5 functions as a position detector that detects the viewpoint position of the user. Also in the present embodiment, the distance between the portable view and the user's face is measured using a CCD camera, and the user's visual point position is detected.
  • the pixel conversion unit 1606 reads the image held in the image holding unit 1600.
  • the pixel conversion unit 160 6 generates an image based on the movement information detected by the movement detection unit 160 and the viewpoint position information detected by the viewpoint position detection unit 160. Cut out, convert the resolution of the cut out image, enlarge / reduce, and output.
  • the image display unit 16 07 displays the image information output from the pixel conversion unit 16 06.
  • the above-described units are coupled to each other via bus lines 1 6 10. Note that the image display unit 16 07 and the pixel conversion unit 16 06 may be configured to be included in the pixel conversion display unit 16 12.
  • the display image holding operation unit 1 6 0 8 is configured to include a button pressed by the user.
  • the display image holding operation unit 1 6 0 8 issues a request to the pixel conversion unit 1 6 0 6 to stop updating the movement information and the viewpoint position information when the user presses a button or the like.
  • the image holding unit 1603 may be configured to include a storage medium such as an HDD or a memory card.
  • the movement detection unit 1 6 0 4 may be a movement detection unit such as a jail mouth.
  • the viewpoint position detection unit 1 6 0 5 may include a distance measuring device using infrared rays or the like.
  • the display unit 1 7 0 2 displays image information in the image display unit 1 6 0 7.
  • the portable view rod 1 600 has a C CD camera 1 700.
  • the display image holding operation unit 1 6 0 8 includes an operation unit 1 7 0 4 such as a button.
  • Pixel conversion unit 1 6 0 6 is movement information holding unit 1 8 0 4 It includes a position calculator 1 8 0 5, an enlargement ratio calculator 1 8 0 2, an image cut-out pixel number calculator 1 8 0 3, an image reader 1 8 0 6, and a resolution converter 1 8 0 7.
  • the enlargement ratio calculation unit 1 8 0 2 is based on the viewpoint position information output from the viewpoint position detection unit 1 6 0 5 To calculate the magnification.
  • the image cutout pixel number calculation unit 1800 is based on the enlargement rate information output from the enlargement rate calculation unit 1800 and the resolution information of the image display unit 1600 and the number of pixels of the image to be cut out Is calculated.
  • the movement information holding unit 1804 stores the movement information received from the movement detection unit 1604.
  • the movement information holding unit 1804 outputs the held movement information.
  • the image cutout start position calculation unit 1805 is based on the movement information output from the movement information holding unit 1804 and the image cutout pixel number information output from the image cutout pixel number calculation unit 1880. Calculate the image cropping start position.
  • the image reading unit 1 8 0 6 is the image cropping start position calculation unit
  • the pixel specified by the image cutout pixel number information output from the image cutout start position information output from 1805 and the image cutout pixel number calculation unit 1800 is read out from the image holding unit 1600.
  • the resolution converter 1 8 0 7 is the image output from the image reading unit 1 8 0 6 The image is converted into an image having the resolution of the image display unit 1 6 0 7 and output.
  • the movement information holding unit 1804 receives the movement information from the movement detection unit 1604.
  • the enlargement factor calculation unit 180 2 receives the viewpoint position information from the viewpoint position detection unit 160 (step S 1 90 1).
  • the movement information holding unit 1 8 0 4 determines whether or not the operation unit 1 7 0 4 of the display image holding operation unit 1 6 0 8 is pressed (step S 1 90 2). If it is determined in step S 1 90 2 that the display image holding operation unit 1 6 0 8 has not been pressed, the movement information holding unit 1 8 0 4 is moved when the movement information is not held. Keep information.
  • the movement information holding unit 1804 updates the movement information (step S 1903).
  • the enlargement factor calculation unit 180.sub.2 calculates the enlargement factor based on the movement information received from the movement detection unit 160.sub.4 (step S1990.sub.4).
  • step S 1 90 2 If it is determined in step S 1 90 2 that the display image holding operation unit 1 6 0 8 is pressed, the process proceeds to step S 1 90 5.
  • step 190 the image cutout pixel number calculation unit 1803 calculates the number of image cutout pixels using the enlargement ratio information output from the enlargement ratio calculation unit 18082 (step S 1 9 0 5).
  • the image cutout start position calculation unit 1805 calculates the image cutout start position (step S 1960).
  • the image reading unit 1 8 06 is the image cut-off start position obtained by calculating the image stored in the image holding unit 1 6 0 3 in step S 1 90 6.
  • the number of image cut-out pixels calculated in step SI 90 5 is read (step S 1 90 7).
  • step S 1 90 8 the resolution conversion unit 1 8 07 converts the resolution of the image cut out in step S 1 90 7 into the resolution of the image display unit 1 6 0 7.
  • the resolution converter 1 80 07 outputs the image converted in step S 1 90 8 to the image display unit 16 60 (step S 1 90 9).
  • the portable viewfinder performs pixel conversion based on the received movement information and viewpoint position information when the operation unit 1701 of the display image holding operation unit 1600 is not pressed.
  • the operation sound 13 1 7 0 1 is pressed, pixel conversion is performed based on the movement information used when processing this routine and the received viewpoint position information.
  • the user stops the update of the movement information by pressing the operation unit 1 7 0 4 of the display image holding operation unit 1 6 0 8. Therefore, the user can move the portable view to a position that is easy for the user to use without changing the display position displayed at that time.
  • the portable view of the present embodiment further includes a display image holding operation unit 1 6 0 8, and includes a pixel conversion unit.
  • 1 6 0 6 further includes a movement information holding unit 1 8 0 4.
  • the user can perform a scrolling operation by moving the portable view basket.
  • the user can perform enlargement and reduction operations using general actions such as moving their face closer to or away from the portable viewfinder.
  • the user can stop the update of movement information and viewpoint position information by operating an operation unit such as a button. Shi Therefore, the user can move the portable view screen to a position that is easy for the user to use without changing the range of the image displayed at that time. (Embodiment 3)
  • a portable view bag will be described as an example.
  • a portable view device refers to a device that can display image data, data such as HTML documents, and includes mobile phones and PDAs.
  • Example of appearance of back side of portable view lamp according to embodiment 3 detailed example of movement detection unit, example of movement detection routine of movement detection unit, detailed example of viewpoint position detection unit, viewpoint position detection rule of viewpoint position detection unit Chin example, correspondence table example used by distance information calculation unit for focal length calculation, explanation of image display unit, calculation of number of extracted pixels by pixel conversion unit and calculation example of extraction start position are described in the first embodiment. Since this is the same as FIG. 4, FIG. 5, FIG. 6, FIG. 7, FIG. 8, Table 1, Equations 1 and 2, and FIG.
  • FIG. 17 shows a configuration example of the portable view box according to the third embodiment.
  • the control unit 20 0 1 controls the entire portable view 2 0 0 0 of this embodiment.
  • the control unit 2 0 0 1 stores information in the storage unit 2 0 0 2.
  • the image holding unit 2 0 0 3 holds an image displayed by the portable view screen 2 0 0 0.
  • the image holding unit 20 0 3 is, for example, a flash memory.
  • the movement detector 2 0 0 4 detects movement information of the portable view screen 2 0 0 0.
  • the movement detector 2 0 4 has the same configuration as that of a personal computer mouse.
  • the viewpoint position detector 2 0 0 5 is the user's viewpoint position. It works as a position detection unit that detects. Also in this embodiment, the distance between the portable viewing eye and the user's face is measured using a CCD camera to detect the user's viewpoint position.
  • the pixel converter 2 0 06 reads the image held in the image holding unit 2 0 3. Further, based on the movement information detected by the movement output unit 20 0 4 and the viewpoint position information detected by the viewpoint position detection unit 2 0 0 5, the image is extracted and the resolution of the extracted image is converted. Then, enlarge / reduce and output.
  • the image display unit 20 07 displays the image information output from the pixel conversion unit 20 06.
  • the viewpoint detection start operation unit 2 0 0 8 is configured to include a button pressed by the user.
  • the viewpoint position detection unit 2 0 5 detects reference viewpoint position information.
  • the above-described units are coupled to each other via a bus line 2 0 10.
  • the image display unit 2 07 and the pixel conversion unit 2 0 06 may be configured to be included in the pixel conversion display unit 2 0 12.
  • the image holding unit 203 may include a storage medium such as an HDD or a memory card.
  • the movement detector 2 0 4 may be a movement detector such as a gyro.
  • the viewpoint position detection unit 205 may include a distance measurement device using infrared rays or the like.
  • the display unit 2 1 0 2 displays image information in the image display unit 2 0 7.
  • the portable view basket 2 00 0 0 includes a C CD camera 2 1 0 3.
  • the viewpoint detection start operation unit 2 0 0 8 includes an operation unit 2 1 0 4 such as a button.
  • the pixel conversion unit 2 0 0 6 includes a reference viewpoint position information holding unit 2 2 0 2, an image extraction start position calculation unit 2 2 0 5, an enlargement rate calculation unit 2 2 0 3, and an image extraction pixel number calculation unit 2 2 0 4. Includes an image reading unit 2 2 0 6 and a resolution conversion unit 2 2 0 7.
  • the reference viewpoint position information holding unit 2 2 0 2 receives the viewpoint position information received from the viewpoint position unit 2 0 0 5 when the operation unit 2 1 0 4 of the viewpoint detection start operation unit 2 0 0 8 is pushed down Hold on.
  • the reference viewpoint position information holding unit 2 2 0 2 outputs the held viewpoint position information.
  • the enlargement ratio calculation unit 2 2 0 3 performs enlargement based on the viewpoint position information output from the viewpoint position detection unit 2 0 0 5 and the reference viewpoint position information output from the reference viewpoint position information holding unit 2 2 0 2. Calculate the rate.
  • the image cutout pixel number calculation unit 2 2 0 4 calculates the number of pixels of the image to be cut out based on the enlargement rate information output from the enlargement rate calculation unit 2 2 0 3 and the resolution information of the image display unit 2 0 7. .
  • the image cutout start position calculation unit 2 2 0 5 is based on the movement information output from the movement detection unit 2 0 4 and the image cutout pixel number information output from the image cutout pixel number calculation unit 2 2 0 4.
  • the image cutout start position is calculated.
  • Image reading unit 2 2 0 6 is from image cropping start position calculation unit 2 2 0 5
  • the pixel specified by the output image cutout pixel position information output from the output image cutout pixel position information and the image cutout pixel number calculation unit 2 203 is read from the image holding unit 2 0 3.
  • the resolution converter 2 2 0 7 converts the image output from the image reading unit 2 2 0 6 into an image having the resolution of the image display unit 2 0 7 and outputs it.
  • the viewpoint position difference information in the left column of Table 3 is stored in the reference viewpoint position information holding section 2 2 0 2 from the viewpoint position information output by the distance information calculation section (not shown) in the viewpoint position detection section 2 0 5. Indicates the value obtained by subtracting the reference viewpoint position information.
  • the enlargement ratio in the right column of Table 3 shows the enlargement ratio corresponding to the viewpoint position difference information.
  • viewpoint position detection unit 205 has the same configuration as the viewpoint position detection unit 105 in FIG.
  • the viewpoint position difference 1 is searched.
  • the enlargement ratio is 0.64, so the enlargement ratio is determined to be 0.64 times.
  • the reference viewpoint position information holding routine is started when the operation of the viewpoint detection start operation unit 2 0 0 8 is pressed.
  • the reference viewpoint position information holding unit 2 2 0 2 holds the received viewpoint position information as reference viewpoint position information. If the reference viewpoint position information is already held, the reference viewpoint position information is updated (step S 2 4 0 1).
  • the enlargement ratio calculator 2 2 0 3 receives viewpoint position information from the viewpoint position detector 2 0 5, and the image cutout start position calculator 2 2 0 5 receives movement information from the movement detector 2 0 0 4. Receive (step S 2 5 0 1).
  • the enlargement ratio calculator 2 2 0 3 calculates the enlargement ratio from the value obtained by subtracting the reference viewpoint position information output from the reference viewpoint position information holding section 2 2 0 2 from the received viewpoint position information (step S 2 5 0 2). Then, the image cutout pixel number calculation unit 2 2 0 4 calculates the number of image cutout pixels (step S 2 5 0 3).
  • the image cutout start position calculation unit 2205 calculates the image cutout start position using the received movement information and the image cutout pixel number information output from the image cutout pixel number calculation unit 2204. Step S 2 5 0 4).
  • the image reading unit 2 2 0 6 calculates the image clipping pixel count from the image stored in the image holding unit 2 2 0 3 from the image clipping start position output from the image clipping start position calculation unit 2 2 0 5.
  • the number of image cut-out pixels output from the unit 2 2 0 4 is read (step S 2 5 0 5).
  • the pixel conversion unit 2 2 0 7 converts the image cut out in step S 2 5 0 5 into an image having the resolution of the image display unit 2 0 7 (step S 2 5 0 6).
  • the resolution converter 2 2 0 7 outputs the image converted in step S 2 5 0 6 to the image display 2 0 7 (step S 2 5 0 7).
  • the portable view kit of the present embodiment further includes a viewpoint detection start operation unit 2 0 0 8 and a pixel conversion unit 2 0 0 6 Further includes a reference viewpoint position information holding unit 2 2 0 2.
  • the user can perform a scrolling operation by moving the portable view basket.
  • the user can perform enlargement and reduction operations using general actions such as moving their face closer to or away from the portable viewfinder.
  • the user can change the reference viewpoint position, which serves as a reference for the enlargement ratio, to a predetermined position by operating the operation unit such as a button.
  • the portable view box in each of the above embodiments may be a mobile phone having a camera function.
  • the portable view box of the first embodiment may further include a display image holding operation unit and a viewpoint detection start operation unit, and the pixel conversion unit further includes a movement information holding unit and a reference viewpoint position information holding unit. And may be included.
  • control unit the movement detection unit, the viewpoint position detection unit, the pixel conversion unit, and the image display unit of the portable view are software. It may be done.
  • the image holding unit may store received image data in the case of a mobile phone, for example.
  • the image holding unit may store image data read from the external memory.
  • the video equipment of the present invention can perform enlargement and reduction of a displayed image by a series of operations such as moving the user and bringing the face closer to the user. Therefore, the video equipment of the present invention is useful for mobile phones, PDAs and the like.

Abstract

画面上に映像を表示する映像機器は、表示される画像の拡大及び縮小を、その移動及びそれに使用者が近づくことなどの操作で行う。画像保持部は、表示される画像の情報を保持する。移動検出部は、映像機器の移動を検出する。位置検出部は、使用者の位置を検出する。画素変換表示部は、画像保持部に保持されている画像情報を読み出し、移動検出部が検出した移動情報と位置検出部が検出した位置情報に基づいて、画像情報の所定範囲を切り出し、拡大・縮小加工して、画像を表示する。

Description

明 細 書
映像機器 技術分野
本発明はスクロール、 表示される画像の拡大及び縮小を複数回のボタ ン操作をすることなく、 機器を移動させること及び機器に顔を近づける ことなどの一連の操作で行うことが可能な映像機器に関する。 背景技術
携帯型ビューヮは、携帯電話や Personal Digital Ass i s tance (P D A) などに代表される。
携帯型ビューヮにおいて、 ディスプレイの表示可能画素数を超えるデ ジタルカメラの画像を閲覧する際、 従来では、 次のような操作が行われ ている。
画像を閲覧するために、 複数回のポタン操作により、 スクロール、 拡 大及び縮小が行なわれる。 たとえば、 VGAの画素数である横 640画 素、 縦 48 0画素を持つディスプレイの場合、 近年の 4 0 0万画素クラ スのデジタルカメラの画像全体の 1 3分の 1程度の画素しか表示するこ とができない。 したがって、 使用者は、 通常、 ディスプレイの解像度に ダウンサンプリングした画像を閲覧し、 注視したい部分を拡大し、 スク ロールして閲覧している。
図 2は、 スクロール、 拡大及び縮小操作を行い画像の閲覧をする携帯 型ピューヮの一例である。
携帯型ビューァ 2 0 0において、 表示部 2 0 1は画像を表示し、 スク ロールポタン 2 0 2は、 スクロール操作を行うために用いられ、 拡大縮 小ポタン 2 0 3は、 拡大及び縮小を行うために用いられる。
使用者は、 表示部 2 0 1に表示される画像を閲覧する際、 画像を拡大 するために拡大縮小ポタン 2 0 3を操作し、 画像の拡大率を所定の拡大 率に変更する。 次に、 使用者は、 スクロールポタン 2 0 2を用いて、 所 定の位置に所定の画像が表示されるように表示位置をずらす。 このよう にして、 使用者が、 スクロ一ルポタン 2 0 2と拡大縮小ポタン 2 0 3を 複数回押下することにより、 使用者が所望する、 拡大率及び表示位置で 画像を表示できる。
しかし、 デジタルカメラなどの解像度が上がるにつれ、 スクロール、 拡大及び縮小の操作回数が増え、 操作が大変煩雑になってきている。 ま た、 携帯電話や P D Aなどの機能向上により、 従来パソコン画面にて閲 覧していた表計算や H T M Lコンテンッ等を、 比較的小さなディスプレ ィで閲覧する機会が増えている。 このような状況に対応する為、 携帯型 ビューヮにパソコンのマウス等の移動検出デバイスを搭載することによ り、 スクロール操作を簡便にする手法が考案されている。 この手法は、 例えば、 特開平 7 - 2 9 5 9 3 7号公報に開示されている。
しかし、 前述したように表示デバイスの解像度を超える画像や H T M Lコンテンッ等を閲覧する際には拡大及び縮小のポタン操作が必要とな り、 操作が煩雑である。 すなわち、 縮小表示しているため、 画像の表示 や、 H T M Lコンテンツ等の文字の表示において、 画像や文字の解像度 が低くなり、 視認性が悪くなる。 したがって、 使用者は、 表示内容及び 確認したい内容に合わせ頻繁にスクロール、 拡大及び縮小操作を行って いる。 発明の開示 本発明の映像機器は、 表示される画像の拡大及び縮小を、 その移動及 びそれに使用者が近づくことなどの操作で行うもので、 画像保持部、 移 動検出部、 位置検出部、 画素変換表示部を含む。
画像保持部は、 表示される画像の情報を保持する。 移動検出部は、 映 像機器の移動を検出する。 位置検出部は、 使用者の位置を検出する。 画 素変換表示部は、 画像保持部に保持されている画像情報を読み出し、 移 動検出部が検出した移動情報と位置検出部が検出した位置情報に基づい て、 画像情報の所定範囲を切り出し、 拡大 ·縮小加工して、 画像を表示 する。 図面の簡単な説明
図 1は、 実施の形態 1による携帯型ビューヮの構成を示す。
図 2は、 従来のスクロール、 拡大及び縮小操作を行い画像の閲覧をす る携帯型ビューヮを示す。
図 3は、 実施の形態 1による携帯型ビューヮのおもて面の外観を示す 斜視図である。
図 4は、 実施の形態 1、 実施の形態 2、 実施の形態 3による携帯型ピ ユーヮの裏面の外観を示す斜視図である。
図 5は、 実施の形態 1、 実施の形態 2、 実施の形態 3による移動検出 部の構成を示す。
図 6は、 実施の形態 1による移動検出部の移動検出ルーチンを示す。 図 7は、 実施の形態 1による視点位置検出部の構成を示す。
図 8は、 実施の形態 1による視点位置検出部の視点位置検出ルーチン を示すフローチャートである。
図 9は、 実施の形態 1、 実施の形態 2、 実施の形態 3による表示部を 示す。
図 1 0は、 実施の形態 1、 実施の形態 2、 実施の形態 3による使用者 に画像の端に到達したことを通知する表示例を示す。
図 1 1は、 実施の形態 1による画素変換部の構成を示す。
図 1 2は、 実施の形態 1による画素変換部の画素変換ルーチンを示す フローチヤ一卜である。
図 1 3は、 実施の形態 2による携帯型ビューヮの構成を示す。
図 1 4は、 実施の形態 2による携帯型ビューヮのおもて面の外観を示 す斜視図である。
図 1 5は、 実施の形態 2による画素変換部の構成を示す。 ' 図 1 6は、 実施の形態 2による画素変換部の画素変換ル一チンを示す フローチヤ一卜である。
図 1 7は、 実施の形態 3による携帯型ビューヮの構成を示す。
図 1 8は、 実施の形態 3による携帯型ビュ一ヮのおもて面の外観を示 す斜視図である。
図 1 9は、 実施の形態 3による画素変換部の構成を示す。
図 2 0は、 実施の形態 3による画素変換部が行う基準視点位置情報保 持ルーチンを示すフローチヤ一トである。
図 2 1は、 実施の形態 3による画素変換部の画素変換ルーチンを示す フローチャートである。 発明を実施するための最良の形態
(実施の形態 1 )
実施の形態 1では携帯型ビューヮを例にして、 本発明の映像機器につ いて説明する。 携帯型ビューヮとは、 画像データや H T M L.文書等のデ —夕を表示できる機器を指し、 携帯電話や P D Aなども含む。
なお、 以下では携帯型ビュ一ヮを例に説明するが、 携帯型でない大型 の映像機器 (大画面液晶 T Vやプラズマディスプレイ装置等) について も本発明を利用することが可能である。
図 1は、 実施の形態 1による携帯型ビューヮの構成を示す。
制御部 1 0 1は、 本実施の形態の携帯型ビューヮ 1 0 0全体の制御を 行い、 記憶部 1 0 2に情報を格納する。 画像保持部 1 0 3は、 携帯型ビ ュ一ヮ 1 0 0が表示する画像を保持する。 本実施の形態では、 画像保持 部 1 0 3は、 たとえば、 フラッシュメモリである。
移動検出部 1 0 4は、 携帯型ビュ一ヮの移動情報を検出する。 本実施 の形態では、 移動検出部 1 0 4は、 パソコンのマウスと同様の構成を有 する。 視点位置検出部 1 0 5は、 使用者の視点位置を検出する位置検出 部として働く。 本実施の形態では、 C C Dカメラを用いて、 携帯型ビュ —ヮと使用者の顔までの距離が測定されて使用者の視点位置が検出され る。
画素変換部 1 0 6は、 画像保持部 1 0 3に保持されている画像を読み 出す。 さらに、 画素変換部 1 0 6は、 移動検出部 1 0 4にて検出された 移動情報と視点位置検出部 1 0 5にて検出された視点位置情報に基づい て、 画像を切り出し、 切り出した画像の解像度を変換して、 拡大 ·縮小 加工して、 出力する。
画像表示部 1 0 7は、 画素変換部 1 0 6より出力される画像情報を表 示するために働く。上述の各部は、バスライン 1 0 8で結合されている。 なお、 画像表示部 1 0 7と画素変換部 1 0 6は、 画素変換表示部 1 1 2に含まれて構成されてもよい。
なお、 画像保持部 1 0 3は、 H D Dやメモリーカード等の記憶媒体を 含んで構成されてもよい。
なお、 移動検出部 1 0 4はジャィ口等の移動検出装置で構成されても よい。
なお、 視点位置検出部 1 0 5は、 赤外線等を用いる距離測定装置でも よい。
さらに、 図 3を用いて携帯型ビューヮのおもて面の外観の例を説明す る。
使用時には、 携帯型ビューヮ 1 0 0のおもて面 3 0 1が使用者に向い ているとする。 表示部 3 0 2は、 画像表示部 1 0 7において、 画像情報 を表示する。
携帯型ビューヮ 1 0 0は、 カメラ部として C C Dカメラ 3 0 3を備え ている。
また、 図 4を用いて携帯型ビューヮ 1 0 0の裏面 4 0 1の外観の例を 説明する。
使用時には、 携帯型ビューヮ 1 0 0の裏面 4 0 1が、 机などの平坦な 面上に置かれるとする。 ポール 4 0 2は、 携帯型ビューヮの移動に伴い 回転をする。 携帯型ビュ一ヮの Y軸方向の移動に伴い、 ポール 4 0 2が 回転する。 そのとき、 ポール 4 0 2の回転が、 Y軸検出用ローラ 4 0 3 に伝わり Y軸移動検出用ローラ 4 0 3が回転する。 また、 携帯型ビュー ヮの X軸方向の移動に伴いポール 4 0 2が回転する。 そのとき、 ポール 4 0 2の回転が X軸検出用ローラ 4 0 4に伝わり回転する。 回転検出部 4 0 5は、 Y軸移動検出用口一ラ 4 0 3及び X軸移動検出用ローラ 4 0 4の回転を検出し移動情報を出力する。 ポール支え用ローラ 4 0 6は、 ポール 4 0 2が Y軸移動検出用ローラ 4 0 3及び X軸移動検出用ローラ 4 0 4に常に密着するように支える。 次に図 5を用いて移動検出部 1 0 4の構成の例を説明する。
移動検出部 1 0 4は、 Y軸移動検出用ローラ 4 0 3、 X軸移動検出用 ローラ 4 0 4、 回転検出部 4 0 5を含む。 回転検出部 4 0 5は、 Y軸移 動検出用ローラ 4 0 3と X軸移動検出用ローラ 4 0 4のそれぞれの回転 に対応する情報を検出する。 回転検出部 4 0 5は、 これらの情報に基づ く移動情報を、 図 1の画素変換部 1 0 6に出力する。
さらに図 6を用いて、 移動検出部 1 0 4の移動検出ルーチンの例を説 明する。
使用者が携帯型ビューヮを平面上で移動させると、 Y軸移動検出用口 —ラ 4 0 3と、 X軸移動検出用ローラ 4 0 4が移動に伴い回転し、 回転 検出部 4 0 5が回転を検出する (ステツプ S 6 0 1 ) 。
次に、 回転検出部 4 0 5は各ローラの回転角を移動情報に変換し出力 する (ステップ S 6 0 2 ) 。
次に図 7を用いて視点位置検出部 1 0 5の例を詳細に説明する。 本実施の形態では、 視点位置である携帯型ビューヮ 1 0 0と使用者の 顔までの距離を測定するために、 C C Dとその前面に取り付けられたレ ンズを用いる。 視点位置検出部 1 0 5は、 物体 7 0 2を検出する。 実際 の使用時は、 物体 7 0 2は、 使用者の顔などである。
C C D 7 0 3は、入射した光を画像信号に変換する。レンズ 7 0 4は、 物体 7 0 2の像が C C D 7 0 3上に結ばれるように配置される。 レンズ 固定金具 7 0 5は、 レンズ 7 0 4を固定する。 回転軸 7 0 6が、 回転す ることにより、 それに接続されているレンズ固定金具 7 0 5が、 左右に 動く。 レンズ移動用モータ 7 0 7の回転により、 回転軸 7 0 6が回転す る。 したがって、 レンズ移動用モ一夕 7 0 7の回転が、 レンズ 7 0 4を 移動させる。 レンズ移動幅 7 0 8は、 レンズ移動用モータ 7 0 7の回転によるレン ズ 7 0 4の移動幅を示す。 レンズ移動幅 7 0 8の最大値を最大移動幅と 呼ぶ。 レンズ位置が最も物体 7 0 2に近い状態をレンズ位置の最大、 レ ンズ位置が最も C C D 7 0 3に近い状態をレンズ位置の最小とする。 ま た、 本実施の形態では、 最大移動幅は 1 . 0 c mとする。
コントラスト検出部 7 0 9は、 C C D 7 0 3より出力される画像信号よ りコントラスト値を生成する。 コントラスト検出部用保持部 7 1 0は、 コントラスト検出部 7 0 9にて生成されるコントラスト値ゃレンズ 7 0 4の位置情報を保持する。
モータ回転制御部 7 1 1は、 コントラスト検出部 7 0 9からの要求に よりレンズ移動用モータ 7 0 7の回転を制御する。 最大コントラスト抽 出部 7 1 2は、 コントラスト検出部用保持部 7 1 0に保持されているコ ン卜ラス卜値のうちから最大コントラスト値を抽出する。 距離情報演算 部 7 1 3は、 最大コントラスト抽出部 7 1 2より出力されるレンズ位置 情報を、 物体 7 0 2とレンズ 7 0 4間の距離情報に変換し、 視点位置情 報として出力する。 すなわち、 最大コントラストが得られるとき、 物体 7 0 2に焦点が合ったと考えてよいので、 その焦点距離が視点位置情報 に対応する。
なお、 本実施の形態では、 C C Dカメラは、 レンズ 7 0 4および C C D 7 0 3を含むとする。
さらに図 8を用いて視点位置検出部 1 0 5の視点位置検出ルーチンの 例を説明する。
視点位置検出ル一チンが開始されると、 まず、 ステップ S 8 0 1にて コントラスト検出部 7 0 9は、 モー夕回転制御部 7 1 1に制御要求を出 す。モータ回転制御部 7 1 1は、レンズ移動用モータ 7 0 7を回転させ、 レンズ 7 0 4位置が最大となるようにレンズ 7 0 4の移動をさせ、 移動 したレンズ 7 0 4のレンズ位置情報をコントラスト検出部用保持部 7 1 0に格納する (ステップ S 8 0 1 ) 。
次に、 コントラスト検出部 7 0 9は、 C C D 7 0 3より得られる画像 信号に基づいて、 コントラスト値を抽出し、 レンズ位置情報と関連付け て、コントラスト検出部用保持部 7 1 0に保持する(ステツプ S 8 0 2 )。 次に、 コントラスト検出部 7 0 9は、 コントラスト検出部用保持部 7 1 0よりレンズ位置情報を読み出し、 レンズ 7 0 4の位置が最小である かを判定する (ステップ S 8 0 3 ) 。
ステップ S 8 0 3にて、 レンズ位置が最小となる位置にレンズがない と判定した場合は、ステップ S 8 0 4にてコントラスト検出部 7 0 9は、 モータ回転制御部 7 1 1に制御要求を出し、 レンズ位置を一定距離短く する (ステップ S 8 0 4 ) 。
本実施の形態では、 ステップ S 8 0 3にてレンズ位置が移動する距離 は 0 . 1 c mとする。 レンズ位置が最小でない場合、 ステップ S 8 0 4 から、 ステップ S 8 0 2に戻る。
ステップ S 8 0 3にて、 レンズ位置が最小となる位置にレンズがある と判定した場合、 最大コントラスト抽出部 7 1 2は、 コントラスト検出 部用保持部 7 1 0よりコントラス卜値が最大となるレンズ位置情報を抽 出し、 距離情報演算部 7 1 3に出力する (ステップ S 8 0 5 ) 。
次に、 距離情報演算部 7 1 3は、 レンズ位置情報より視点位置情報を 演算して得る (ステップ S 8 0 6 ) 。
次に、 距離情報演算部 7 1 3は、 視点位置情報を画素変換部 1 0 6に 出力する (ステップ S 8 0 7 ) 。
次に表 1を用いて距離情報演算部 7 1 3が、 ステップ S 8 0 6におい 016992
10 て、 焦点距離の演算に用いる対応表の例の説明をする。
レンズ位置は、 レンズが C C D 7 0 3に一番近い状態を基点とした場 合のレンズの位置を示す。 焦点距離は、 それぞれのレンズ位置に対応す る焦点距離を示す。
距離情報演算部 7 1 3は、 最大コントラスト抽出部 7 1 2より出力さ れるレンズ位置の情報を、 表 1の左欄のレンズ位置より検索する。 距離 情報演算部 7 1 3は、 検索されたレンズ位置に対応した焦点距離を右攔 の焦点距離から抽出し、 視点位置情報として画素変換部 1 0 6に出力す る。
表 1
Figure imgf000012_0001
次に、 表 2を用いて画素変換部 1 0 6が拡大率の演算に用いる対応表 の例の説明をする。
視点位置情報は、 視点位置検出部 1 0 5内の距離情報演算部 7 1 3が 16992
11 出力する視点位置情報から得る。 拡大率は、 左欄の視点位置情報に示さ れる視点位置と対応する拡大率を示している。 例えば、 視点位置が 2 0 c mと検出された場合は、 画素変換部 1 0 6が使用する拡大率は 0 . 6 4倍である。
なお、 本実施の形態では、 視点位置により画像の拡大率が変化すると いう観点に伴い、 まずレンズ位置情報から焦点位置情報へ変換し、 その 焦点位置情報を視点位置情報として用い、 視点位置情報から拡大率情報 に変換している。 しかし、 直接、 レンズ位置情報から拡大率情報へ変換 してもよい。
表 2
Figure imgf000013_0001
次に図 9を用いて画像表示部 1 0 7の説明を行う。
本実施の形態では、画像表示部 1 0 7は、液晶ディスプレイ装置とし、 さらに解像度を X軸画素数 6 4 0画素、 Y軸画素数 4 8 0画素とする。 また、 表示部 3 0 2の X軸方向幅は 6 . 4 c m、 Y軸方向高さは 4 . 8 c mとする。 なお、 表示デバイスの種類、 解像度及びサイズが異なる場 合でも、 同様に本実施の形態の説明が適用できる。
本実施の形態の表示部 3 0 2を用いる場合、 X軸画素数 6 4 0画素、 Y軸画素数 4 8 0画素より多くの画素を持つ画像はそのままでは表示で きない。 そのため、 画像の一部のみを表示、 もしくは画像全体を X軸画 素数 6 4 0画素、 Y軸画素数 4 8 0画素内に収まるように縮小し表示す る。 しかし、 画像の一部のみを表示する場合は、 画像全体が把握できな く、また縮小処理を行うと画像の詳細情報が失われてしまう。そのため、 従来では、 使用者は、 頻繁にスクロール、 拡大及び縮小操作を行うこと になる。
例えば、 2 0 0万画素クラスのデジタルカメラ画像は、 X軸画素数 1 6 0 0画素、 Y軸画素数 1 2 0 0画素を持つ。 この画像を本実施の形態 の画像表示部 1 0 7に表示する場合、 画像の一部のみを表示させると、 全体の画像の面積比で約 1 / 6しか表示できず、 画像全体を把握するこ とが難しい。 また画像を縮小して、 画像全体を表示する場合は、 解像度 を 1 Z 6に落として表示することになるため、 詳細な情報が失われてし まう。
本実施の形態では、 次に説明するように、 画像の切り出し画素数と切 り出し開始位置とを求めて、 画像を表示することにより、 使用者が携帯 ビューヮを操作しやすく、 画像を見やすいようにしている。
次に下記の (式 1 ) と (式 2 ) を用いて画素変換部 1 0 6による切り 出し画素数の演算と切り出し開始位置の演算例の説明を行う。
切り出し画素数の演算は、 画像表示部 1 0 7の解像度を拡大率で除算 した値である。たとえば、視点位置が 2 0 c mと検出され、拡大率が 0 . 64倍と演算された場合、 X軸方向の切り出しサイズは、 64 0画素か ら 0. 64を除算し 1 0 0 0画素、 Y軸方向の切り出しサイズは 4 8 0 画素から 0. 64を除算し 7 5 0画素となる。
切り出し開始位置とは、 画素変換部 1 0 6による X軸方向の切り出し サイズと Y軸方向の切り出しサイズを用いた画像の切り出しの際に基点 とする画素の座標である。
本実施の形態では、 切り出し開始位置を実際に切り出す領域の左上と しているが、 右上、 左下、 右下、 または定められた任意の画素位置でも 良い。
また、 本実施の形態では、 画像上の位置を示す場合に、 画像の左上の 点を原点とし、 お方向に X軸値が増え、 下方向に Y軸値が増えることと する。
切り出し開始位置の演算は、 次の式を用いる。
C PY= (RYZ2) + ( (MY/D S Y) x D RY ÷ E R) 一 ( (DRY/2) ÷ E R) (式 1 )
C P X= (RXZ2) + ( (MX/D S X) x D RX ÷ E R) 一 ( (D R X/ 2 ) ÷ E R) (式 2 ) ここで、
C PYは Y軸切り出し開始位置 (画素) 、
RYは Υ軸画像解像度(画素) 、
MYは Υ軸移動距離 (c m) 、
03丫は表示部¥軸サィズ (cm) 、 DRYは表示部 Y軸解像度(画素)、
E Rは拡大率、
C PXは X軸切り出し開始位置 (画素) 、
RXは X軸画像解像度 (画素) 、
MXは X軸移動距離 (cm) 、
03 は表示部 軸サィズ (cm) 、
DRXは表示部 X軸解像度 (画素) 、 を意味する。
ここで、 括弧内の 「画素」 、 「cm」 は単位を表す。
例えば、 表示する画像の X軸画像解像度が 1 6 0 0画素、 Y軸画像解 像度が 1 2 0 0画素、 移動検出部 5 0 1にて検出した移動情報が Y軸移 動距離 1. 6 c m (下方向) 、 X軸移動距離一 1. 2 8 cm (左方向) 、 表示部の X軸サイズが 6. 4 cm、 Y軸サイズが 4. 8 cm、 表示部の X軸解像度が 640画素、 Y軸解像度が 48 0画素、 拡大率が 0. 64 とすると、 Y軸切り出し開始位置は 47 5画素目から、 X軸切り出し開 始位置は 1 0 0画素目からとなる。
(式 1 ) と (式 2) によると切り出し開始位置が 0以下となってしま う場合や、 画像サイズを超えてしまう場合がある。 その場合には使用者 に画像の端に到達したこと.を通知する為に、 図 1 0のように画像の端に 達した面の表示部 3 0 2の端を着色するなどして使用者に通知すること が可能である。
図 1 0において、 表示部 3 0 2の着色部 1 3 0 2が着色されている。 図 1 0の通知例の場合、 表示画像が画像の右端に達したことを示す。 また、 文字表示やグラフィック表示で画像の端に達したことを使用者 に通知しても同様の効果が得られる。 また、 画像に背景色や特定のパタ ーンを付け足して、 表示を行ってよい。 次に図 1 1を用いて、 図 1に示す画素変換部 1 0 6の詳細な説明を行 う。
画素変換部 1 0 6は、 画像切り出し開始位置演算部 1 4 0 4、 拡大率 演算部 1 4 0 2、 画像切り出し画素数演算部 1 4 0 3、 画像読み込み部 1 4 0 5と解像度変換部 1 4 0 6を含んでいる。
拡大率演算部 1 4 0 2は、 視点位置検出部 1 0 5より出力される視点 位置情報に基づいて拡大率を演算する。
画像切り出し画素数演算部 1 4 0 3は、 拡大率演算部 1 4 0 2より出 力される拡大率情報と画像表示部 1 0 7の解像度情報に基づいて、 切り 出す画像の画素数を演算する。画像切り出し開始位置演算部 1 4 0 4は、 移動検出部 1 0 4より出力される移動情報と画像切り出し画素数演算部、 1 4 0 3より出力される画像切り出し画素数情報に基づいて、 画像切り 出し開始位置を演算する。
画像読み込み部 1 4 0 5は、 画像切り出し開始位置演算部 1 4 0 4よ り出力される画像切り出し開始位置情報及び画像切り出し画素数演算部 1 4 0 3より出力される画像切り出し画素数情報で指定された画素を画 像保持部 1 0 3より読み出す。 解像度変換部 1 4 0 6は、 画像読み込み 部 1 4 0 5より出力される画像を、 画像表示部 1 0 7の解像度を有する 画像に変換して出力する。
さらに図 1 2を用いて、 画素変換部 1 0 6の画素変換ルーチンの例の 説明を行う。
まず、 画素変換部 1 0 6は、 視点位置検出部 1 0 5より視点位置情報 を、移動検出部 1 0 4より移動情報を受信する(ステップ S 1 5 0 1 )。 そして、 画素変換部 1 0 6は、 移動検出部 1 0 4より受信した移動情 報に基づいて拡大率を演算する (ステップ S 1 5 0 2 ) 。 そして、 画素変換部 1 0 6は、 切り出し画素数を演算する (ステップ S 1 5 0 3 ) 。
そして、 画素変換部 1 0 6は画像切り出し開始位置を演算する (ステ ップ S 1 5 0 4 ) 。
そして、 画素変換部 1 0 6は、 画像保持部 1 0 3に格納されている画 像のステツプ S 1 5 0 4にて演算した画像切り出し開始位置よりステツ プ S 1 5 0 3にて演算した画像切り出し画素数分の画素のデータを読み 出す (ステップ S 1 5 0 5 ) 。
そして、 画素変換部 1 0 6は、 ステップ S 1 5 0 5にて切り出した画 像の解像度、 画像表示部 1 0 7の解像度に変換する (ステップ S 1 5 0 6 ) 。
そして、 画素変換部 1 0 6は、 ステップ S 1 5 0 6にて変換した画像 を、 画像表示部 1 0 7に出力する (ステップ S 1 5 0 7 ) 。
以上の通り、 本実施の形態において、 携帯型ビューヮは、 マウス等の 移動検出部と C C Dカメラ等の視点位置検出部を備える。 そのため、 使 用者は、 携帯型ビューヮを移動させることによりスクロール動作を行う ことができる。 さらに、 使用者は、 携帯型ビューヮに顔を近づける、 遠 ざけるといった、 一般的な動作で拡大及び縮小操作を行える。 また、 画 面上のスクロール距離と実際の携帯型ビューヮの実移動距離を同一にす ることにより、 あたかも携帯型ビューヮにより開かれた小窓より画像を 閲覧するといつた操作感が生まれる。
なお、 視点位置検出部 1 0 5として、 赤外線送受信部を用いる場合、 たとえば、 使用者の顔など物体 7 0 2に照射された赤外線の反射光を受 信するまでの時間より、 視点位置検出部 1 0 5と物体 7 0 2の距離が測 定される。 この場合、 図 3の携帯型ビューヮ 1 0 0において、 C C D力 メラ 3 0 3の代わりに、 赤外線送受信部を備えるようにしてもよい。 以上説明したように、 本発明の携帯型ビューヮは、 スクロール、 拡大 及び縮小の操作を、 複数回のポタン操作を行うことなく、 携帯型ビュー ヮを移動させる及びビューヮに顔を近づけるなどの一連の操作で行うこ とが可能である。
なお、 以上の実施例では、 物体 7 0 2 (本実施の形態では使用者の顔 を想定) と携帯型ビューヮとの間の距離を、 コントラスト値に基づいて 測定している。 しかし、 本発明は、 このような距離測定に限定されるも のではなく、 使用者の顔と携帯型ビュ一ヮとの間の距離が測定可能であ れば、 他の手法による測定であってもよい。
例えば、 C C D 7 0 3より出力される画像信号を解析し、 ソフトゥェ ァ処理により人間の顔面の輪郭、 または目の形状を認識し、 これら映像 の大きさとこれに対応する位置情報を規定した対応表を参照する。 この ことで、 使用者の顔または目と携帯型ビューヮとの間の距離を測定する ようにしても良い。 この場合、 使用者の顔面の輪郭を解析して距離を測 定することで、 より正確な距離測定が可能となる。 また、 目の形状を解 祈して距離を測定することで、 使用者の目の位置と携帯型ビューヮの距 離に基づく画像処理が可能となる。 これにより、 あたかも携帯型ビュー ヮにより開かれた小窓より画像を閲覧するといつた操作感をより確実に 生み出すことが可能となる。
(実施の形態 2 )
実施の形態 2では、 実施の形態 1と同様に携帯型ビューヮを例に説明 する。 実施の形態 2においても、 実施の形態 1と同様に、 携帯型ビュー ヮとは、画像データや H T M L文書等のデータを表示できる機器を指し、 携帯電話や P D Aなども含む。
実施の形態 2による携帯型ビューヮの裏面の外観の例、 移動検出部の 詳細例、移動検出部の移動検出ルーチンの例、視点位置検出部の詳細例、 視点位置検出部の視点位置検出ルーチンの例、 距離情報演算部が焦点距 離の演算に用いる対応表例、 画素変換部が拡大率の演算に用いる対応表 例、 画像表示部の説明、 画素変換部による切り出し画素数の演算と切り 出し開始位置の演算例は、 それぞれ実施の形態 1の図 4、 図 5、 図 6、 図 7、 図 8、 表 1、 表 2、 図 9、 式 1, 2及び図 1 0と同様のため、 説 明は省略する。
図 1 3は実施の形態 2による携帯型ビューヮの構成例である。
制御部 1 6 0 1は、本実施の形態の携帯型ビューヮ全体の制御を行う。 制御部 1 6 0 1は、 記憶部 1 6 0 2に、 情報を格納する。 画像保持部 1 6 0 3は、 携帯型ビュ一ヮが表示する画像を保持する。 本実施の形態 では画像保持部 1 6 0 3は、 たとえば、 フラッシュメモリである。 移動 検出部 1 6 0 4は、 携帯型ビューヮ 1 6 0 0の移動情報を検出する。 本実施の形態においても、 移動検出部 1 6 0 4は、 パソコンのマウス と同様の構成を有する。 視点位置検出部 1 6 0 5は、 使用者の視点位置 を検出する位置検出部として働く。 本実施の形態でも、 C C Dカメラを 用いて携帯型ビュ一ヮと使用者の顔までの距離が測定されて使用者の視 点位置が検出される。
画素変換部 1 6 0 6は、 画像保持部 1 6 0 3に保持されている画像を 読み出す。 さらに、 画素変換部 1 6 0 6は、 移動検出部 1 6 0 4にて検 出された移動情報と視点位置検出部 1 6 0 5にて検出された視点位置情 報に基づいて、 画像を切り出し、 切り出した画像の解像度を変換し、 拡 大 ·縮小加工して、 出力する。 画像表示部 1 6 0 7は、 画素変換部 1 6 0 6より出力される画像情 報を表示する。 上述の各部は、 バスライン 1 6 1 0で結合されている。 なお、 画像表示部 1 6 0 7と画素変換部 1 6 0 6は、 画素変換表示部 1 6 1 2に含まれて構成されてもよい。
表示画像保持操作部 1 6 0 8は、 使用者が押下するポタン等を含んで 構成される。
表示画像保持操作部 1 6 0 8は、 使用者がポタン等を押下することに より、 画素変換部 1 6 0 6に移動情報と視点位置情報の更新を停止する 要求を出す。
なお、 画像保持部 1 6 0 3は、 H D Dやメモリ一カード等の記憶媒体 を含んで構成されてもよい。
なお、 移動検出部 1 6 0 4はジャィ口等の移動検出部でもよい。 なお、 視点位置検出部 1 6 0 5は赤外線等を用いる距離測定装置を含 んでもよい。
さらに図 1 4を用いて携帯型ビュ一ヮの表側の面の外観の例を説明す る。 使用時は、 携帯型ビュ一ヮ 1 6 0 0の表側の面 1 7 0 1が、 使用者 に向いているとする。
表示部 1 7 0 2は、 画像表示部 1 6 0 7において、 画像情報を表示す る。
携帯型ビューヮ 1 6 0 0は、 C C Dカメラ 1 7 0 3を備えている。 表示画像保持操作部 1 6 0 8は、 ポタンなどの操作部 1 7 0 4を含ん でいる。
次に図 1 3から図 1 5を用いて、 画素変換部 1 6 0 6の詳細な説明を 行う。
画素変換部 1 6 0 6は、 移動情報保持部 1 8 0 4、 画像切り出し開始 位置演算部 1 8 0 5、 拡大率演算部 1 8 0 2、 画像切り出し画素数演算 部 1 8 0 3、 画像読み込み部 1 8 0 6と解像度変換部 1 8 0 7を含んで いる。
拡大率演算部 1 8 0 2は、 表示画像保持操作部 1 6 0 8の操作部 1 7 0 4が押下されていなければ、 視点位置検出部 1 6 0 5より出力される 視点位置情報に基づいて拡大率を演算する。
画像切り出し画素数演算部 1 8 0 3は、 拡大率演算部 1 8 0 2より出 力される拡大率情報と画像表示部 1 6 0 7の解像度情報に基づいて、 切 り出す画像の画素数を演算する。 移動情報保持部 1 8 0 4は、 移動検出 部 1 6 0 4より受信する移動情報を保持する。
新しい移動情報を受信した場合に、 画像保持操作部 1 6 0 8の操作部
1 7 0 4が押下されていなければ、 移動情報保持部 1 8 0 4に保持され ている移動情報の内容が更新される。
新しい移動情報を受信した場合に、 操作部 1 7 0 4が押下されていれ ば、 移動情報保持部 1 8 0 4に保持されている移動情報の内容が更新さ れない。
そして、 移動情報保持部 1 8 0 4は、 保持している移動情報を、 出力 する。 画像切り出し開始位置演算部 1 8 0 5は、 移動情報保持部 1 8 0 4より出力される移動情報と、 画像切り出し画素数演算部 1 8 0 3より 出力される画像切り出し画素数情報に基づいて、 画像切り出し開始位置 を演算する。 画像読み込み部 1 8 0 6は、 画像切り出し開始位置演算部
1 8 0 5より出力される画像切り出し開始位置情報及び画像切り出し画 素数演算部 1 8 0 3より出力される画像切り出し画素数情報で指定され た画素を画像保持部 1 6 0 3より読み出す。
解像度変換部 1 8 0 7は、 画像読み込み部 1 8 0 6より出力される画 像を、 画像表示部 1 6 0 7の解像度の解像度を有する画像に変換して出 力する。
さらに図 1 6を用いて、 画素変換部 1 6 0 7の画素変換ル一チンの説 明を行う。
まず、 移動情報保持部 1 8 0 4は、 移動検出部 1 6 0 4より移動情報 を受信する。 拡大率演算部 1 8 0 2は、 視点位置検出部 1 6 0 5より視 点位置情報を受信する (ステップ S 1 9 0 1 ) 。
そして、 移動情報保持部 1 8 0 4は、 表示画像保持操作部 1 6 0 8の 操作部 1 7 0 4が押下されているかを判定する(ステツプ S 1 9 0 2 )。 ステップ S 1 9 0 2にて、 表示画像保持操作部 1 6 0 8が押下されて いないと判定された場合、 移動情報が保持されていないときは、 移動情 報保持部 1 8 0 4は移動情報を保持する。
すでに移動情報が保持されている場合は、 移動情報保持部 1 8 0 4は 移動情報を更新する (ステップ S 1 9 0 3 ) 。
そして、 拡大率演算部 1 8 0 2は、 移動検出部 1 6 0 4より受信した 移動情報に基づいて、 拡大率を演算する (ステップ S 1 9 0 4 ) 。
ステップ S 1 9 0 2にて、 表示画像保持操作部 1 6 0 8が押下されて いる判定した場合、 ステップ S 1 9 0 5に進む。
そして、 ステップ 1 9 0 5にて、 画像切り出し画素数演算部 1 8 0 3 は、 拡大率演算部 1 8 0 2より出力される拡大率情報を用い画像切り出 し画素数を演算する (ステップ S 1 9 0 5 ) 。
そして、 画像切り出し開始位置演算部 1 8 0 5は、 画像切り出し開始 位置を演算する (ステップ S 1 9 0 6 ) 。
そして、 画像読み込み部 1 8 0 6は、 画像保持部 1 6 0 3に格納され ている画像を、 ステップ S 1 9 0 6にて演算した画像切り出し開始位置 よりステップ S I 9 0 5にて演算した画像切り出し画素数分読み出す (ステップ S 1 9 0 7 ) 。
そしてステツプ S 1 9 0 8にて、 解像度変換部 1 8 0 7はステツプ S 1 9 0 7にて切り出した画像の解像度を、 画像表示部 1 6 0 7の解像度 に変換する。
そして、 解像度変換部 1 8 0 7はステップ S 1 9 0 8にて変換した画 像を、 画像表示部 1 6 0 7に出力する (ステップ S 1 9 0 9 ) 。
このルーチンにより、 携帯型ビューヮは、 表示画像保持操作部 1 6 0 8の操作部 1 7 0 1が押下されていない場合は、 受信する移動情報およ び視点位置情報に基づいて画素変換を行う。 操作音 13 1 7 0 1が押下され ている場合は、 このルーチンの処理を行った際に使用した移動情報およ び受信した視点位置情報に基づいて画素変換を行う。
以上のように、 使用者は、 表示画像保持操作部 1 6 0 8の操作部 1 7 0 4を押下することにより、移動情報の更新を停止させる。したがって、 使用者は、 その時に表示している表示位置を変更することなく、 使用者 に使いやすい位置に携帯型ビュ一ヮを移動させることができる。
以上のように、 実施の形態 1で説明した携帯型ビュ一ヮと比べると、 本実施の形態の携帯型ビュ一ヮは、 さらに、 表示画像保持操作部 1 6 0 8を含み、 画素変換部 1 6 0 6は、 さらに、 移動情報保持部 1 8 0 4を 含む。
したがって、 使用者は、 携帯型ビューヮを移動させることによりスク ロール動作を行うことができる。 さらに、 使用者は、 携帯型ビューヮに 顔を近づける、 遠ざけるといった、 一般的な動作で拡大及び縮小操作を 行える。 これらに加えて、 使用者は、 ポタン等の操作部を操作すること により、 移動情報と視点位置情報の更新を停止させることができる。 し たがって、 使用者は、 その時に表示している画像の範囲を変更すること なく、 使用者に使いやすい位置に携帯型ビューヮを移動させることがで きる。 (実施の形態 3 )
実施の形態 3でも、 実施の形態 1、 2と同様に携帯型ビューヮを例に 説明する。 携帯型ビューヮとは、 画像データや H T M L文書等のデータ を表示できる機器を指し、 携帯電話や P D Aなども含む。
実施の形態 3による携帯型ビューヮの裏面の外観の例、 移動検出部の 詳細例、移動検出部の移動検出ルーチンの例、視点位置検出部の詳細例、 視点位置検出部の視点位置検出ル一チンの例、 距離情報演算部が焦点距 離の演算に用いる対応表例、 画像表示部の説明、 画素変換部による切り 出し画素数の演算と切り出し開始位置の演算例は、実施の形態 1の図 4、 図 5、 図 6、 図 7、 図 8、 表 1、 式 1 , 2及び図 1 0と同様のため、 説 明は省略する。
図 1 7は実施の形態 3による携帯型ビューヮの構成例である。
制御部 2 0 0 1は、 本実施例の携帯型ビュ一ヮ 2 0 0 0全体の制御を 行う。
制御部 2 0 0 1は、 記憶部 2 0 0 2に、 情報を格納する。 画像保持部 2 0 0 3は、 携帯型ビューヮ 2 0 0 0が表示する画像を保持する。 本実 施の形態では、 画像保持部 2 0 0 3は、 たとえば、 フラッシュメモリで ある。 移動検出部 2 0 0 4は、 携帯型ビューヮ 2 0 0 0の移動情報を検 出する。
本実施の形態においても、 移動検出部 2 0 0 4は、 パソコンのマウス と同様の構成を有する。 視点位置検出部 2 0 0 5は、 使用者の視点位置 を検出する位置検出部として働く。 本実施の形態でも、 C C Dカメラを 用いて携帯型ビューヮと使用者の顔までの距離を測定し使用者の視点位 置を検出する。
画素変換部 2 0 0 6は、 画像保持部 2 0 0 3に保持されている画像を 読み出す。 さらに、 移動 出部 2 0 0 4にて検出された移動情報と視点 位置検出部 2 0 0 5にて検出された視点位置情報に基づいて、 画像を切 り出し、 切り出した画像の解像度を変換し、 拡大 ·縮小加工して、 出力 する。
画像表示部 2 0 0 7は、 画素変換部 2 0 0 6より出力される画像情報 を表示する。
視点検出開始操作部 2 0 0 8は、 使用者が押下するポタン等を含んで 構成される。
使用者が、 視点検出開始操作部 2 0 0 8の、 ポタン等を押下すること により、視点位置検出部 2 0 0 5は基準となる視点位置情報を検出する。 上述の各部は、 バスライン 2 0 1 0で結合されている。 なお、 画像表 示部 2 0 0 7と画素変換部 2 0 0 6は、 画素変換表示部 2 0 1 2に含ま れて構成されてもよい。
なお、 画像保持部 2 0 0 3は H D Dやメモリーカード等の記憶媒体を 含んで構成されてもよい。
なお、 移動検出部 2 0 0 4は、 ジャイロ等の移動検出部でもよい。 , なお、 視点位置検出部 2 0 0 5は、 赤外線等を用いた距離測定装置を 含んでもよい。
さらに図 1 8を用いて、 携帯型ビューヮのおもて面の外観の例を説明 する。
使用時は、 携帯型ビューヮ 2 0 0 0のおもて面 2 1 0 1が使用者に向 いているとする。
表示部 2 1 0 2は、 画像表示部 2 0 0 7において、 画像情報を表示す る。
携帯型ビューヮ 2 0 0 0は、 C C Dカメラ 2 1 0 3を備えている。 視点検出開始操作部 2 0 0 8は、 ポタンなどの操作部 2 1 0 4を含ん でいる。
さらに図 1 9を用いて、 画素変換部 2 0 0 6の詳細な説明を行う。 画素変換部 2 0 0 6は、 基準視点位置情報保持部 2 2 0 2、 画像切り 出し開始位置演算部 2 2 0 5、 拡大率演算部 2 2 0 3、 画像切り出し画 素数演算部 2 2 0 4、 画像読み込み部 2 2 0 6と解像度変換部 2 2 0 7 を含んでいる。
基準視点位置情報保持部 2 2 0 2は、 視点位置部 2 0 0 5より受信す る視点位置情報を、 視点検出開始操作部 2 0 0 8の操作部 2 1 0 4が押 下された場合に保持する。
そして、 基準視点位置情報保持部 2 2 0 2は、 保持した視点位置情報 を出力する。 拡大率演算部 2 2 0 3は、 視点位置検出部 2 0 0 5より出 力される視点位置情報と基準視点位置情報保持部 2 2 0 2より出力され る基準視点位置情報に基づいて、 拡大率を演算する。 画像切り出し画素 数演算部 2 2 0 4は、 拡大率演算部 2 2 0 3より出力される拡大率情報 と画像表示部 2 0 0 7の解像度情報に基づいて、 切り出す画像の画素数 を演算する。
画像切り出し開始位置演算部 2 2 0 5は、 移動検出部 2 0 0 4より出 力される移動情報と画像切り出し画素数演算部 2 2 0 4より出力される 画像切り出し画素数情報に基づいて、画像切り出し開始位置を演算する。 画像読み込み部 2 2 0 6は、 画像切り出し開始位置演算部 2 2 0 5より 出力される画像切り出し開始位置情報及び画像切り出し画素数演算部 2 2 0 3より出力される画像切り出し画素数情報で指定された画素を画像 保持部 2 0 0 3より読み出す。 解像度変換部 2 2 0 7は、 画像読み込み 部 2 2 0 6より出力される画像を、 画像表示部 2 0 0 7の解像度を有す る画像に変換し出力する。
次に表 3を用いて、 拡大率演算部 2 2 0 3が拡大率の演算に用いる対 応表例の説明をする。 表 3
Figure imgf000028_0001
表 3の左欄の視点位置差分情報は、 視点位置検出部 2 0 0 5内の距離 情報演算部 (図示せず) が出力する視点位置情報から基準視点位置情報 保持部 2 2 0 2に格納されている基準視点位置情報を差し引いた値を示 す。 表 3の右欄の拡大率は、 視点位置差分情報と対応する拡大率を示して いる。
なお、 視点位置検出部 2 0 0 5は、 図 7の視点位置検出部 1 0 5と同 じ構成を有する。
例えば、 視点位置が 1 0 c mと検出され、 基準視点位置情報保持部 2 2 0 2に保持されている基準視点位置が 1 5 c mである場合、 視点位置 から基準視点位置を差し引くと一 5になる。 したがって、 視点位置差分 一 5が検索される。 視点差分の値が一 5である場合、 拡大率の値は 0 . 6 4であるため、 拡大率は 0 . 6 4倍と決定される。
次に図 1 7から図 2 0を用いて、 画素変換部 2 0 0 6が行う基準視点 位置情報保持ル一チンの例の説明をする。
基準視点位置情報保持ル一チンは、 視点検出開始操作部 2 0 0 8の操 • 作部 2 1 0 4が押下されると開始する。
操作部 2 0 0 4が押下されると、基準視点位置情報保持部 2 2 0 2は、 受信する視点位置情報を基準視点位置情報として保持する。 既に基準視 点位置情報が保持されている場合は基準視点位置情報を更新する (ステ ップ S 2 4 0 1 ) 。
さらに図 2 1を用いて、 画素変換部 2 0 0 6の画素変換ル一チンの説 明を行う。
まず、 拡大率演算部 2 2 0 3は、 視点位置検出部 2 0 0 5から視点位 置情報を、 画像切り出し開始位置演算部 2 2 0 5は、 移動検出部 2 0 0 4から移動情報を受信する (ステップ S 2 5 0 1 ) 。
そして、 拡大率演算部 2 2 0 3は受信した視点位置情報より基準視点 位置情報保持部 2 2 0 2より出力される基準視点位置情報を差し引いた 値より拡大率を演算する (ステップ S 2 5 0 2 ) 。 そして、 画像切り出し画素数演算部 2 2 0 4は、 画像切り出し画素数 を演算する (ステップ S 2 5 0 3 ) 。
そして、 画像切り出し開始位置演算部 2 2 0 5は、 受信した移動情報 及び画像切り出し画素数演算部 2 2 0 4より出力される画像切り出し画 素数情報を用いて、 画像切り出し開始位置を演算する (ステップ S 2 5 0 4 ) 。
そして、 画像読み込み部 2 2 0 6は、 画像切り出し開始位置演算部 2 2 0 5より出力される画像切り出し開始位置より画像保持部 2 2 0 3に 格納されている画像を、 画像切り出し画素数演算部 2 2 0 4より出力さ れる画像切り出し画素数分読み出す (ステップ S 2 5 0 5 ) 。
そして、 画素変換部 2 2 0 7は、 ステツプ S 2 5 0 5にて切り出した 画像を、 画像表示部 2 0 0 7の解像度を有する画像に変換する (ステツ プ S 2 5 0 6 ) 。
そして、 解像度変換部 2 2 0 7はステップ S 2 5 0 6にて変換した画 像を画像表示部 2 0 0 7に出力する (ステップ S 2 5 0 7 ) 。
以上のように、 実施の形態 1で説明した携帯型ビューヮと比べると、 本実施の形態の携帯型ビューヮは、 さらに、 視点検出開始操作部 2 0 0 8を含み、 画素変換部 2 0 0 6は、 さらに、 基準視点位置情報保持部 2 2 0 2を含む。
したがって、 使用者は、 携帯型ビューヮを移動させることによりスク ロール動作を行うことができる。 さらに、 使用者は、 携帯型ビューヮに 顔を近づける、 遠ざけるといった、 一般的な動作で拡大及び縮小操作を 行える。 これらに加えて、 使用者は、 ポタン等の操作部を操作すること により、 拡大率の基準となる基準視点位置を使用者の所定の位置に変更 することができる。 なお、 上述のそれぞれの実施の形態の携帯型ビューヮは、 カメラ機能 を有する携帯電話であってもよい。
なお、それぞれの実施の形態の説明で明らかなよゔに、実施の形態 1、 実施の形態 2、 実施の形態 3を組み合わせてもよい。 すなわち、 実施の 形態 1の携帯型ビューヮが、 さらに、 表示画像保持操作部と視点検出開 始操作部とを含んでもよく、 画素変換部が、 さらに、 移動情報保持部と 基準視点位置情報保持部とを含んでもよい。
なお、 上述のそれぞれの実施の形態において、 携帯型ビュ一ヮの少な くとも制御部、 移動検出部、 視点位置検出部、 画素変換部、 画像表示部 の機能の少なくとも一部が、 ソフトウエアで行われてもよい。
なお、 上述の各実施の形態において、 画像保持部は、 たとえば、 携帯 電話の場合であれば、 受信した画像データを記憶してもよい。 また、 外 部メモリからデ一タを読み出す機能を有する携帯型ビュ一ヮの場合、 画 像保持部は、外部メモリから読みだされた画像データを記憶してもよレ 産業上の利用可能性
本発明の映像機器は、 表示される画像の拡大及び縮小を、 その移動及 びそれに使用者が顔を近づけるなどの一連の操作で行うことが可能であ る。 したがって、 本発明の映像機器は、 携帯電話、 P D A等のために有 用である。

Claims

請 求 の 範 囲
1 . 画面上に映像を表示する映像機器であって、
表示される爾像の情報を保持する画像保持部と、
前記映像機器の移動を検出する移動検出部と、
使用者の位置を検出する位置検出部と、
前記画像保持部に保持されている画像情報を読み出し、 前記移動 検出部が検出した移動情報と前記位置検出部が検出した位置情報に基づ いて前記画像情報の所定範囲を切り出し、 拡大 '縮小加工して、 画像を 表示する画素変換表示部と
を含む
映像機器。
2 . 請求項 1に記載の映像機器であって、
前記位置検出部は、 前記使用者の位置を前記映像機器の前面に取 り付けたカメラ部によって検出する
映像機器。
3 . 請求項 2に記載の映像機器であって、
前記カメラ部は、 前記カメラ部が認識するコントラスト値の変化 に基づいて、 前記使用者の位置を検出する
映像機器。
4 . 請求項 2に記載の映像機器であって、
前記カメラ部は、 前記カメラ部が認識する前記使用者の顔面の輪 郭に基づいて、 前記使用者の位置を検出する
映像機器。
5 . 請求項 2に記載の映像機器であって、
前記カメラ部は、 前記カメラ部が認識する前記使用者の目の形状 に基づいて、 前記使用者の位置を検出する
映像機器。
6 . 請求項 1に記載の映像機器であって、
前記位置検出部は、 前記使用者の位置を前記映像機器の前面に取 り付けられた赤外線送受信部によって検出する
映像機器。
7 . 請求項 1に記載の映像機器であって、 さらに、
前記使用者の位置検出における基準位置を設定する視点検出開 始操作部を含み、
前記画像変換表示部は、 前記基準位置と前記使用者の位置との比 較に基づいて、 前記表示される画像の拡大 ·縮小加工を行う
映像機器。
8 . 請求項 1に記載の映像機器であって、 さらに、
前記所定範囲の更新を停止させる表示画像保持操作部を含む 映像機器。
9 . 請求項 7に記載の映像機器であって、 さらに、 前記所定範囲の更新を停止させる表示画像保持操作部を含む 映像機器。
1 0 . 請求項 1カゝら 9のいずれかに記載の映像機器であって、 前記映像機器は、 カメラ機能を有する携帯電話である 映像機器。
PCT/JP2005/016992 2004-09-09 2005-09-08 映像機器 WO2006028276A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/661,916 US20070216762A1 (en) 2004-09-09 2005-09-08 Video Device
EP05783578A EP1788474A1 (en) 2004-09-09 2005-09-08 Video device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-261943 2004-09-09
JP2004261943A JP2006079312A (ja) 2004-09-09 2004-09-09 携帯型ビューワ

Publications (1)

Publication Number Publication Date
WO2006028276A1 true WO2006028276A1 (ja) 2006-03-16

Family

ID=36036547

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/016992 WO2006028276A1 (ja) 2004-09-09 2005-09-08 映像機器

Country Status (6)

Country Link
US (1) US20070216762A1 (ja)
EP (1) EP1788474A1 (ja)
JP (1) JP2006079312A (ja)
KR (1) KR20070051312A (ja)
CN (1) CN101014928A (ja)
WO (1) WO2006028276A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US8384718B2 (en) * 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
WO2010051272A1 (en) 2008-10-30 2010-05-06 Fujifilm Corporation Non-wetting coating on a fluid ejector
JP5223784B2 (ja) * 2009-06-05 2013-06-26 船井電機株式会社 携帯端末装置
CN102860026A (zh) * 2010-04-23 2013-01-02 Nec显示器解决方案株式会社 显示装置、显示系统、显示方法以及程序
US9100200B2 (en) 2010-06-01 2015-08-04 Genband Us Llc Video augmented text chatting
JP2014078823A (ja) * 2012-10-10 2014-05-01 Nec Saitama Ltd 携帯電子機器、その制御方法及びプログラム
US20160202865A1 (en) 2015-01-08 2016-07-14 Apple Inc. Coordination of static backgrounds and rubberbanding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997029589A1 (fr) * 1996-02-09 1997-08-14 Matsushita Electric Industrial Co., Ltd. Recepteur de television
JP2002366271A (ja) * 2001-06-13 2002-12-20 Sharp Corp 画像表示システムおよび画像表示方法
JP2003511786A (ja) * 1999-10-12 2003-03-25 ミオリゴ オイ 携帯装置のユーザ・インターフェース動作方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1499129B1 (en) * 2002-04-25 2011-12-28 Panasonic Corporation Object detection device, object detection server, and object detection method
US20040075735A1 (en) * 2002-10-17 2004-04-22 Koninklijke Philips Electronics N.V. Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997029589A1 (fr) * 1996-02-09 1997-08-14 Matsushita Electric Industrial Co., Ltd. Recepteur de television
JP2003511786A (ja) * 1999-10-12 2003-03-25 ミオリゴ オイ 携帯装置のユーザ・インターフェース動作方法
JP2002366271A (ja) * 2001-06-13 2002-12-20 Sharp Corp 画像表示システムおよび画像表示方法

Also Published As

Publication number Publication date
US20070216762A1 (en) 2007-09-20
CN101014928A (zh) 2007-08-08
JP2006079312A (ja) 2006-03-23
EP1788474A1 (en) 2007-05-23
KR20070051312A (ko) 2007-05-17

Similar Documents

Publication Publication Date Title
US11194388B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
EP2720191B1 (en) Display device and method of photographing thereof
EP2214079B1 (en) Display apparatus, display control method, and display control program
KR100643470B1 (ko) 휴대용 단말기의 그래픽 신호 표시장치 및 방법
US9454837B2 (en) Image processing apparatus, method, and computer-readable storage medium calculating size and position of one of an entire person and a part of a person in an image
JP2012502580A (ja) 可変サイズの表示領域に画像を表示するための表示装置及び方法
US20100058254A1 (en) Information Processing Apparatus and Information Processing Method
WO2006028276A1 (ja) 映像機器
US9508322B2 (en) Text box resizing
US9053652B2 (en) Display control device, display control method, and program
US20090207138A1 (en) Selecting a layout
US9544556B2 (en) Projection control apparatus and projection control method
JP2009140368A (ja) 入力装置、表示装置、入力方法、表示方法及びプログラム
US20100085469A1 (en) User input apparatus, digital camera, input control method, and computer product
JP5236721B2 (ja) 表示装置、表示制御方法および表示制御プログラム
CN110574000B (zh) 显示装置
WO2008054185A1 (en) Method of moving/enlarging/reducing a virtual screen by movement of display device and hand helded information equipment using the same
JP5220157B2 (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP2023510620A (ja) 画像クロップ方法及び電子機器
US8922482B2 (en) Method for controlling a display apparatus using a camera based device and mobile device, display apparatus, and system thereof
WO2017211108A1 (zh) 一种显示方法及装置
KR20190064633A (ko) 페이지를 표시하는 방법 및 장치, 그래픽 사용자 인터페이스, 및 이동 단말기
TWI619070B (zh) 圖像查看系統及方法
JP2006186714A (ja) 画像表示装置及び携帯電話機
JP2006186658A (ja) 画像表示装置及び携帯電話機

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005783578

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11661916

Country of ref document: US

Ref document number: 2007216762

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020077005519

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200580030419.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005783578

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11661916

Country of ref document: US