WO2023243093A1 - データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム - Google Patents

データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム Download PDF

Info

Publication number
WO2023243093A1
WO2023243093A1 PCT/JP2022/024393 JP2022024393W WO2023243093A1 WO 2023243093 A1 WO2023243093 A1 WO 2023243093A1 JP 2022024393 W JP2022024393 W JP 2022024393W WO 2023243093 A1 WO2023243093 A1 WO 2023243093A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
data
image
eye
display
Prior art date
Application number
PCT/JP2022/024393
Other languages
English (en)
French (fr)
Inventor
隆 西平
Original Assignee
エーアイヴィット株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エーアイヴィット株式会社 filed Critical エーアイヴィット株式会社
Priority to PCT/JP2022/024393 priority Critical patent/WO2023243093A1/ja
Publication of WO2023243093A1 publication Critical patent/WO2023243093A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H5/00Exercisers for the eyes

Definitions

  • the present invention relates to a data terminal, a 3D image display method for the data terminal, and a data processing system.
  • the left and right images of almost the same shape are simultaneously displayed on an electronic screen, and the observer views the left image with the right eye and the right image with the left eye, or the left image is displayed with the left eye.
  • This is an electronic screen display method for visual acuity training that uses the parallel method of viewing the right image with the right eye to recognize pseudo-stereoscopic images using the imaginative fusion function of vision and the brain.
  • the left and right images are displayed close together, and the area of the left and right images is increased by an integral multiple of the pixel area of the electronic screen so that the viewer's left and right eyeballs move as time passes, and they are displayed separated from each other by an integral multiple.
  • Patent Document 1 also describes how the brain processes the light incident from the human eyeballs as a three-dimensional image.
  • the person uses the crossing method, in which the left image is viewed with the right eye and the right image with the left eye, or the parallel method, in which the left image is viewed with the left eye and the right image is viewed with the right eye, which fuses vision and imagination.
  • a method of displaying an electronic screen for eye training that allows users to recognize pseudo-stereoscopic images by a function, when the areas of the left and right images are small, they are displayed close to each other, and the left and right eyes of the viewer move as time passes.
  • a method for displaying an electronic screen for eye training characterized in that the areas of the left and right images are increased by an integral multiple of the pixel area of the electronic screen, and the left and right images are displayed separated from each other by the integral multiple.
  • the subject could not freely select the intended 3D image from a specific group of 3D images authenticated by the 3D image provider, the subject had to stare at the boring eye training image and was unable to enjoy eye training.
  • 3D image providers are unable to meet the demand for providing 3D images with commercial advertising effects that are beneficial to test subjects, and profits are also being returned to software providers who want to increase the usage rate and popularization rate of eye training.
  • the current situation is that it cannot be expected to work as a business model.
  • the present invention has been made in order to solve the above-mentioned problems, and an object of the present invention is to display a 3D image on a small, portable terminal to a subject facing the screen.
  • an object of the present invention is to display a 3D image on a small, portable terminal to a subject facing the screen.
  • the present invention provides a data terminal, a 3D image display method for the data terminal, and a data processing system.
  • an object of the present invention is for a subject to freely select an intended 3D image from a specific 3D image group authenticated by a 3D image provider, and enjoy eyeball training while viewing the selected desired eyeball training image. It is an object of the present invention to provide a data processing system that allows 3D image providers to perform commercial advertising that is beneficial to subjects.
  • a data terminal of the present invention that achieves the above object has the configuration shown below.
  • a data terminal comprising a display unit, a generating means for generating 3D image data for the left eye and 3D image data for the right eye captured by the left and right eyeballs of a subject based on predetermined 3D image data;
  • the 3D image data for the left eye and the 3D image data for the right eye generated by the means are displayed in the direction of protruding or retracting with respect to the display screen of the display unit, the 3D image data for the left eye and the 3D image data for the right eye are
  • the present invention is characterized by comprising display control means for displaying an enlarged/reduced image in a boundary area between the 3D image data for the left eye and the 3D image data for the right eye.
  • a data processing system of the present invention that achieves the above object has the configuration shown below.
  • a data processing system in which a data processing device operated by a sponsor communicates with a management server that acquires predetermined 3D image data associated with a specific product acquired from the data processing device, the management server comprising: , when acquiring the predetermined 3D image data uploaded from the data processing device, a charging means for charging the registration price; and a search for the predetermined 3D image data for which charging processing by the charging means has been completed.
  • an accumulation means for accumulating a creation means for producing a list of the predetermined 3D image data accumulated in the accumulation means; and an accumulation means for accumulating the predetermined 3D image data in the accumulation means based on the predetermined 3D image data acquired from the data processing device. and updating means for updating the 3D image data.
  • the ciliary body and Chin corpuscle which control the focusing function of the eyeballs, can be stretched and a sufficient eye training effect can be obtained.
  • the subject can freely select an intended 3D image from a specific 3D image group authenticated by the 3D image provider, and enjoy eye training while viewing the selected desired eye training image.
  • the provider can obtain a commercial advertising effect that is beneficial to the test subject.
  • FIG. 1 is a block diagram illustrating the configuration of a data terminal according to this embodiment.
  • FIG. 2 is a block diagram illustrating means for executing functional processing based on a control program stored in the RAM shown in FIG. 1;
  • a diagram explaining human eyeball characteristics A diagram explaining human eyeball characteristics.
  • a diagram explaining the structure of the human brain A diagram explaining the structure of the human brain.
  • FIG. 3 is a diagram illustrating a crossing method when recognizing a pseudo-stereoscopic image.
  • FIG. 3 is a diagram illustrating a parallel method for recognizing pseudo-stereoscopic images.
  • FIG. 3 is a diagram illustrating a display state of pseudo-stereoscopic video data.
  • 2 is a flowchart illustrating visual acuity and Lenin processing in the data terminal device according to the present embodiment.
  • FIG. 6 is a diagram illustrating a display example of an image that is enlarged or contracted in an intersecting area where left and right viewing areas intersect.
  • FIG. 6 is a diagram illustrating a display example of an image that is enlarged or contracted in an intersecting area where left and right viewing areas intersect.
  • FIG. 1 is a block diagram illustrating the configuration of a data processing system according to this embodiment.
  • FIG. 1 is a block diagram illustrating the configuration of a data terminal according to this embodiment.
  • a smartphone is a good example of a data terminal.
  • 1 is a CPU that displays pseudo 3D image data drawn in the VRAM 6 on the touch panel display 8 via the I/O 7 by executing a drawing control program developed in the RAM 3.
  • the generation program associated with the generation program 11 shown in FIG. 2 on the touch panel display 8 every predetermined second, the generated 3D image data 6L for the left eye and 3D image data 6R for the right eye are generated.
  • 3D image data 6L for the left eye and 3D image data 6R for the right eye are displayed at the center of the display screen in the direction A that projects out or in the direction B that draws in the display screen of the touch panel display 8,
  • control is performed to display an image that is enlarged or contracted in an intersection area where left and right viewing areas intersect.
  • the detailed procedure for controlling to display an image that is enlarged or reduced in the intersection area where the left and right viewing areas intersect in synchronization with the 3D video display of the 3D image data 6L for the left eye and the 3D image data 6R for the right eye will be described later. do.
  • the image that is enlarged or contracted in the intersection area where the left and right viewing areas intersect is 2D image data (see FIG. 17) or 3D image data (see FIG. 16).
  • the configuration may be such that the user can select 2D image data or 3D image data.
  • a communication unit 5 is configured to be able to communicate bidirectionally with the server device via the Internet 9 using Internet protocols.
  • Reference numeral 4 denotes a virtual keyboard section, which is configured to display numbers, symbols, and characters on the touch panel display 8 and to accept text input from the user.
  • the characters are compatible with various languages and are configured to be able to flexibly respond to the language environment of the destination.
  • ROM 2 is ROM, which stores basic software (Android (registered trademark), iOS (registered trademark)), and is resident in RAM 3, and can be used by installing various applications downloaded from specific application sites. It is configured so that the functions of the data terminal can be expanded freely.
  • Android registered trademark
  • iOS registered trademark
  • the server devices 10-1 to 10-N are connected to the Internet 9 at any time, and store specific information uploaded by other server devices to storage devices managed by specific server devices among the server devices 10-1 to 10-N. It is configured to store and update 3D image data.
  • FIG. 2 is a block diagram illustrating means for executing functional processing based on the control program stored in the RAM 3 shown in FIG. 1. Note that the same components shown in FIG. 1 are given the same reference numerals.
  • 11 is a generation program, which is developed on the RAM 3 based on an eye training application downloaded from one of the server devices.
  • the generation program 11 generates and draws 3D image data for the left eye and 3D image data for the right eye captured by the left and right eyeballs of the subject on the VRAM 6 based on predetermined 3D image data.
  • the predetermined 3D image data processed by the generation program 11 is rendered at high speed in order to be displayed on the touch panel display 8 as moving image data.
  • the drawing speed depends on the processing capacity of the CPU 1, it is assumed that the drawing speed is determined by the drawing processing capacity of the CPU 1.
  • Reference numeral 12 denotes a display control program, in which the 3D image data for the left eye generated by the generation program 11 and the 3D image data for the right eye are displayed in the direction of protruding or retracting with respect to the display screen of the display unit, a touch panel. Display control is performed to enlarge or reduce the width of a boundary area 6D between the 3D image data for the left eye and the 3D image data for the right eye in the center of the display screen of the display 8.
  • Reference numeral 13 denotes a drawing processing program, and when the 3D image data for the left eye generated by the generation program 11 and the 3D image data for the right eye are displayed in a direction that protrudes or draws in the display screen of the display unit, a touch panel is used. Drawing data that specifies the width of a boundary area 6D between the 3D image data for the left eye and the 3D image data for the right eye in the central part of the display screen of the display 8 is created, and drawing processing is performed on the VRAM 6 at high speed. Execute.
  • the display control program 12 determines the display area ratio of the 3D image data based on the aspect ratio determined based on the screen composition ratio of the touch panel display 8.
  • the display control program 12 determines the color tone of the boundary area between the 3D image data for the left eye and the 3D image data for the right eye. Therefore, if a specific color tone that is complementary to the color tone of the 3D video to be displayed is selected, the eye training effect will be enhanced.
  • the touch panel display 8 functions as one screen on one smartphone, but if the smartphone can output display data to an external display section, the touch panel display 8 can be displayed on multiple smartphones. It is also possible to share pseudo 3D image data displayed on the touch panel display 8.
  • the human brain 100 consists of the cerebrum, which is made up of a left hemisphere 101 and a right hemisphere 102 that are almost bilaterally symmetrical, and the cerebellum 103 located below and behind the cerebrum.
  • the cerebral cortex 104 covers the entire brain, but there is a small area of auditory cortex 106 below the left and right temporal association areas 105 (ears), and below the occipital association areas 108 in the back (above the cerebellum 103), there are auditory areas 106 between the left and right sides.
  • Each has a visual cortex 109 of a small area.
  • the spherical cerebral cortex When viewed from the side, the spherical cerebral cortex is comprised of a frontal lobe 200, a parietal lobe 201 at the top, an occipital lobe 202, and a temporal lobe 203 in spatial area distribution.
  • the auditory cortex 106 receives information from the ears and is located slightly above the left and right ears and in the lower center of the temporal lobe 203, while the left and right visual cortex 109, which receives information from the eyes, is located at the lowermost end of the left and right occipital lobes 202. be.
  • the cerebrum consists of five association areas that process information from the five senses and make decisions; these are the frontal association area 204, the parietal association area at the top 205, the occipital association area 108, the temporal association area 105, This is a motor association area 206 sandwiched between a frontal association area 204 and a parietal association area 205.
  • Each association area is symmetrically distributed in the left and right hemispheres, and each association area increases its functionality as the brain develops and grows.
  • the visual cortex 109 receives color, shape, depth, and movement information from the eyes, and the occipital association cortex 108 analyzes and integrates this information to judge and recognize the object.
  • the brain also has something called cross-control; information and movement from the right side of the body, including the right eye, are controlled by the left hemisphere, and information and movement from the left side of the body, including the left eye, are controlled by the right hemisphere.
  • the functions of the left hemisphere of the brain are mainly logical thinking and calculation functions such as speaking, writing, and judgment.
  • the right hemisphere has the ability to evenly respond to left and right visual fields, and is superior in comprehensive spatial recognition and manipulation functions.
  • the right hemisphere has a dominant function in the overall composition of paintings, in recognizing unknown melodies, and in deciphering overall information from the outside world that enters the visual sense.
  • the left and right eyeballs move to face that direction in FIG. 3, and the left and right eyes form a convergence angle T with respect to the object being viewed.
  • the convergence angle T2 of an object located close to the eye is larger than the convergence angle T1 of an object far away (T2>T1).
  • the left and right visual areas 109 in Figures 5 and 6 receive color, shape, depth, and movement information from the eyes, and the occipital association cortex 108 analyzes this information. ⁇ Integrate to judge objects and recognize 3D images.
  • the human brain recognizes the three-dimensional image of the object and determines distance from it based on the convergence angle T and parallax shown in FIG.
  • the convergence angles T1 and T2 are originally recognized by the human brain based on the line of sight of both eyes, focus adjustment (accommodation of the crystalline lens), and left/right parallax.
  • Our two eyes form different images due to their misalignment.
  • the retinas produce images that are slightly shifted between the two eyes, and the relative difference between the images is called parallax.
  • the brain can measure this disparity and use it to assess the relative distance of an object from the viewer.
  • parallax will be explained in detail.
  • a human sees an object in a three-dimensional space, that is, a visual target 100a
  • the difference between the images reflected on the retinas of the left eye 503L and the right eye 503R is processed by the visual cortex 109 and the occipital association cortex 108 in the brain to perceive depth. It is considered. Since the left and right eyes 503L and 503R of human animals are approximately 6-7 cm apart, the parallax between them (binocular parallax) is the most important factor in perceiving depth at short distances.
  • the optotype 100a is a cube with a circle drawn on the side. To the left eye 503L, the left side 501 of the cube 100a appears wide, and the right side 502 appears narrow (elongated oval shape). This is defined as the left eye parallax effect level.
  • the right eye 503R the right side 502 of the cube 100a appears wide (circular), and the left side 501 appears narrow (rectangular). This is defined as the right eye parallax effect level.
  • the left and right eyes 503L and 503R are approximately 6-7 cm apart, which is why the right eye parallax effect, left eye parallax effect, and these image correlation coefficients are common to all people and have a certain rule. following gender.
  • computer video it is possible to freely change and set the right-eye parallax effect level, left-eye parallax effect level, and their video correlation coefficients during the video production process.
  • FIG. 7 there is a cube 100a at a distance L1 from the infinity point W (10 m behind is sufficient in human living space), a cube 100a is at a distance L2, and a cube 100a is at a distance L3.
  • the distance L2 is assumed to be exactly the position of the computer screen, etc.
  • the cube 100a that is close to the viewer at a distance L3 is large (large display area), and the cube 100a that is located at an intermediate position distance L2 from the viewer is medium (medium display area) and far from the viewer.
  • the cubes 100a at the distance L1 are displayed small (small display area). If this is defined as the perspective area ratio based on perspective drawing, the perspective area ratio is common to the left and right eyes.
  • the main elements of stereoscopic effect and perspective are: binocular parallax: the difference between the images reflected in the left and right eyes, binocular convergence: the crossing angle of the line of sight, that is, the rotation angle of the eyeballs, and the eyeballs.
  • Distance is recognized by controlling the rotation angle.
  • Focus adjustment Distance is recognized by changing the thickness of the lens to adjust the focus and controlling the thickness of the lens.
  • Motion parallax A difference in the image that appears to the eye due to movement, and the position of an object can be recognized by changing its state.
  • the main elements of perspective are size and smallness: small objects feel far away, and large objects feel close. Up/Down: Things above you feel far away, things below you feel close. Coarse/Dense: Crowded places feel far away, rough places feel close. Movement: Slow-moving objects feel far away, fast-moving objects seem closer. Obscuration/Occupation: Objects that overlap and hide feel far away, and objects that hide appear close. Light/Dark: Dark places feel far away, bright places feel closer. Bright/Clear: Hazy places feel far away, clear places feel close. Shade/Shadow: Judgment based on the position of the shadow (light source). Dark/Light: Light colors feel far away, dark colors feel close. Hue: Cool colors feel far away, warm colors feel closer.
  • stereo cameras have been known since the advent of cameras.
  • Two lenses, corresponding to the left and right human eyes, are placed horizontally about 6-7 cm close to each other to simultaneously take two pictures of people and landscapes of living spaces.
  • humans perceive 3D images by viewing with the left and right eyes at the same time using two lenses placed horizontally about 6-7 cm apart, corresponding to the left and right eyes.
  • an eyeball 60 is composed of a cornea, an iris, a crystalline lens 61 that can be seen from the outside, an internal vitreous body, a ciliary body 62, a retina, a macula, and an optic nerve.
  • the outer surface of the eyeball 60 is connected to six eye muscles 63 shown in FIG. 11 so that the eyeball 60 can move around to see the outside.
  • the eye muscles 63 include two superior and inferior rectus muscles, two lateral and medial rectus muscles (on the left and right sides of the eyeball), and two superior and inferior oblique muscles.
  • the eyeball 60 is surrounded by a soft bag 64 that is continuous with the cornea, and the six eye muscles 63 pull the bag 64 from a specific position, causing the eyeball 60 to move.
  • the crystalline lens 61 has a soft, thick disk shape, and as shown in FIGS. 8 and 11, the ciliary body 62 is located so as to surround its periphery. is connected to a position where the cornea and the bag body 64 are continuous.
  • a crystalline lens 61 is located on the inner circumference of the ciliary body 62, and the inner circumference of the ciliary body 62 and the outer circumference of the crystalline lens 61 are connected by countless thread-like Chin's frenulum 65.
  • the Chin's zonules 65 becomes tense and the crystalline lens 61 is pulled and compressed, making it flattened, allowing the eye to see into the distance.
  • the Chin's zonules 65 loosens and the crystalline lens 61 swells and becomes thicker, allowing the eye to see near objects.
  • the ciliary body 62, Chin's zonules 65, and crystalline lens 61 move to adjust the focus, and when humans look at the surroundings, the six eye muscles 63 and the ciliary body 62, Chin's frenulum 65, and crystalline lens 61 move simultaneously.
  • the direction of the eye's field of view is constant, and the focal length of the target image being viewed is constant. is constant. Therefore, the six ocular muscles 63, ciliary body 62, Chin's zonules 65, and crystalline lens 61 of the eye become insufficiently mobile, causing various health problems.
  • Human muscles that can be touched indirectly from the outside can be massaged with the hands, bent and stretched, or stretched to recover from fatigue.
  • the six eye muscles 63, ciliary body 62, Chin's frenulum 65, and crystalline lens 61 are originally small and fine muscles inside the head, so you can massage them with your hands, bend and stretch, or stretch your back. This is impossible.
  • the left eye simultaneously views the image for the right eye
  • the right eye views the image for the left eye, respectively. If you stare at it for a while, your brain will work and the images on the left and right will overlap and you will see three images.
  • the image in the middle is a pseudo-stereoscopic image created by combining the left and right images in the brain.
  • the central part of the image appears to pop out (float) toward the front.
  • the left and right lines of sight intersect in front of the left and right images, and the left and right eyes are cross-eyed, as shown in the dark line drawing in Figure 10.
  • the six ocular muscles 63, ciliary body 62, Chin's zonules 65, and crystalline lens 61 of the eye shown in FIG. 11 are moving.
  • the left eye views a left-eye image
  • the right eye views a right-eye image at the same time. If you stare at it for a while, your brain will work and the images on the left and right will overlap and you will see three images.
  • the image in the middle is a pseudo-stereoscopic image created by combining the left and right images in the brain. In a pseudo-3D map, the central part of the image appears to be recessed (sunk).
  • the left and right eyes are parallel, and the left and right eyes are directed outward, as shown in the dotted line drawing in Figure 4.
  • the present application is an eye training method using pseudo-stereoscopic images displayed on an electronic screen, which utilizes the cross method in particular, and will be specifically described below.
  • 3D left and right video data is stored on the video memory 6, and as shown in FIG. 3D left and right moving image data 145A and 146A corresponding to left and right parallax are recorded in the RAM 3 so as to be arranged in sections 1435 and 1436.
  • the CPU 1 develops 3D video data from the 2D video data on the workpiece in the RAM 3 by executing the generation program 11 shown in FIG. 2, and generates 3D left and right video data 145A and 146A.
  • the left and right images recorded in the RAM 3 shown in FIG. 1 will be explained below using a simple cube as an example.
  • the distance between the 3D left video data 145A and the 3D right video data 146A arranged on the left display section 1435 and the right display section 1436 is recorded so that it is the closest L1. There is.
  • the distance between the displayed 3D left video data 145B and 3D right video data 146B is slightly distant L2
  • the 3D left video data 145C and the 3D right video data are displayed.
  • the distance from the moving image data 146C is L3, which is far away, and the distance between the 3D left moving image data 145D and the 3D right moving image data 146D is recorded so as to be the farthest L4 in the fourth video data of D.
  • each pair of 3D left video data 145A, 145B, 145C, 145D and 3D right video data 146A, 146B, 146C, 146D are recorded as tending to move away from each other. Furthermore, the 3D left moving image data 145A, 145B, 145C, and 145D and the 3D right moving image data 146A, 146B, 146C, and 146D have substantially the same shape as each other, and there may be a difference in left and right parallax.
  • the distances of these L4, L3, L2, and L1 are determined by the CPU 1 based on the pixels that determine the resolution of the touch panel display 8. Alternatively, it can be determined by a program as a multiple of the pixel width when producing 3D left and right video data 6L, 6R, etc.
  • the CPU 1 calculates these distances L4, L3, L2, and L1 on the video memory (VRAM) 6. and configure settings.
  • 3D left video data 145A and 3D right video data 146A are recorded in the video memory (VRAM) 6 so that they are displayed in the smallest size.
  • the distance between each pair of 3D left video data 145B, 145C, 145D and 3D right video data 146B, 146C, 146D in the order of the second video data of B, the third video data of C, and the fourth video data of D is The images are recorded so that they are displayed in a manner that gradually increases in size and the image tends to be enlarged.
  • the rule memory 3A stores regularities such as the image area of each stage of the left and right image data stored in the RAM 3 and the mutual distance L1, based on instructions from the CPU 1.
  • the CPU 1 standardizes and edits the 3D left and right moving image data in the RAM 3 by enlarging or reducing the data and setting the distance L1 according to these rules.
  • the CPU 1 reads 3D left video data 145A, 145B, 145C, 145D and 3D right video data 146A, 146B, 146C, 146D from the RAM 3.
  • the CPU 1 selectively reads either the 3D left video data 145A, 145B, 145C, and 145D, or the 3D right video data 146A, 146B, 146C, and 146D.
  • the input unit is a mouse or keyboard.
  • the CPU 1 sends the left or 3D right video data directly to the video memory (VRAM) 6 by the drawing control program 13, and sends the left or 3D right video data to the video memory (VRAM). 6, the area is expanded to approximately double the area.
  • the first video data in A, the second video data in B, the third video data in C, and the fourth video data in D in FIG. 13, and distances L1, L2, L3, and L4 are four pieces of data for explanation. Although shown in large numbers, a large number of pieces of video data are recorded in the RAM 3 as continuous video data and distance data for each pixel of the touch panel display 8.
  • the VRAM 6 In the actual product, it is recorded in the VRAM 6 as left and right video data with parallax that rotates on its own axis and rotates in a helical manner, such as disks, colored balls, and dolphins swimming underwater.
  • the 3D left video data 145A, 145B, 145C, and 145D are not similar to each other, and the 3D right video data 146A, 146B, 146C, and 146D are not similar to each other, but the 3D left video data 145A, 145B, 3D right moving image data 146A, 146B, 146C, and 146D corresponding to 145C and 145D have substantially the same shape as each other.
  • the display control program 12 and the drawing control program 13 are connected to each other, and when the left and right 3D images for eye training to be displayed on the touch panel display 8 are displayed on the screen, the subject's viewpoint is far or near with respect to the screen.
  • the width of the boundary area 6D (the boundary area 6D is displayed in a specific tone as a boundary area image independent of 3D image data) is adjusted.
  • this reduces the tension in the muscles related to the subject's eyeballs, and as a result, the subject does not feel stressed when looking directly at the 3D image screen, and in fact, the stretching effect is negligible. It will start to work and you will no longer feel the pain of visual recognition.
  • the transaction value of the eye training 3D image increases, thereby increasing the market value.
  • the number of contracts with sponsors who want to secure an advantage will increase synergistically, and there is a possibility that they will be able to invest in further advertising.
  • FIG. 15 is a flowchart illustrating visual acuity and Lenin processing in the data terminal device according to this embodiment. Note that (1) to (12) indicate each step. First, the CPU 1 determines whether the user has received a tap to start the eye training application (1).
  • the menu of the eye training application activated by the user is displayed on the touch panel display 8, and a list of 3D videos used by the user in the 3D training video is also displayed (2).
  • the user when the user confirms that the desired 3D video to be used for eye training has been selected from the 3D video list displayed on the touch panel display 8 (3), the user presses the playback start button displayed on the touch panel display 8. (not shown) waits for a reproduction instruction (4).
  • the CPU 1 starts the generation program 11 expanded on the RAM 3 and creates left and right 3D video data to be displayed on the touch panel display 8 based on the 3D video data instructed to be played in step (4). 5).
  • the CPU 1 starts the drawing control program 13 expanded on the RAM 3, and draws and expands the video playback data on the VRAM 6 based on the left and right 3D video data generated by the generation program 11 (6).
  • the CPU 1 starts the drawing control program 13 developed on the RAM 3, and determines the width of the boundary area to be displayed between the left and right video display areas when the 3D model is reproduced in perspective (7).
  • the CPU 1 starts the drawing control program 13 developed on the RAM 3, and causes the VRAM 6 to draw a two-dimensional width image corresponding to the width of the boundary area to be displayed between the left and right video display areas (8).
  • the width image (see FIGS. 16 and 17) corresponding to the boundary area width not displayed in FIG. 13 is enlarged or reduced.
  • 1601 to 1604 are examples of images that are enlarged or reduced in an intersecting area where left and right viewing areas intersect, and the images are 3D image data. Components that are the same as those in FIG. 13 are given the same reference numerals and explanations will be omitted.
  • FIG. 17, 1701 to 1704 are examples of images that are enlarged or contracted in an intersecting area where left and right viewing areas intersect, and the images are 2D image data. Components that are the same as those in FIG. 13 are given the same reference numerals and explanations will be omitted.
  • the CPU 1 starts the display control program 12 developed on the RAM 3, and synchronizes the 3D video data developed on the VRAM 6 by the drawing control program 13 with the drawing speed of the touch panel display 8 via the I/O 7.
  • the 3D eye training video is played by reading it out and displaying it on the touch panel display 8 (9).
  • the CPU 1 determines whether a predetermined time, for example 15 seconds, has elapsed in the playback time of the 3D eye training video that started playing after step (5) (10).
  • the CPU 1 determines that the playback time of the 3D eye training video that started playing after step (5) has not elapsed for a predetermined period of time, for example, 15 seconds, the CPU 1 returns to step (5) and returns to the 3D eye training video. Repeat video playback.
  • step (10) if it is determined in step (10) that the playback time of the 3D eye training video that started playing after step (5) has elapsed for a predetermined period of time, for example, 15 seconds, the CPU 1 It is determined whether reading of the selected 3D video file has reached the file end (11).
  • the CPU 1 determines that the reading of the 3D video file selected in step (2) has not reached the file end, it returns to step (5) and repeats the reproduction of the 3D eye training video.
  • step (11) if it is determined in step (11) that the reading of the 3D video file selected in step (2) has reached the file end, the 3D video data stored and managed on a non-volatile memory (not shown) is The management data is updated (12) and the process ends.
  • the management data includes the rights information (information identifying the copyright holder) of the registered 3D video data, playback date and time, playback count, etc.
  • the CPU 1 may execute control to periodically reply to the e-mail address specified by the registrant with the reproduction date and time, the number of reproductions, etc.
  • advertising information can be sent back to the administrator of the data processing device that provides 3D video data as a sponsor, and the administrator of the data processing device can analyze the management data to analyze product sales trends (marketing information). It will also be possible for employees to analyze their current product development (functioning as a company) and share their motivation for developing new products.
  • the 3D video playback speed in particular is controlled to determine the optimal playback speed based on experimental data for subjects, but even so, the stress on the eyeballs varies from person to person.
  • a control may be incorporated to increase or decrease the playback speed from the standard level from another menu.
  • subjects can dramatically improve the eye fatigue that modern people suffer from by performing eye acuity training at any time without stress on a portable data terminal, and improve the ability of people who work while staring at a screen to dramatically improve eye strain. Reduce visual acuity loss as much as possible.
  • the subject's visual acuity measured before starting eyeball training was, for example, 0.6 in both eyes
  • the visual acuity measured after starting eyeball training using 3D video improved to 1.2 in both eyes. Actual cases have also been reported.
  • the predetermined 3D image data includes advertising data that specifies the three-dimensional shape of a specific product and sensory data that specifies the movement of the athlete's body.
  • FIG. 18 is a block diagram illustrating the configuration of a data processing system showing this embodiment. Components that are the same as the data terminals shown in FIG. 1 are given the same reference numerals, and their explanations will be omitted.
  • S100 is a management server that connects multiple data terminals D200-1 to D200-N operated by users and data processing devices D100-1 to D100-N operated at a sponsor site via a network N100. They are connected so that they can communicate in both directions using a predetermined protocol. It is assumed that the plurality of data terminals D200-1 to D200-N and the data processing devices D100-1 to D100-N are equipped with a so-called network device and hardware for executing data processing.
  • S100 is a management server
  • S100-1 is a communication unit that connects to network N100 and can communicate bidirectionally with a plurality of data terminals D200-1 to D200-N and data processing devices D100-1 to D100-N. do.
  • S100-2 is a controller unit in which an operating system and various applications stored in an external storage device (not shown) are installed, and performs various data processing by operating an input device (not shown).
  • S100-3 is a billing processing unit that processes a 3D model that specifies a product or service (for example, a specific bottle shape adopted by a liquor manufacturer) that is uploaded from the data processing devices D100-1 to D100-N operated on the sponsor site.
  • a process is performed to confirm the payment of the registration fee when storing the application in the application storage unit S100-4.
  • 3D image data is used based on a shape that specifies the product or service that the sponsor site actually sells.
  • the test subject builds a business model in which the 3D video data for eye training downloaded from the management server S100 plays back the 3D video intended by the sponsor, and the test subject uses the data terminal D200-1 to play the downloaded 3D video data. Even after playing the video and completing the 3D training, the specific shape that identifies the product or service intended by the sponsor will remain imprinted in your brain as an image.
  • the products purchased by the subjects and the services they select promote their desire to purchase, and the sponsor site can obtain advertising effects that cannot be expected from TV commercials.
  • the present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
  • a circuit for example, ASIC
  • a data terminal equipped with a display unit, and generating means for generating 3D image data for the left eye and 3D image data for the right eye, which are captured by the left and right eyeballs of the subject, based on predetermined 3D image data.
  • the 3D image data for the left eye and the 3D image data for the right eye generated by the generating means are displayed in the direction of protruding or retracting with respect to the display screen of the display unit, the center of the display screen is displayed.
  • a display control means for displaying an image that is enlarged or contracted in an intersecting area where left and right viewing areas intersect, in synchronization with a 3D moving image display of the 3D image data for the left eye and the 3D image data for the right eye; It is characterized by being prepared.
  • the display control means controls a display mode so that the 3D image sizes of the 3D image data for the left eye and the 3D image data for the right eye displayed on the display section are synchronized. do.
  • the predetermined 3D image data is an eyeball training image.
  • the predetermined 3D image data is video data.
  • the display control means is characterized in that the display area ratio of the 3D image data is determined based on an aspect ratio determined based on a screen composition ratio of the display unit.
  • the display control means is characterized in that the display control means determines a color tone of a boundary area between the 3D image data for the left eye and the 3D image data for the right eye.
  • the display control means is characterized in that it determines the display time of the 3D image data for the left eye and the 3D image data for the right eye.
  • the predetermined 3D image data is characterized in that it includes advertising data that specifies the three-dimensional shape of a specific product and sensory data that specifies the body movements of the athlete.
  • the display unit is characterized in that it displays a pseudo 3D image based on the predetermined 3D image data.
  • the image that is enlarged or contracted in the intersection area where the left and right viewing areas intersect is 2D image data or 3D image data.
  • a data processing system in which a data processing device operated by a sponsor communicates with a management server that acquires predetermined 3D image data associated with a specific product acquired from the data processing device,
  • the management server includes a billing unit that charges the registration price, and a billing unit that processes the predetermined 3D image data for which the billing process by the billing unit has been completed.
  • a storage means for storing the predetermined 3D image data in a searchable manner;
  • a creation means for creating a list of the predetermined 3D image data stored in the storage means;
  • the apparatus is characterized by comprising an updating means for updating 3D image data stored in the means.
  • a 3D image display method for a data terminal equipped with a display unit which displays 3D image data for the left eye and 3D image data for the right eye captured by the left and right eyeballs of a subject based on predetermined 3D image data.
  • the generation step of generating the 3D image data for the left eye, and the 3D image data for the right eye generated by the generation step are displayed in a direction in which they protrude or draw in with respect to a display screen of the display unit, Displaying an image that is enlarged or contracted in an intersecting area where the left and right viewing areas intersect in synchronization with the 3D video display of the 3D image data for the left eye and the 3D image data for the right eye in the center of the display screen.
  • the present invention is characterized by comprising a display control step for causing the display to occur.

Abstract

携帯可能な小型の端末に3D画像を画面に対向する被験者に遠近表示することに連動して、左右の3D画像の境界域幅を拡縮させながら、画面上で再生される3D動画データを視聴するという簡単な構成で、十分な眼力トレーニング効果が期待きる装置およびアプリケーションソフトウエアを提供すること。 表示部を備えるデータ端末であって、所定の3D画像データに基づいて、被験者の左右の眼球が捉える左目用の3D画像データと、右目用の3D画像データとを生成する生成プログラム(11)と、生成プログラム(11)により生成された前記左目用の3D画像データと、右目用の3D画像データとが表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像を表示さる表示制御プログラム(12)を備えることを特徴とする。

Description

データ端末及びデータ端末の3D画像表示方法、並びにデータ処理システム
 本発明は、データ端末及びデータ端末の3D画像表示方法、並びにデータ処理システムに関するものである。
 近来、画面表示する様々な電子機器が急速に発展することで、子供から大人まで通常生活において、眼球疲労を感じている数は日に日に増している。
 このような状況下において、子供は、学校の授業および帰宅後のゲーム操作を、例えば目の前40cm~50cmにあるパソコン画面を長時間見つめることとなり、仮性近視者も低学年から増大している統計も報告されている。
 一方、デスクワークの労働者も通常業務において、ディスプレイを長時間にわたって見つめているため、眼球疲労を感じている。
 このような症状に対して、各種のアイケア商品、例えばアイケアサプリ、アイケアEMI等が商品化されている。
 ここで、仮性近視者の眼球疲労が起こる原因について考察すると、仮性近視の原因には、目の前40cm~50cmにあるパソコン画面を長時間見つめることで、両眼のなす輻輳角が一定になる。そのため、眼球回りの各直筋が一定の負荷に置かれ、これらがこり固まって眼球運動に支障を来たすと考えられる。その結果、毛様帯、チン小体の運動機能が低下し、水晶体の伸び縮み機能も低下して焦点調節が不良となることに起因することが、下記特許文献1に記載されている。
 このような症状が発生した場合に、眼力トレーニングに利用することで眼球疲労を軽減できることも下記特許文献1に記載されている。
 具体的には、「電子画面にほぼ同形の左右の映像を同時に表示し、観察者が左の映像を右の目で右の映像を左の目で見る交差法、又は左の映像を左の目で右の映像を右の目で見る平行法を行い視覚と脳の想像融合機能により擬似立体映像を認識させる眼力トレーニング用電子画面の表示方法である。左右の映像の面積が小さい時は互いに接近して表示し、時間の経過に従って観察者の左右の眼球が動くように左右の映像の面積を電子画面の画素面積の整数倍で大きくするとともに互いを整数倍で引き離して表示する。」と記載されている。
特開2007-260372号公報
 ここで、人間が眼球から入射した光を立体画像として処理する脳のやくわりについても上記特許文献1の特許請求の範囲には、「電子画面にほぼ同形の左右の映像を同時に表示し、観察者が左の映像を右の目で右の映像を左の目で見る交差法、又は左の映像を左の目で右の映像を右の目で見る平行法を行い視覚と脳の想像融合機能により擬似立体映像を認識させる眼力トレーニング用電子画面の表示方法において、前記左右の映像の面積が小さい時は互いに接近して表示し、時間の経過に従って観察者の左右の眼球が動くように前記左右の映像の面積を前記電子画面の画素面積の整数倍で大きくするとともに互いを前記整数倍で引き離して表示することを特徴とする眼力トレーニング用電子画面の表示方法。」が記載されている。
 しかしながら、上記眼力トレーニング用電子画面の表示方法では、人間の眼球のレンズ機能を調整する筋肉が画像を捉えようとする脳神経作用とも相まって過度に緊張するため、眼球疲労を十分に解消できずにトレーニング効果が期待できない場合が多かった。
 一方、上記眼力トレーニング用電子画面に3D画面を利用する際に、利用する画像が一義的に決定される画像を固定設定してしまうと、初回のトレーニング時には問題が生じないが、数を重ねて同じ3D画像を見続けると、脳の集中力が低下して十分な眼力トレーニング効果が期待できないという事例も報告されていた。
 また、被験者は、3D画像提供者が認証した特定の3D画像群から意図する3D画像を自由に選択できないため、退屈な眼球トレーニング画像を凝視しなければならず、愉しく眼球トレーニングを行えなかった。
 一方、3D画像提供者は、被験者に有益な商業広告効果のある3D画像を提供したいという要求に応えることができず、眼球トレーニングの利用率、普及率を高めたいソフトウエア提供者にも利益還元が期待できず、ビジネスモデルとして成立していないが現状である。
 本発明は、上記の課題を解決するためになされたもので、本発明の目的は、携帯可能な小型の端末に3D画像を画面に対向する被験者に遠近表示することに連動して、左右の眼球が捉える各3D画像の交錯域を拡縮する画像を表示することにより、眼球のピント機能を司る眼球筋肉に関わる毛様体、チン小体をストレッチングして、十分な眼力トレーニング効果が期待できるデータ端末及びデータ端末の3D画像表示方法、並びにデータ処理システムを提供することである。
 また、本発明の目的は、被験者は、3D画像提供者が認証した特定の3D画像群から意図する3D画像を自由に選択し、該選択した所望の眼球トレーニング画像を視聴しながら、愉しく眼球トレーニングを行えるとともに、3D画像提供者には被験者に有益な商業広告効果が期待できるデータ処理システムを提供することである。
 上記目的を達成する本発明のデータ端末は、以下に示す構成を備える。
 表示部を備えるデータ端末であって、所定の3D画像データに基づいて、被験者の左右の眼球が捉える左目用の3D画像データと、右目用の3D画像データとを生成する生成手段と、前記生成手段により生成された前記左目用の3D画像データと、前記右目用の3D画像データとが前記表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、前記表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの境界域に拡縮する画像表示する表示制御手段を備えることを特徴とする。
 上記目的を達成する本発明のデータ処理システムは、以下に示す構成を備える。
 スポンサーが操作するデータ処理装置と、前記データ処理装置から取得する特定の商品に対応づけられた所定の3D画像データを取得する管理サーバと、が通信するデータ処理システムであって、前記管理サーバは、前記データ処理装置からアップロードされる前記所定の3D画像データを取得する際に、登録対価を課金処理する課金手段と、前記課金手段による課金処理が完了した前記所定の3D画像データを検索可能に蓄積する蓄積手段と、前記蓄積手段に蓄積された前記所定の3D画像データの一覧を作成する作成手段と、前記データ処理装置から取得する前記所定の3D画像データに基づいて、前記蓄積手段に蓄積されている3D画像データを更新する更新手段と、を備えることを特徴とする。
 本発明によれば、左右の眼球が捉える3D動画データを視聴するだけで、眼球のピント機能を司る毛様体、チン小体をストレッチングして、十分な眼力トレーニング効果が得られる。
 また、被験者は、3D画像提供者が認証した特定の3D画像群から意図する3D画像を自由に選択し、該選択した所望の眼球トレーニング画像を視聴しながら、愉しく眼球トレーニングを行えるとともに、3D画像提供者には被験者に有益な商業広告効果が得られる。
 図面は、本発明の特定の実施の形態を示し、発明の不可欠な構成ばかりでなく、選択的及び好ましい実施の形態を含む。
本実施形態を示すデータ端末の構成を説明するブロック図。 図1に示したRAMに記憶された制御プログラムに基づく機能処理を実行する手段を説明するブロック図。 人間の眼球特性を説明する図。 人間の眼球特性を説明する図。 人間の脳構造を説明する図。 人間の脳構造を説明する図。 透視図法による遠近図形を説明する図。 人間の目の構造を説明する垂直断面図。 疑似立体映像を認識させる際の交差法を説明する図。 眼球移動状態を説明する図。 人間の眼球の周りにある6本の筋肉の配置を示す外観図。 疑似立体映像を認識させる際の平行法を説明する図 疑似立体映像を認識させる際の平行法を説明する図。 疑似立体映像データの表示状態を説明する図。 本実施形態を示すデータ端末装置における眼力とレーニン処理を説明するフローチャート。 左右の視野域が交錯する交錯域で拡縮する画像の表示例を説明する図。 左右の視野域が交錯する交錯域で拡縮する画像の表示例を説明する図。 本実施形態を示すデータ処理システムの構成を説明するブロック図。
 次に本発明を実施するための最良の形態について図面を参照して説明する。下記の実施の形態は、発明の不可欠な構成ばかりでなく、選択的及び好ましい実施の形態を含む。
 <システム構成の説明>
 〔第1実施形態〕
 図1は、本実施形態を示すデータ端末の構成を説明するブロック図である。ここで、データ端末として、スマートフォンが好例である。
 図1において、1はCPUで、RAM3に展開される描画制御プログラムを実行することにより、VRAM6に対して描画された疑似3D用の画像データをI/O7を介してタッチパネルディスプレイ8に表示することで、タッチパネルディスプレイ8に所定秒ごとに、図2に示す生成プログラム11に対応付けられた生成プログラムを実行することにより、生成された左目用の3D画像データ6Lと、右目用の3D画像データ6Rとがタッチパネルディスプレイ8の表示画面に対して飛び出す方向Aまたは引き込む方向Bに表示する場合、表示画面の中央部であって、左目用の3D画像データ6Lと右目用の3D画像データ6Rとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像を表示させる制御を行う。
 なお、左目用の3D画像データ6Lと右目用の3D画像データ6Rとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像を表示させる制御の詳細手順については後述する。なお、左右の視野域が交錯する交錯域で拡縮する画像は、2D画像データ(図17参照)または3D画像データ(図16参照)である。ユーザが2D画像データまたは3D画像データを選択できるように構成してもよい。
 5は通信部で、インターネット9を介してサーバ装置とインターネットプロトコルで双方向に通信可能に構成されている。4は仮想キーボード部で、タッチパネルディスプレイ8に数字、記号、文字を表示して、ユーザからのテキスト入力を受け付けることができるように構成されている。
 ここで、文字は、各種の言語に対応しており、仕向け地の言語環境に対して柔軟に対応できるように構成されている。
 2はROMで、基本ソフト(アンドロイド(登録商標)、iOS(登録商標))が記憶されており、RAM3上に常駐させ、かつ、特定のアプリケーションサイトからダウンロードされた各種のアプリケーションをインストールすることで、データ端末の機能を自在に拡張することができるように構成されている。
 サーバ装置10-1~10-Nは、インターネット9上に随時接続されて、サーバ装置10-1~10-N中の特定のサーバ装置が管理する記憶装置に、他のサーバ装置がアップロードした特定の3D画像データを蓄積し、かつ、更新可能に構成されている。
 図2は、図1に示したRAM3に記憶された制御プログラムに基づく機能処理を実行する手段を説明するブロック図である。なお、図1に示した同一のものには同一の符号を付している。
 図2において、11は生成プログラムで、いずれかのサーバ装置からダウンロードした眼球トレーニングアプリケーションに基づいてRAM3上に展開されている。
 生成プログラム11は、所定の3D画像データに基づいて、被験者の左右の眼球が捉える左目用の3D画像データと、右目用の3D画像データとをVRAM6上に生成して描画する。なお、生成プログラム11が処理する所定の3D画像データは、動画データとしてタッチパネルディスプレイ8に表示するため高速に描画処理する。ただし、描画速度は、CPU1の処理能力に依存するため、CPU1の描画処理能力で決定されるものとする。
 12は表示制御プログラムで、生成プログラム11が生成した左目用の3D画像データと、前記右目用の3D画像データとが前記表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、タッチパネルディスプレイ8の表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの境界域6Dの幅を拡縮させる表示制御を実行する。
 13は描画処理プログラムで、生成プログラム11が生成した左目用の3D画像データと、前記右目用の3D画像データとが前記表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、タッチパネルデイスプレイ8の表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの境界域6Dの幅を特定する描画データを作成してVRAM6上に高速に描画処理を実行する。
 なお、タッチパネルディスプレイ8に表示される疑似3D画像データと、VRAM6上に描画される疑似3D画像データは、1:1に対応しているものとする。
 また、表示制御プログラム12は、タッチパネルディスプレイ8の画面構成比に基づいて決定される縦横比に基づいて3D画像データの表示面積比率を決定する。
 さらに、表示制御プログラム12は、左目用の3D画像データと前記右目用の3D画像データとの境界域の色調を決定する。したがって、表示する3D動画の色調と、補色となるような関係づけがなされた特定の色調を選択すると、眼球トレーニング効果が高まる。
 また、本実施形態では、タッチパネルディスプレイ8は、1台のスマートフォンでは表示可能画面数は、1画面として機能させるが、スマートフォンが外部表示部に表示データを出力可能であれば、複数台のスマートフォン上でタッチパネルディスプレイ8に表示される疑似3D画像データを共有することも可能である。
 以下、本発明の実施形態を説明する前に、視力と脳の解釈構造及び左右目による遠近図法や立体視の基本的な原理についてそれぞれ説明する。
 人間は、両眼視差と輻輳角度と脳は、密接に関わり、図3、図4に示すように物が手前に出で来るときは、両眼視差が大きくなり(T2>T1)輻輳角度も広がって行く。
 まず、人間の脳について、大脳生理学・解剖学上公知の構造・機能について図5、図6で説明する。
 近年脳医学や生体脳スキャナーや脳波の研究・開明や生化学の進歩により、人間の脳構造と脳の各種機能と機能部位(大脳での分布位置)が明らかにされつつある。
 図解雑学「脳のしくみ」岩田誠監修によると、人間の脳100ではほぼ左右対称の左脳101と右脳102とからなる大脳とその後ろ下方の小脳103とから構成される。脳全体を大脳皮質104が被っているが左右の側頭連合野105の(耳)下方に小面積の聴覚野106がそれぞれあり、後方の後頭連合野108の下方(小脳103の上方)で左右に小面積の視覚野109がそれぞれある。
 球体の大脳皮質は側面から見て、空間領域分布では前頭葉200、頂上の頭頂葉201、後頭葉202、側頭葉203から構成される。
 耳の情報を受けるのが聴覚野106で、それは左右耳のやや上方、側頭葉203の中央下方部にあり、一方眼の情報を受ける左右視覚野109は左右後頭葉202の最後部下端にある。
 更に大脳は機能上では、5感からの情報を処理し、判断する5つの連合野からなり、これらは前頭連合野204、頂上の頭頂連合野205、後頭連合野108、側頭連合野105、前頭連合野204と頭頂連合野205に挟まれた運動連合野206である。各連合野は左右の脳に対象的に分布し、各連合野は脳発達・成長とともにその機能性を高めて行く。
 視覚野109が、目からの色、形、奥行き、動き情報を受けて、後頭連合野108ではこれらの情報を分析・統合して対象物を判断し認識する。また脳には交叉支配というものがあり、右目を始め体の右の情報・運動は左脳に支配され、左目を始め体の左の情報・運動は右脳に支配される。
 脳の左半球の働きは、話す、書く、判断など論理的思考、計算機能が主である。一方右半球は左右の視野に対して満遍なく対応する機能があり、空間内の総合認識や操作機能を優位に備えている。更に右半球は、絵画の全体的構成、未知のメロディーの認知、視覚に入る外界の全体的情報の解読に優位に機能する。
 次に、左右目による遠近図法や立体視の基本的な原理では、人間において、左右の眼に同一の物体であっても両眼の並んだ水平方向に位置がずれた視差を有して結像している。人間が太陽や遠くの山や川等の無限遠を見ている時には、眼球が動いて左右の眼に入る光軸(左右の視線)が平行になり、左の眼に見えるものは右に移動し、右の眼に見える同一のものは左に移動した状態で見える。光軸が平行な状態では、眼に近い位置の物体の視差は遠い物体の視差より大きくなり、遠くになればなるほど視差は次第に小さくなる。
 また目先から約100メートル先までの物体を見ると、図3において左右の眼球がその方向を向くように動き、左右の眼は、見ている物体に対して輻輳角Tを形成する。眼に近い位置の物体の輻輳角T2は遠い物体の輻輳角T1より大きくなっている(T2>T1)。
 左右の眼から入った映像は左右が交叉して図5、図6の右左の視覚野109が、目からの色、形、奥行き、動き情報を受け、後頭連合野108ではこれらの情報を分析・統合して対象物を判断し立体映像を認識する。
 人間の脳はこれら図3の輻輳角Tと視差により当該物体の立体像を認識し且つ遠近を判断している。この輻輳角T1、T2は本来人間の脳が、両眼球の視線と焦点調節(水晶体の調節)と左・右視差に基づいて認識する。我々の持つ二つの眼は、その位置のずれから左右眼で異なる像を形成する。特に見る人から対象物までの距離に依存して、網膜では両眼でわずかにずれた像が写り、画像の相対的な差は視差と呼ばれる。脳はこの視差を測定でき、それを使って見る人から対象物までの相対的な距離を評価する。
 更に図4において、視差について詳しく説明する。3次元空間にある物体即ち視標100aを人間が見る場合、左目503Lと右目503Rの網膜に写った像の違いを脳内の視覚野109と、後頭連合野108で処理して奥行きを知覚すると考えられている。動物たる人類の左右の目503L・503Rは約6-7cm離れているため、その視差(両眼視差)は近距離において奥行きを知覚するもっとも重要な要因となっている。
 今理解を容易にするため視標100aを立方体とし、側面に円が描かれている、左目503Lには立方体100aの左側面501が広く見え、右側面502が狭まって(細長い楕円状)見える。これを左目視差効果度と定義する。
 一方右目503Rには立方体100aの右側面502が広く(円状に)見え、左側面501が狭まって(長方形に)見える。これを右目視差効果度と定義する。
 自然界に於ける人間の目では、左右の目503L・503Rが約6-7cm離れている理由で、右目視差効果度と左目視差効果度とこれらの映像相関計数は万人に共通で一定の規則性に従っている。
 一方、コンピュータ映像では、映像制作過程で、右目視差効果度と左目視差効果度とこれらの映像相関計数とを自由に変化・設定が可能である。
 次に、図7において、無限遠点W(人間の生活空間では10m後方で充分)から距離L1に立方体100aがある場合と、距離L2に立方体100aがある場合と、距離L3に立方体100aがある場合とを考察する。距離L2は丁度パソコン画面等の位置とする。
 立方体100aを見る場合には、観察者に近い距離L3の立方体100aは大きく(表示面積大)、観察者から中間位置距離L2にある立方体100aは中程度に(表示面積中)、観察者から遠い距離L1の立方体100aは小さく(表示面積小)それぞれ表示する。これを透視図法による遠近面積率と定義すると、遠近面積率は左右の目に共通である。
 整理すると、立体感、遠近感の主要素(生理的立体視要素)としては、両眼視差:左右の目に写る像の違い、両眼輻湊:視線の交差角、つまり眼球の回転角、眼球回転角制御で距離が認識される。焦点調節:焦点を合せる為のレンズの厚さ変化、レンズの厚さ制御で、距離が認識される。運動視差:移動により目に写る像の違いで、物体の状態変化により位置が認識される。最後に両眼の像が融合して、立体認識される。
 遠近感の主要素(感覚的立体視要素)としては、大・小:小さい物は遠く、大きい物は近くに感じる。上・下:上に有る物は遠く、下に有る物は近くに感じる。粗・密:密集した所は遠く、粗い所は近くに感じる。運動:遅く動く物は遠く、速く動く物は近くに感じる。遮・蔽:重なり隠れる物は遠く、隠す物は近くに感じる。明・暗:暗い所は遠く、明るい所は近くに感じる。鮮・明:霞んだ所は遠く、鮮明な所は近くに感じる。陰・影:影(光源)の位置による判断。濃・淡:淡い色は遠く、濃い色は近くに感じる。色相:寒色は遠く、暖色は近くに感じる。
 次に、本発明の基本となる擬似立体映像について説明する。
 歴史的にはカメラの出現以後にステレオカメラが知られている。人間の左右の目に対応して水平に約6-7cm接近した2個のレンズで同時に2枚の人物や生活空間の風景写真を撮る。ここでも左右の目に対応した水平に約6-7cm接近した2個のレンズで同時に左右の目で同時に見ることで立体映像を人間が認識する。
 次に医学上知られている目の生理学上の構成について、図8を参照しながら説明する。
 図8において、眼球60は外から見える角膜と虹彩と水晶体61と内部の硝子体と毛様体62と網膜と黄斑と視神経とから構成される。眼球60は外部を見るためにキョロキョロ動けるように、図11に示す6本の眼筋63に外表が結合されている。眼筋63は2本の上下直筋と2本の外内(眼球の左右側にある)直筋と2本の上下斜筋である。
 眼球60は角膜と連続した柔らかい袋体64に包まれており、6本の眼筋63が袋体64を特定な位置から引くことで、眼球60が動く。
 水晶体61は柔らかい厚みのある円盤形であり、図8、図11に示すようにその周縁部を囲むように毛様体62が位置し、毛様体62は略円環状であり、その外周部が角膜と袋体64とが連続する位置と結合している。毛様体62の内周部に水晶体61があり、毛様体62の内周部と水晶体61の外周部とは糸状の無数のチン小帯65で接続されている。
 毛様体62が弛緩すると、チン小帯65が緊張して水晶体61が引っ張られて圧縮されて扁平となり、眼が遠くを見る状態になる。
 一方、毛様体62が収縮すると、図8に示すようにチン小帯65が緩み水晶体61が膨らむようになり厚くなり、眼が近くを見る状態になる。
 人間が意識して遠・近を見る場合には、毛様体62とチン小帯65と水晶体61とが動き焦点調整を行い、周囲を見る場合は、6本の眼筋63及び毛様体62とチン小帯65と水晶体61とが同時に動くことになる。
 さて、長時間のテレビ観賞や電子表示装置上での仕事や子供の長時間に渡るテレビゲーム、通常の長時間の文書仕事では、眼の視界方向が一定、見ている対象映像への焦点距離が一定となっている。従って眼の6本の眼筋63及び毛様体62とチン小帯65と水晶体61が運動不足になり、さまざまな健康障害を起こす原因となる。
 外部から間接的に触れられる人間の筋肉では、手で揉んだり、屈伸運動をしたり、背伸びしたりして疲労回復が可能である。
 眼の6本の眼筋63及び毛様体62とチン小帯65と水晶体61は元々小さく頭部内部の細かい筋肉であるので、任意に手で揉んだり、屈伸運動をしたり、背伸びしたり出来ない筋である。
 次に立体視の交差法(クロス法)と平行法(パラレル法)について、図9、図10を参照して説明する。
 図9において、交差法(クロス法)では左目で右目用の映像を、右目で左目用の映像をそれぞれ同時に見る。暫らく見つめていると脳の働きにより、左右の映像が重なって3枚の映像が見えてくる。このとき真中の映像が脳で左右の合成された擬似立体映像である。立体図では真中の映像の部分が手前に飛び出して(浮かんで)見えてくる。
 交差法(クロス法)では左右の目線が左右の映像の前で交差し、図10の濃い線画に示すように左右の目は寄り目になっている。この時に図11に示す眼の6本の眼筋63及び毛様体62とチン小帯65と水晶体61とが動いている。
 図12において、平行法(パラレル法)では、左目で左目用の映像を、右目で右目用の映像をそれぞれ同時に見る。暫らく見つめていると脳の働きにより、左右の映像が重なって3枚の映像が見えてくる。このとき真中の映像が脳で左右の合成された擬似立体映像である。擬似立体図では真中の映像の部分が奥に凹んで(沈んで)見えてくる。
 平行法(パラレル法)では左右の目線が平行で、図4の点線画に示すように左右の目は外向きになっている。本願は、特に交差法(クロス法)を利用する電子画面に表示した擬似立体映像による眼力トレーニング方法であり、以下具体的に説明する。
 立方体の映像は、3D左右動画データがビデオメモリ6上で、図13に示すように表示画面を仮想の分割線1434で左右に分割し、左表示部1435と左表示部1436とし、これら左表示部1435、1436に左右視差に対応した3D左右動画データ145A、146Aが配置されるようにRAM3に記録されている。ここで、CPU1は、図2に示した生成プログラム11を実行することにより、2D動画データからRAM3上のワーク上で3D動画データを展開し、3D左右動画データ145A、146Aを生成する。
 以下、図1に示したRAM3に記録された左右の映像について簡単な立方体を例に説明する。
 図13のAの第一映像データでは、左表示部1435、右表示部1436に配置される3D左動画データ145Aと3D右動画データ146Aとの距離は最も接近したL1になるように記録されている。同様にBの第二映像データではそれぞれ表示された3D左動画データ145Bと3D右動画データ146Bとの距離はやや離れたL2であり、Cの第三映像データでは3D左動画データ145Cと3D右動画データ146Cとの距離は離れたL3であり、Dの第四映像データでは3D左動画データ145Dと3D右動画データ146Dとの距離は最も離れたL4であるように記録されている。
 即ちL4>L3>L2>L1の関係であり、次第に次の表示画面に行くに従って、各対になる3D左動画データ145Aと、145B、145C、145Dと3D右動画データ146A、146B、146C、146Dは互いに離隔して行く傾向に記録されている。また3D左動画データ145Aと、145B、145C、145Dと3D右動画データ146A、146B、146C、146Dは互いにほぼ同形であり、なお左右視差程度の違いを有する場合もある。
 これらL4、L3、L2、L1の距離はタッチパネルディスプレイ8の解像度を決定する画素に基づいてCPU1により決定される。またはプログラムで画素幅の倍数として3D左右動画データ6L、6R等を制作する際に決められる。
 ビデオメモリ(VRAM)6の画面データがそのままタッチパネルディスプレイ8では人間の目に入る光となって発光されるので、CPU1はビデオメモリ(VRAM)6上でこれら距離L4、L3、L2、L1の計算し設定を行なう。
 更にAの第一映像データでは3D左動画データ145Aと3D右動画データ146Aが最も小さく表示されるようにビデオメモリ(VRAM)6に記録されている。Bの第二映像データ、Cの第三映像データ、Dの第四映像データの順に、各対になる3D左動画データ145B、145C、145Dと3D右動画データ146B、146C、146Dは、距離が次第に大きくなると共に、映像が次第に拡大されて行く傾向に表示されるように記録されている。
 規則メモリ3Aは、CPU1の指示に基づいて、RAM3に格納されている左右画像データの各段の映像面積と相互の距離L1などの規則性を記憶している。
 CPU1はRAM3にある3D左右動画データに対して、この規則に従って拡大または縮小と距離L1なの設定が行なわれ規格化・編集する。
 CPU1は、RAM3から3D左動画データ145Aと、145B、145C、145Dと3D右動画データ146A、146B、146C、146Dを読み出す。CPU1は、3D左動画データ145Aと、145B、145C、145D又は3D右動画データ146A、146B、146C、146Dのどちらかを択一的に読み出す。入力部はマウスやキーボードである。
 左3D右動画データのうち一方が選択されると、CPU1は左又は3D右動画データは描画制御プログラム13が直接ビデオメモリ(VRAM)6に送り、左又は3D右動画データをビデオメモリ(VRAM)6上で約2倍の面積に拡大するように処理される。
 図13のAの第一映像データ、Bの第二映像データ、Cの第三映像データ、Dの第四映像データと、距離L1、L2、L3、L4とは説明のため4個のデータを飛び飛びに大きく示したが、映像データ上でタッチパネルディスプレイ8の画素単位で連続的な映像データと距離データとしてRAM3に多数枚が記録されている。
 また、RAM3の記録状態を図13では簡単な立方体で回転運動がない映像データを使って説明したが、図14に示すように、立方体をサイコロとし、自転とラセン回転運動する映像データとしてVRAM6に記録する。
 実際の製品では、円盤や色の付いた球、イルカの水中遊泳など自転とラセン回転運動をする視差を持つ左右の映像データとしてVRAM6に記録する。この場合3D左動画データ145Aと、145B、145C、145Dが互いに相似形ではなく、かつ3D右動画データ146A、146B、146C、146Dも互いに相似形ではなく、しかし3D左動画データ145Aと、145B、145C、145Dとそれぞれ対応する3D右動画データ146A、146B、146C、146Dが互いにほぼ同形となる。
 その際、表示制御プログラム12と、描画制御プログラム13は、連系しながら、タッチパネルディスプレイ8に表示する眼力トレーニングのための左右の3D画像を画面表示する際、被験者の視点が画面に対して遠近することに連動して境界域6D(境界域6Dは、3D画像データとは独立した境界域画像として、特定の色調で表示される)の幅を調整する。
 これにより、従来の3D眼力トレーニング表示画面に比べて、被験者の眼球に関わる筋肉の緊張を和らげ、結果として、被験者が3D画像画面を直視してもストレスがかからず、むしろストレッチ効果が無視域のうちに作用して視認することに苦痛を覚えることがなくなる。
 なお、眼力トレーニングのための3D動画画像の再生時間を、特定時間、例えば8秒から15秒を1セットとして所定の描画速度で再生することで、被験者の脳には、視認した3D動画画像のうち、動く対象物がイメージ強調されて残像化することなる。
 一方、トレーニングを受けた被験者は、脳に形成される記憶回路に視聴した情報が残り、なんかの外的要因(食欲、商品購買欲を含む)により、その映像が自動再生され、今日は冷やし中華が食べたいとか、特定の商品を買い求めたとかが喚起され、眼力トレーニングによる副産物として、表示すべき3D画像を提供するビジネスモデルを確立する可能性が高いことが考察されている。
 これにより、商品・サービスを提供するスポンサーは、3D画像への投資を行う独自の戦略モデルを構築して、経常できる売上の飛躍的な増大に期待している。
 よって、後述するように、スポンサーが操作するサーバ装置から眼力トレーニング3D画像をダウンロードして、本実施形態に示すアプリケーションに連動させることで、眼力トレーニング3D画像の取引価値が増大することで、市場における優位性を確保したいスポンサーとの契約数も相乗的に増えて、さらなる広告への投資も更ける可能性がある。
 〔疑似3D画像画面による眼力トレーニング処理〕
 本例は、被権者が携帯可能なデータ端末、例えばスマートフォンを利用する場合を説明するが、データ端末は、スマートフォンに限定されることはなく、Padデバイスであっても本発明を適用可能である。
 図15は、本実施形態を示すデータ端末装置における眼力とレーニン処理を説明するフローチャートである。なお、(1)~(12)は各ステップを示す。
 まず、CPU1は、ユーザが眼力トレーニングアプリケーションを起動するタップを受け付けたかどうかを判断する(1)。
 ここで、ユーザがタッチパネルディスプレイ8に起動した眼力トレーニングアプリケーションのメニューを表示するとともに、ここでユーザが3Dトレーニング動画で使用する3D動画一覧を表示する(2)。
 ここで、ユーザがタッチパネルディスプレイ8に表示された3D動画一覧から眼力トレーニングに使用する所望の3D動画選択されたことを確認したら(3)、さらに、ユーザがタッチパネルディスプレイ8に表示された再生開始ボタン(図示しない)により再生指示するのを待つ(4)。
 次に、CPU1は、RAM3上に展開した生成プログラム11を起動して、ステップ(4)で再生指示された3D動画データに基づいて、タッチパネルディスプレイ8に表示する左右の3D動画データを作成する(5)。
 次に、CPU1は、RAM3上に展開した描画制御プログラム13を起動して、生成プログラム11が生成した左右の3D動画データに基づいてVRAM6上に動画再生データを描画展開する(6)。
 次に、CPU1は、RAM3上に展開した描画制御プログラム13を起動して、3Dモデルが遠近再生する際、左右の動画表示領域の狭間に表示すべき境界域幅を決定するとともに(7)、CPU1は、RAM3上に展開した描画制御プログラム13を起動して、上記左右の動画表示領域の狭間に表示すべき境界域幅に対応する二次元の幅画像をVRAM6上に描画させる(8)。
 なお、本実施形態では、図13には表示されていない境界域幅に対応する幅画像(図16、図17参照)が拡縮することで、タッチパネルディスプレイ8に表示される3D動画を視聴する際に、眼球を制御する筋肉の緊張をほぐすことで、眼球動作を司る各筋肉の緊張をほぐし眼球全体にかかるストレスを軽減する。
 ここで、図16,図17を参照して、表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像例について説明する。
 図16において、1601~1604は、左右の視野域が交錯する交錯域で拡縮する画像例であって、画像が3D画像データである場合を示す。なお、図13と同一のものには同一の符号を付して説明を省略する。
 同様に、図17において、1701~1704は、左右の視野域が交錯する交錯域で拡縮する画像例であって、画像が2D画像データである場合を示す。なお、図13と同一のものには同一の符号を付して説明を省略する。
 次に、CPU1は、RAM3上に展開した表示制御プログラム12を起動して、描画制御プログラム13がVRAM6上に展開した3D動画データをI/O7を介してタッチパネルディスプレイ8の描画速度に同期させながら読み出し、タッチパネルディスプレイ8に表示することで、3D眼力トレーニング動画を再生する(9)。
 次に、CPU1は、ステップ(5)以降で再生を開始した3D眼力トレーニング動画の再生時間が所定時間、例えば15秒経過したかどうかを判断する(10)。
 ここで、CPU1は、ステップ(5)以降で再生を開始した3D眼力トレーニング動画の再生時間が所定時間、例えば15秒経過していないと判断した場合は、ステップ(5)へ戻り、3D眼力トレーニング動画の再生を繰り返す。
 一方、ステップ(10)で、ステップ(5)以降で再生を開始した3D眼力トレーニング動画の再生時間が所定時間、例えば15秒経過していると判断した場合は、CPU1は、ステップ(2)で選択した3D動画ファイルの読み込みがファイルエンドに到達したか否かを判断する(11)。
 ここで、CPU1は、ステップ(2)で選択した3D動画ファイルの読み込みがファイルエンドに到達していないと判断した場合は、ステップ(5)へ戻り、3D眼力トレーニング動画の再生を繰り返す。
 一方、ステップ(11)で、ステップ(2)で選択した3D動画ファイルの読み込みがファイルエンドに到達していると判断した場合は、図示しない不揮発性メモリ上で記憶して管理する3D動画データの管理データを更新して(12)、処理を終了する。
 なお、ここで、管理データには、登録した3D動画データの権利情報(著作権者を特定する情報)、再生日時、再生回数等が含まれる。
 またCPU1は、再生日時、再生回数等は、登録者が指定するメールアドレス宛に定期的に返信する制御を実行してもよい。
 これにより、スポンサーとして3D動画データを提供するデータ処理装置の管理者に広告情報を返信することができ、データ処理装置の管理者は、その管理データを解析して、商品の販売動向(マーケティング情報として機能する)を分析したり、新たな商品開発へのモチベーションを社員で共有したりすることも可能となる。
 また、本実施形態では、特に3D動画再生速度については、被験者を対象として実験データを踏まえて、最適な再生速度を決定するように制御しているが、それでも眼球に対するストレスは個人差があるため、図15のステップ(2)の一覧画面をタッチパネルディスプレイ8に表示したタイミングで、他のメニュー上から再生速度を標準レベルから速めたり、遅くしたりできる制御を組み入れてもよい。
 〔第1実施形態の効果〕
 本実施形態によれば、被験者は、携帯するデータ端末上でいつでも眼力トレーニングをストレスなく実行することで、現代人が抱える眼球疲労を劇的に改善し、画面を凝視しながら作業を行う者の視力低下をできるだけ軽減できる。
 なお、被験者が眼球トレーニングを開始する前に計測した視力が、例えば両眼0.6であった場合に、3D動画による眼球トレーニングを開始した後に計測した視力が両眼で1.2まで改善した実例も報告されている。
 なお、所定の3D画像データは、特定の商品の立体形状を特定する広告データ、アスリートの体の動きを特定する体感データを含むものとする。
 これにより、他分野において、3D動画による眼球トレーニングに基づく学習効果が期待できる。
 また、所定の3D画像データに基づいて、疑似3D画像を表示するため、仮想空間を視認するゴーグル等が不要で、いつでも、どこでもトレーニングを実行することができる。
〔第2実施形態〕
 上記第1実施形態では、3D動画による眼球トレーニングのための描画処理について詳述したが、3D動画による眼球トレーニングで使用する3D動画データをスポンサー企業が手掛ける商品、サービスを特定する3Dモデルを課金処理により、管理サーバに登録可能とすることで、新たなビジネスモデルを構築して、被験者が提供されたスポンサー企業が手掛ける商品、サービスを特定する3Dモデルを市場で選択し易くなる仕組みについて詳述する。
 図18は、本実施形態を示すデータ処理システムの構成を説明するブロック図である。なお、図1に示したデータ端末と同じものには同一の符号を付して、その説明を省略する。
 図18において、S100は管理サーバで、ネットワークN100を介して、ユーザが操作する複数のデータ端末D200-1~D200-Nと、スポンサーサイトで操作されるデータ処理装置D100-1~D100-Nと所定のプロトコルで双方向に通信可能に接続される。なお、複数のデータ端末D200-1~D200-Nおよびデータ処理装置D100-1~D100-Nは、いわゆるネットワークデバイスを備え、データ処理を実行するハードウエアを備えているものとする。
 S100は管理サーバにおいて、S100-1は通信部で、ネットワークN100に接続して、複数のデータ端末D200-1~D200-Nおよびデータ処理装置D100-1~D100-Nと双方向に通信可能とする。
 S100-2はコントローラ部で、図示しない外部記憶装置に記憶されたオペレーティングシステムおよび各種アプリケーションがインストールされており、図示しない入力デバイスを操作することで各種のデータ処理を行う。
 S100-3は課金処理部で、スポンサーサイトで操作されるデータ処理装置D100-1~D100-Nからアップロードされる商品またはサービスを特定する3Dモデル(例えば酒造メーカーが採用した特定のボトル形状)をアプリ蓄積部S100-4に蓄積する際の登録料の支払いを確定する処理を行う。
 本実施形態では、第1実施形態に示した3D動画データに代えて、スポンサーサイトが実際に販売する商品やサービスを特定する形状に基づく3D画像データとする。
〔第2の実施形態の効果〕
 これにより、被験者は、管理サーバS100からダウンロードする眼力トレーニングのための3D動画データをスポンサーが意図する3D動画を再生させるビジネスモデルを構築し、ダウンロードした3D動画データを被験者がデータ端末D200-1で再生して3Dトレーニングを終了しても、脳内にはスポンサーが意図する商品やサービスを特定する特定形状がイメージとして刷り込まれる。
 この際、ユーザは、一種の広告画像として刷り込まれてしまうため、コンビニエンスストアでの買い物時に、刷り込まれた形状で特定される商品やサービスを選択する傾向が顕著に現れる。
 これにより、被験者が購入する商品や選択するサービスが購買意欲を促進することで、スポンサーサイトにとっては、TVCMでは到底期待できない広告宣伝効果が得られる。
 上述したように、眼力トレーニングを3D動画に代えることで、眼球疲労の軽減ばかりでなく、広告宣伝機能の付加価値をも高めることが考察された。
 しかしながら、眼力トレーニングを3D動画で行う仕組みを、教育、スポーツの分野にも広げることが可能であり、従来の指導では、伝達できなかった動作やタイミングを短期間に捉えてトレーニング効果を格段に向上できる。
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステムまたは装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えばASIC)によっても実現可能である。
 以上の記載した本発明に関する開示は、少なくとも下記事項に要約することができる。
(1)表示部を備えるデータ端末であって、所定の3D画像データに基づいて、被験者の左右の眼球が捉える左目用の3D画像データと、右目用の3D画像データとを生成する生成手段と、前記生成手段により生成された前記左目用の3D画像データと、前記右目用の3D画像データとが前記表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、前記表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像を表示させる表示制御手段を備えることを特徴とする。
(2)前記表示制御手段は、前記表示部に表示する前記左目用の3D画像データと前記右目用の3D画像データとの3D画像サイズとが同期するように表示態様を制御することを特徴とする。
(3)前記所定の3D画像データは、眼球トレーニング画像であることを特徴とする。
(4)前記所定の3D画像データは、動画データであることを特徴とする。
(5)前記表示制御手段は、前記表示部の画面構成比に基づいて決定される縦横比に基づいて前記3D画像データの表示面積比率を決定することを特徴とする。
(6)前記表示制御手段は、前記左目用の3D画像データと前記右目用の3D画像データとの境界域の色調を決定することを特徴とする。
(7)前記表示制御手段は、前記左目用の3D画像データと前記右目用の3D画像データとの表示時間を決定することを特徴とする。
(8)前記所定の3D画像データは、特定の商品の立体形状を特定する広告データ、アスリートの体の動きを特定する体感データを含むことを特徴とする。
(9)前記表示部は、前記所定の3D画像データに基づいて、疑似3D画像を表示することを特徴とする。
(10)前記左右の視野域が交錯する交錯域で拡縮する画像は、2D画像データまたは3D画像データであることを特徴とする。
(11)スポンサーが操作するデータ処理装置と、前記データ処理装置から取得する特定の商品に対応づけられた所定の3D画像データを取得する管理サーバと、が通信するデータ処理システムであって、前記管理サーバは、前記データ処理装置からアップロードされる前記所定の3D画像データを取得する際に、登録対価を課金処理する課金手段と、前記課金手段による課金処理が完了した前記所定の3D画像データを検索可能に蓄積する蓄積手段と、前記蓄積手段に蓄積された前記所定の3D画像データの一覧を作成する作成手段と、前記データ処理装置から取得する前記所定の3D画像データに基づいて、前記蓄積手段に蓄積されている3D画像データを更新する更新手段と、を備えることを特徴とする。
(12)表示部を備えるデータ端末の3D画像表示方法であって、所定の3D画像データに基づいて、被験者の左右の眼球が捉える左目用の3D画像データと、右目用の3D画像データとを生成する生成ステップと、前記生成ステップにより生成された前記左目用の3D画像データと、前記右目用の3D画像データとが前記表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、前記表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像を表示させる表示制御ステップを備えることを特徴とする。
1 CPU
3 RAM
6 VRAM

 

Claims (12)

  1.  表示部を備えるデータ端末であって、
     所定の3D画像データに基づいて、被験者の左右の眼球が捉える左目用の3D画像データと、右目用の3D画像データとを生成する生成手段と、
     前記生成手段により生成された前記左目用の3D画像データと、前記右目用の3D画像データとが前記表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、前記表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像を表示する表示制御手段を備えることを特徴とするデータ端末。
  2.  前記表示制御手段は、前記表示部に表示する前記左目用の3D画像データと前記右目用の3D画像データとの3D画像サイズとが同期するように表示態様を制御することを特徴とする請求項1に記載のデータ端末。
  3.  前記所定の3D画像データは、眼球トレーニング画像であることを特徴とする請求項1に記載のデータ端末。
  4.  前記所定の3D画像データは、動画データであることを特徴とする請求項1に記載のデータ端末。
  5.  前記表示制御手段は、前記表示部の画面構成比に基づいて決定される縦横比に基づいて前記3D画像データの表示面積比率を決定することを特徴とする請求項1に記載のデータ端末。
  6.  前記表示制御手段は、前記左目用の3D画像データと前記右目用の3D画像データとの境界域の色調を決定することを特徴とする請求項1に記載のデータ端末。
  7.  前記表示制御手段は、前記左目用の3D画像データと前記右目用の3D画像データとの表示時間を決定することを特徴とする請求項1に記載のデータ端末。
  8.  所定の3D画像データは、特定の商品の立体形状を特定する広告データ、アスリートの体の動きを特定する体感データを含むことを特徴とする請求項1に記載のデータ端末。
  9.  前記表示部は、前記所定の3D画像データに基づいて、裸眼3D画像を表示することを特徴とする請求項1に記載のデータ端末。
  10.  前記左右の視野域が交錯する交錯域で拡縮する画像は、2D画像データまたは3D画像データであることを特徴とする請求項1に記載のデータ端末。
  11.  スポンサーが操作するデータ処理装置と、前記データ処理装置から取得する特定の商品に対応づけられた所定の3D画像データを取得する管理サーバと、が通信するデータ処理システムであって、
     前記管理サーバは、
     前記データ処理装置からアップロードされる前記所定の3D画像データを取得する際に、登録対価を課金処理する課金手段と、
     前記課金手段による課金処理が完了した前記所定の3D画像データを検索可能に蓄積する蓄積手段と、
     前記蓄積手段に蓄積された前記所定の3D画像データの一覧を作成する作成手段と、
     前記データ処理装置から取得する前記所定の3D画像データに基づいて、前記蓄積手段に蓄積されている3D画像データを更新する更新手段と、
    を備えることを特徴とするデータ処理システム。
  12.  表示部を備えるデータ端末の3D画像表示方法であって、
     所定の3D画像データに基づいて、被験者の左右の眼球が捉える左目用の3D画像データと、右目用の3D画像データとを生成する生成ステップと、
     前記生成ステップにより生成された前記左目用の3D画像データと、前記右目用の3D画像データとが前記表示部の表示画面に対して飛び出す方向または引き込む方向に表示する場合、前記表示画面の中央部であって、前記左目用の3D画像データと前記右目用の3D画像データとの3D動画表示に同期して、左右の視野域が交錯する交錯域で拡縮する画像を表示させる表示制御ステップを備えることを特徴とするデータ端末の3D画像表示方法。
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     

     
PCT/JP2022/024393 2022-06-17 2022-06-17 データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム WO2023243093A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/024393 WO2023243093A1 (ja) 2022-06-17 2022-06-17 データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/024393 WO2023243093A1 (ja) 2022-06-17 2022-06-17 データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム

Publications (1)

Publication Number Publication Date
WO2023243093A1 true WO2023243093A1 (ja) 2023-12-21

Family

ID=89190896

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/024393 WO2023243093A1 (ja) 2022-06-17 2022-06-17 データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム

Country Status (1)

Country Link
WO (1) WO2023243093A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007260372A (ja) * 2006-03-29 2007-10-11 Takashi Nishihira 眼力トレーニング用電子画面の表示方法
JP2013158622A (ja) * 2012-02-08 2013-08-19 Shigeru Kuroda 目のトレーニング方法および装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007260372A (ja) * 2006-03-29 2007-10-11 Takashi Nishihira 眼力トレーニング用電子画面の表示方法
JP2013158622A (ja) * 2012-02-08 2013-08-19 Shigeru Kuroda 目のトレーニング方法および装置

Similar Documents

Publication Publication Date Title
Banks et al. 3D Displays
US7428001B2 (en) Materials and methods for simulating focal shifts in viewers using large depth of focus displays
CN106484116B (zh) 媒体文件的处理方法和装置
JP4369078B2 (ja) 立体映像を利用する視力回復装置及び立体映像の表示方法
JP2019079552A (ja) イメージ形成における及びイメージ形成に関する改良
CN104777620B (zh) 虚拟现实3d场景用的景深识别光学装置及其成像方法
Kim et al. Multimodal interactive continuous scoring of subjective 3D video quality of experience
JP7471572B2 (ja) キャリブレーションシステム、及び、キャリブレーション方法
CN103329165A (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
CN108710206A (zh) 一种应用于vr显示器的防眩晕和视疲劳的方法和装置
US11774759B2 (en) Systems and methods for improving binocular vision
US20160379407A1 (en) Virtual Fantasy System and Method of Use
Peterson Virtual Reality, Augmented Reality, and Mixed Reality Definitions
CN111880654A (zh) 一种图像显示方法、装置、穿戴设备及存储介质
CN106913449A (zh) 互动式增强现实视力康复装置
US6364485B1 (en) Methods and systems for relieving eye strain
JP2007260372A (ja) 眼力トレーニング用電子画面の表示方法
WO2023243093A1 (ja) データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム
JP2012022278A (ja) 映像実体感メガネ
KR100575090B1 (ko) 입체영상을 이용한 시력 강화 방법 및 그를 실행시키기위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
CN108234986B (zh) 用于治疗近视或弱视的3d图像管理方法及管理系统和装置
JP2018189711A (ja) 拡張現実のスマートグラス
JP2018191079A (ja) 多焦点視覚出力方法、多焦点視覚出力装置
Mikšícek Causes of visual fatigue and its improvements in stereoscopy
JP2007236884A (ja) 擬似立体画像による眼力トレーニングシート及びその使用方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22946908

Country of ref document: EP

Kind code of ref document: A1