WO2007069294A1 - 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ - Google Patents

画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ Download PDF

Info

Publication number
WO2007069294A1
WO2007069294A1 PCT/JP2005/022805 JP2005022805W WO2007069294A1 WO 2007069294 A1 WO2007069294 A1 WO 2007069294A1 JP 2005022805 W JP2005022805 W JP 2005022805W WO 2007069294 A1 WO2007069294 A1 WO 2007069294A1
Authority
WO
WIPO (PCT)
Prior art keywords
adapter
imaging
image data
imaging device
still image
Prior art date
Application number
PCT/JP2005/022805
Other languages
English (en)
French (fr)
Inventor
Atsuhiro Ueda
Original Assignee
Atsuhiro Ueda
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atsuhiro Ueda filed Critical Atsuhiro Ueda
Priority to JP2007550028A priority Critical patent/JP4898704B2/ja
Priority to PCT/JP2005/022805 priority patent/WO2007069294A1/ja
Publication of WO2007069294A1 publication Critical patent/WO2007069294A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Definitions

  • the present invention relates to a diagnostic imaging data sampling device for sampling diagnostic imaging data for diagnosing a medical condition based on image data, and to an imaging adapter used for the device.
  • An imaging diagnostic data 'sampling' device which makes it possible to obtain an imaging diagnosis and obtain a high-quality image without going to a specialized medical care location, and an imaging adapter used for the device.
  • a typical example is a stomach camera. If a gastroscope is inserted into the body cavity to visually determine the presence or absence of a tumor in the body cavity and if good image data can be obtained, is the visually detected tumor malignant or benign? It is also possible to
  • the fundus camera is useful for the diagnosis of hypertension, arteriosclerosis and systemic disease as well as glaucoma diagnosis and diagnosis of diabetic retinopathy.
  • Patent Document 1 discloses a fundus camera with an image processing function.
  • the fundus camera disclosed in Patent Document 1 is capable of providing an image suitable for diagnosis by processing the obtained image.
  • Patent Document 1 Although the fundus camera disclosed in Patent Document 1 can provide relatively inexpensive and constant high-quality images by applying not only optical technology but also image processing technology, one problem is posed. Have points.
  • Patent Document 2 allows a user to be diagnosed to image a desired diagnostic site with his / her own hand, and image data obtained by imaging is obtained via the Internet. Proposes a method of sending to an information processing apparatus. The information processing apparatus diagnoses based on the transmitted image data.
  • Patent Document 1 Japanese Unexamined Patent Application Publication No. 2005- 124879
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2003-70753
  • Patent Document 2 Although it is possible to receive a diagnosis based on image data obtained by the user's own hand, there are problems with the following points.
  • image data can be simply obtained by the user taking an image, it is difficult to obtain good image data. If the distance from the lens of the imaging device to the diagnostic point to be imaged matches the focal length of the lens, the case or the imaging device is imaging When moving, the obtained image is blurred and can not be used for diagnostic imaging any longer.
  • the position of the imaging device is fixed, and a diagnostic point to be imaged is arranged at a predetermined distance from the lens of the imaging device, and imaging operation is performed. It will be necessary.
  • the imaging operation as described above is very complicated and also loses the convenience which is an advantage of the invention disclosed in Patent Document 2.
  • the above-described imaging operation is unsuitable for using an imaging device such as a mobile phone with an imaging function that has been developed in recent years.
  • the present invention has been made in view of the above-described circumstances, and is an image diagnosis that makes it possible to obtain high quality image diagnostic data using a simple imaging device provided in a mobile phone generally marketed. It is an object of the present invention to provide a data-sampling 'device and an imaging adapter used for the device.
  • the invention according to claim 1 is a portable imaging device capable of capturing a moving image of a desired diagnostic point, and a substantially one-end bottomed cylindrical adapter mounted on an imaging lens of the imaging device.
  • the bottom surface of the adapter abuts against the imaging device housing outer wall portion surrounding the imaging lens and supporting the imaging lens, and the edge surrounding the open end of the adapter is the diagnostic point
  • An image diagnostic data sampling device characterized in that an opening having a diameter larger than the diameter of the lens of the imaging device is formed on the bottom surface of the adapter in contact with the surrounding skin surface.
  • the outer wall of the imaging device casing around the imaging lens is formed flat, and the bottom surface portion of the adapter is formed flat, and the imaging device housing of the bottom surface portion
  • a diagnostic imaging data-sampling device characterized in that a non-slip layer is provided on the surface that abuts on the outer wall.
  • the invention according to claim 3 is that in the imaging device casing outer wall around the imaging lens is formed flat, and a bottom portion of the adapter is formed flat, the adapter
  • the first portion and the second portion are provided, and the first portion and the second portion rotate relative to each other via a substantially cylindrical hinge portion.
  • the imaging device includes an imaging light source, the adapter bottom portion further includes a daylighting window, and light from the imaging light source is the daylighting window.
  • the invention according to claim 6 is the image diagnostic data 'sampling' device according to claim 5, wherein the adapter peripheral wall portion does not transmit light.
  • the invention according to claim 7 is characterized in that the adapter peripheral wall portion is capable of changing the amount of light entering the inside of the adapter, and for image diagnosis according to claim 1 characterized by the following. It is a data sampling device.
  • the peripheral wall portion of the adapter according to claim 8 comprises a first peripheral wall portion extending from the adapter bottom surface portion and a second peripheral wall portion extending from the adapter edge portion. 2.
  • the imaging device includes a storage unit for storing moving image data obtained from the imaging device, and a plurality of the moving image data stored in the storage unit.
  • An arithmetic processing unit that selects one of the still image data of a sheet and stores the selected still image data as a transmission image in the storage unit; and a transmission unit that transmits the transmission image to a medical worker.
  • a storage unit for storing moving image data obtained from the image pickup apparatus, and a plurality of sheets constituting the moving image data stored in the storage unit.
  • a predetermined number of the still image data is selected from the still image data, the selected still image data is combined, and one combined processing still image data obtained by the combination processing is stored in the storage unit.
  • the image diagnostic data 'sampling' device further comprising: an arithmetic processing unit stored as a transmission image; and a transmission unit transmitting the transmission image to a medical worker side. It is.
  • the invention described in claim 11 is the arithmetic processing in which the imaging device receives moving image data sent from the imaging device and selects one of a plurality of still image data constituting the moving image data.
  • the moving image data sent from the imaging device is received, and a predetermined number of the still image data among a plurality of still image data constituting the moving image data
  • An arithmetic processing unit for selecting one of the selected still image data, and combining and processing the selected still image data to create one combined processing still image data obtained by the combining processing; and image data generated by the operation processing unit
  • Image diagnostic data 'sampling' according to claim 1, further comprising: a storage unit for storing the image as a transmission image; and a transmission unit for transmitting the transmission image to the medical worker side. Device.
  • the invention according to claim 13 includes a receiving unit for receiving a result of diagnosis performed on the side of the medical worker, according to any one of claims 9 to 12. Data for diagnostic imaging described ⁇ Sampling 'device.
  • the imaging device when the arithmetic processing unit stores the transmission image data in the storage unit, the imaging device can provide the user with a visual, auditory or tactile stimulus.
  • the imaging device can provide the user with a visual, auditory or tactile stimulus.
  • the invention according to claim 15 is the method according to claim 15, wherein the selection by the arithmetic processing unit is performed by performing image processing on the plurality of still image data constituting the moving image data, and the image processing Comparing the feature quantities of the post-processing still image data and the reference image data stored in the storage unit, and calculating the degree of matching of the feature quantities; comparing the calculated degree of matching with a predetermined threshold value And the step of determining whether or not to store the still image data, which is the source of the post-processing one still image data, as the transmission image in the storage unit. It is a data diagnostic sampling device according to any one of claims 9 to 12.
  • the invention according to claim 16 is characterized in that the image processing is performed by an outline extraction method, an outline of a subject is extracted, and the outline is treated as the feature amount.
  • the invention according to claim 17 is characterized in that the image processing includes the step of vectorizing the extracted outline, and the vectorized outline is treated as the feature amount. It is the data 'sampling-device for diagnostic imaging according to claim 16.
  • the diagnosis portion is an eye
  • selection by the arithmetic processing unit is performed on the plurality of still image data constituting the moving image data.
  • the regions are divided according to the range of lightness of the pixels to constitute, the step of identifying the pigment portion of the eye, the step of vectorizing the curve contours of the left and right of the pigment portion of the eye and the other portions, A pair of left and right curve ends obtained by vectorization are complemented based on an average radius of curvature of the pair of left and right curves to create a complementary curve; and a pair of left and right curves and a complementary curve Calculating the deviation between the closed circular curve and the true circle, comparing the deviation with a predetermined threshold value, and transmitting the still image data that is the source of the binarized still image data.
  • the invention according to claim 19 is characterized in that a first ring is disposed inside the adapter, and the first ring is visible to the user at the inner edge and different from other parts of the first ring.
  • a color is applied, the imaging device is provided with a zoom function, the arithmetic processing unit defines a processing area in an image area recognized by the arithmetic processing unit, identifies a color of the inner edge, and the processing The step of determining whether the shape of the image of the inner edge in the area is equal to the shape of the actual inner edge, and the operation processing unit operates the zoom function when it is determined that the shape is equal.
  • a diagnostic imaging data-sampling device according to claim 11 or 12, characterized in maximizing the area of the image enclosed by the inner edge within the processing area.
  • the arithmetic processing unit when it is judged that the arithmetic processing unit is not equal according to the judgment, the arithmetic processing unit operates the zoom function, and the region of the image surrounded by the inner edge is within the processing region.
  • the invention according to claim 21 is a substantially single-ended, bottomed cylindrical adapter removably mounted on a portable imaging device, wherein the adapter force surrounds the imaging lens and the imaging lens A bottom surface portion to be in contact with the outer wall portion of the image pickup apparatus casing supporting the image pickup device, and an edge portion to be in contact with a skin surface around a diagnosis portion to be imaged by the image pickup device;
  • An imaging adapter characterized in that an opening having a diameter larger than the diameter of the opening is formed.
  • the invention according to claim 22 is characterized in that the bottom surface portion of the adapter is formed flat, and a non-slip layer is provided on the surface of the bottom surface portion of the adapter which abuts on the imaging device. 22.
  • the invention according to claim 23 is characterized in that the bottom surface portion of the adapter is formed flat, and a claw portion for externally fitting the imaging device casing is extended from the periphery of the bottom surface portion of the adapter. 21.
  • the invention according to claim 24 is a cylindrical member in which the bottom surface portion of the adapter has a curved surface shape in which the bottom surface portion thereof is bent in the direction toward the inside of the adapter, and the imaging lens of the imaging device is disposed.
  • Claim 21 characterized by the fact that it fits outside. It is an adapter for imaging as described.
  • the invention according to claim 25 is such that the bottom surface of the adapter is further provided with a daylighting window,
  • the invention according to claim 26 is the imaging adapter according to claim 25, wherein the adapter peripheral wall portion does not transmit light.
  • the invention according to claim 27 is the imaging adapter according to claim 21, characterized in that the adapter peripheral wall portion is capable of changing the amount of light entering the inside of the adapter. is there.
  • the invention according to claim 28 is the imaging adapter according to claim 21, characterized in that the adapter peripheral wall portion includes a portion for transmitting light and a portion for transmitting light. .
  • the invention according to claim 29 is the imaging adapter according to claim 21, wherein the inner wall surface of the adapter does not reflect light.
  • the invention according to claim 30 is characterized in that the peripheral wall portion of the adapter comprises a first peripheral wall portion extending from the bottom surface portion of the adapter and a second peripheral wall portion extending from the adapter edge portion, 22.
  • the invention according to claim 31 is characterized in that the first peripheral wall portion includes a cylindrical connection portion, and a ground portion grounded to the imaging device, and the ground portion is detachable from the connection portion.
  • the invention according to claim 32 is characterized in that the second peripheral wall portion includes a cylindrical contact portion whose tip contacts the imaging target, and a cylindrical holding portion connected to the first peripheral wall portion.
  • the invention according to claim 33 is characterized in that the first peripheral wall portion further includes a cylindrical agitator connected to the connection portion, the connection portion includes an annular groove at the tip, and The connector has an annular groove at its base end, and the connection between the connector and the agitator is achieved by fitting the annular grooves formed in these, and the agitator has a screw at its distal end, 32.
  • the invention according to claim 34 is the imaging adapter according to claim 21, characterized in that an additional lens is disposed inside the adapter.
  • peripheral wall portion of the adapter is made of a material having flexibility and elastic resilience, according to the invention described in claim 35. is there.
  • a first ring is disposed inside the adapter, the tip of the adapter is formed of a material capable of transmitting light, and is visible to the user at the inner edge of the first ring. 22.
  • the invention according to claim 37 is characterized in that a second ring is disposed between the first ring and the tip of the adapter, and the second ring has an inner diameter larger than the inner diameter of the first ring.
  • An imaging adapter according to claim 33 characterized in that:
  • the invention according to claim 38 is characterized in that the region of at least the first ring and the second ring in the inner wall of the adapter does not reflect light. It is an imaging adapter of 34th term.
  • the invention according to claim 39 is the imaging adapter according to claim 21, wherein the color of the inner wall of the adapter is substantially equal to the color of the user's rainbow color.
  • the distance between the diagnosis site and the lens of the imaging device becomes constant. Therefore, it is possible to stably obtain high quality image data.
  • the adapter can be prevented from moving relative to the imaging apparatus during the imaging operation. Therefore, it is possible to stably obtain high quality image data.
  • the invention described in claim 3 it is possible to prevent the adapter from moving relative to the imaging apparatus during the imaging operation. Therefore, it is possible to stably obtain high quality image data.
  • the adapter can be attached to the hinge portion of the imaging device, and the adapter can be prevented from moving relative to the imaging device during the imaging operation. Therefore, it is possible to stably obtain high quality image data.
  • an imaging light source provided in an imaging device for imaging.
  • disturbance light can be prevented from entering the adapter. Therefore, it is possible to stably obtain high quality image data.
  • the amount of light entering the inside of the adapter can be adjusted, and it becomes possible to create an optimal light environment for imaging.
  • the axial length of the adapter is variable, and the axial length of the adapter can be adjusted in accordance with the focal length of the lens provided in the imaging device.
  • the diagnosis result can be received, and the diagnosis result can be known at an early stage.
  • the data for diagnostic imaging can be sampled with a suitable and minimum computational ability for human eyes.
  • the user can arrange the position of the iris of the eye at the center of the image area by looking at the inner edge of the first ring. Then, with the zoom function, it is possible to image the iris image data in a state of being enlarged to a desired size, and it becomes possible to obtain image data suitable for image diagnosis.
  • the distance between the diagnosis site and the lens of the imaging device becomes constant. Therefore, it is possible to stably obtain high quality image data.
  • the adapter can be attached to the hinge portion of the imaging device, and the adapter can be prevented from moving relative to the imaging device during the imaging operation. Therefore, it is possible to stably obtain high quality image data.
  • an imaging light source provided in an imaging device for imaging.
  • disturbance light can be prevented from entering the adapter. Therefore, it is possible to stably obtain high quality image data.
  • the amount of light entering the inside of the adapter can be adjusted, and it becomes possible to create an optimal light environment for imaging.
  • the axial length of the adapter is variable, and the axial length of the adapter can be adjusted in accordance with the focal length of the lens provided in the imaging device.
  • grounding portion can be replaced according to the form of the imaging device to be attached.
  • the user can place the iris of the user's eye in the center of the image by looking at the inner edge of the first ring.
  • the second ring makes it possible to enter the inside of the adapter and block the light directed toward the inner wall of the adapter.
  • FIG. 1 is a view showing an embodiment of an imaging adapter of the present invention.
  • FIG. 1 (a) is a plan view of the imaging adapter
  • FIG. 1 (b) is a longitudinal sectional view of the imaging adapter.
  • the imaging adapter (1) shown in FIG. 1 is formed with an eye as an imaging target.
  • the bottom (11) of the adapter (1) shown in Figure 1 It is formed in a substantially flat disc shape and has two openings.
  • One opening (111) surrounds the lens of the imaging device as described later, and has a larger diameter than the lens of the imaging device.
  • the other opening is a light receiving window (112) for passing the light from the imaging light source of the imaging device.
  • a non-slip layer (113) is formed on the lower surface of the bottom portion (11).
  • the anti-slip layer (113) is formed in a disk shape having substantially the same diameter as the bottom portion (11), and a position corresponding to the opening (111) formed in the bottom portion (11) and the lighting window (112).
  • the opening (114, 115) is formed to have the same diameter as the opening (111) formed in the bottom surface (11). Further, the opening (115) is formed to have the same diameter as the light receiving window (112).
  • the anti-slip layer (113) is not particularly limited as long as it is a material capable of exerting a high frictional force with the casing forming the outer surface of the imaging device, but rubber, urethane and the like are preferable materials. Can be illustrated. Alternatively, an adhesive layer may be provided as a non-slip layer (113).
  • the peripheral wall portion (12) of the adapter (1) is formed so that the lower end has a circular outline, and is formed in an elliptical shape that spreads in the width direction as it goes upward.
  • the height of the peripheral wall (12) is determined in accordance with the focal length of the lens of the imaging device used.
  • the upper end edge (121) of the peripheral wall (12) of the adapter (1) shown in FIG. 1 abuts on the skin surface around the user's eye.
  • the top edge (121) has a downwardly curved contour to match the raised contour of the skin surface around the user's eye such that the entire top edge (121) abuts the skin surface.
  • FIG. 2 shows an example of an imaging device.
  • a folding type mobile phone with an imaging function is shown as an imaging device.
  • FIG. 2 (a) is a front view of the imaging device
  • FIG. 2 (b) is a side view of the imaging device.
  • a mobile phone is used in the example shown in FIG. 2, other devices can be used as appropriate as long as they have an imaging function and a communication function.
  • a smartphone with an imaging function Smart Phone
  • PDA Personal Digital Assistant
  • digital video with a communication function.
  • the imaging device be light in weight and small in size to capture a desired diagnostic site, and that the number of pixels be as high as possible in order to obtain high quality image data.
  • the present invention can be suitably used.
  • the imaging device (2) includes a first portion (24) and a second portion (25) formed in a substantially rectangular parallelepiped shape.
  • the first portion (24) and the second portion (25) are rotatably connected to each other via a hinge portion (26) formed in a substantially cylindrical shape.
  • An imaging lens (21) is disposed on the first portion (24) side of the imaging device (2).
  • the lens (21) appears on the outer surface of the housing (22) of the imaging device (2).
  • a light source (23) for imaging is disposed in the vicinity of the lens (21) of the imaging device (2).
  • a light source (23) is used to illuminate the flash light during imaging in the dark.
  • the outer surface of the housing (22) near the lens (21) is formed substantially flat.
  • FIG. 3 shows an example of usage of the diagnostic imaging data 'sampling' device.
  • Fig. 4 is a front view of the data ⁇ sampling ⁇ device for diagnostic imaging in the state of use shown in Fig. 3.
  • Image diagnostic data 'sampling' device (10) is configured with the above-mentioned adapter (1) and imaging device (2).
  • the top edge of the adapter (1) abuts the skin surface around the eye of the user. Then, the housing (22) of the imaging device (2) is brought into contact with the anti-slip layer (113) disposed on the bottom surface (11) of the adapter (1). Thereby, the adapter (1) is fixed between the skin surface of the user and the imaging device (2).
  • the lens (21) of the imaging device (2) appears in the opening (111) formed in the bottom surface (11) of the adapter (1). Then, the light source (23) of the imaging device (2) appears inside the light receiving window (112).
  • the non-slip layer (113) prevents the imaging device (2) from moving relative to the adapter (1).
  • the imaging device (2) is fixed at a position substantially coincident with the focal length of the lens (21). Therefore, it is possible to prevent the blur of the captured image caused by the movement of the imaging device (2) during the imaging operation. Therefore, it is possible to obtain high quality image data.
  • FIG. 5 shows a modification of the data 'sampling device for image diagnosis (10).
  • Fig. 5 (a) is a plan view of the diagnostic imaging data 'sampling' device (10)
  • Fig. 5 (b) is a front view of the diagnostic imaging data sampling device (10).
  • the image diagnostic data 'sampling device (10) shown in FIG. 5 has substantially the same configuration as the image diagnostic data' sampling 'device (10) shown in FIGS. 1 to 4, but the adapter (1) The mounting form of the image pickup device (2) is different.
  • the adapter (1) shown in FIG. 5 includes a pair of claw portions (116) having a substantially C-shape in plan view, in place of the anti-slip layer (113).
  • the claw portion (116) extends from the periphery of the bottom portion (11) of the adapter (1), and the first portion (24) of the imaging device (2) is externally fitted.
  • the positional relationship between the adapter (1) and the imaging device (2) can be fixed also by such a method.
  • the anti-slip layer (113) may be disposed on the bottom surface portion (11) of the adapter (1). In this way, the positional relationship between the adapter (1) and the imaging device (2) can be reliably fixed.
  • FIG. 6 is a cross-sectional view of a diagnostic imaging data sampling device (10) showing another attachment form of the adapter (1) to the imaging device (2).
  • the lens (21) may not be disposed in the flat housing (22), and the lens (21) may be disposed on the circumferential surface of the cylindrical hinge portion (26).
  • the bottom portion (11) of the adapter (1) may be formed into a curved surface, and the hinge portion (26) may be externally fitted.
  • the adapter (1) can be attached to the lens (21) disposed on the curved surface.
  • the peripheral wall portion (12) of the adapter (1) may be formed of a material which does not transmit light.
  • the peripheral wall portion (12) is formed of a black material, transmission of light can be prevented.
  • the peripheral wall portion (12) is formed of a material which does not transmit light, it is possible to prevent the entry from the outside into the inside of the adapter (1). Therefore, the light source at the time of imaging is only the imaging light source (23) provided in the imaging device (2), and imaging can be always performed with a constant light amount. Therefore, the image data obtained by the imaging operation is not affected by the light from the outside world, and stable image data can be obtained.
  • the inner circumferential surface of the adapter (1) also has a material force that does not reflect light.
  • a black rubber layer is provided on the inner peripheral surface of the adapter (1), or a peripheral wall portion of the adapter (1) When 12) is formed of a black rubber layer, it is possible to obtain high-quality image data in which light entering the inside of the adapter (1) is not reflected by the inner wall surface of the adapter (1).
  • the peripheral wall portion (12) may be formed of a light transmitting material.
  • the room light of the imaging work place can be used as an imaging light source.
  • the room light has a sufficient amount of light as a light source for imaging, it is not necessary to provide the lighting window (112) in the adapter (1).
  • the holder for fixing the battery may be formed on the adapter (1) outer wall. Then, fix a small light source such as an LED inside the adapter (1), connect the small light source and the battery, and make it possible to emit light inside the adapter (1).
  • FIG. 7 shows another embodiment of the adapter (1).
  • Fig. 7 (a) is a plan view of the adapter (1)
  • Fig. 7 (b) is a front view of the adapter (1).
  • the peripheral wall surface (12) of the adapter (1) shown in FIG. 7 includes a window (124) substantially rectangular in a front view.
  • the window (124) is formed of a light transmissive material, and the other part is also formed of a material that does not transmit light.
  • a door (125) is attached to the outside of the window (124), and the door (125) is movable along the circumferential wall (12) in the circumferential direction of the circumferential wall (12).
  • the door (125) is formed of a weir material which does not transmit light.
  • the door portion (125) as described above is movable in the circumferential direction along the circumferential wall (12), it is possible to increase or decrease the area in which the window portion (124) is covered by the door portion (125) is there. Therefore, the amount of light inside the adapter (1) at the time of imaging can be adjusted by the operation of the door (125), as desired.
  • FIG. 8 shows a modification of the adapter (1).
  • Fig. 8 (a) is a longitudinal sectional view of the adapter (1)
  • Fig. 8 (b) is a front view of the adapter (1).
  • the peripheral wall portion (12) of the adapter (1) as shown in FIG. 8 (a) is a cylindrical first peripheral wall portion (122) extending upward from the bottom surface portion (11) of the adapter (1);
  • a first peripheral wall (122) is formed of a cylindrical second peripheral wall (123) screwed with a screw formed on the upper outer peripheral surface.
  • the peripheral wall portion (12) is formed by screwing the first peripheral wall portion (122) and the second peripheral wall portion (123).
  • the outer peripheral surface of the first peripheral wall (122) is marked with a scale or a mark (in the example shown in FIG. 8 (b), scale lines and numerals are shown). The scale or mark indicates a predetermined distance along the adapter axis.
  • the threaded portion is formed on the inner peripheral surface of the external thread (not shown) formed on the outer peripheral surface of the first peripheral wall (122) and the second peripheral wall (123).
  • first peripheral wall (122) and the second peripheral wall (123) are connected by screwing (not shown)
  • the present invention is not limited to this.
  • a groove is formed in the second peripheral wall (123), and a protrusion which fits into a groove formed in the second peripheral wall (123) is provided on the inner peripheral surface of the first peripheral wall (122). It is also possible to adopt a form in which the portion (122) can slide in the axial direction of the adapter (1).
  • FIG. 9 shows a modification of the adapter (1).
  • Fig. 9 (a) shows an example in which a convex lens is disposed inside the adapter (1)
  • Fig. 9 (b) shows an example in which a filter is disposed inside the adapter (1).
  • the convex lens (13) By disposing the convex lens (13) inside the adapter (1) as shown in FIG. 9 (a), the image obtained by the imaging work is enlarged. Therefore, by using such an adapter (1), it becomes possible to image a very fine area such as pores. In addition, you may arrange a concave lens as desired.
  • FIG. 9 (b) is an example in which a filter (14) for transmitting only light of a specific wavelength is provided.
  • a filter (14) for transmitting only light of a specific wavelength is provided.
  • an ultraviolet irradiation paint is applied to a desired imaging target area, and imaging is performed using the adapter (1) shown in FIG. 9B, so that an image of the application area can be clearly obtained.
  • the convex lens (13) (or concave lens) and the filter (14) may be simultaneously disposed in the adapter (1).
  • FIG. 10 shows another mode of use of the adapter (1).
  • the adapter (1) shown in FIG. 10 is a combination of the adapters (1) shown in FIG. 8 and FIG. In the example shown in FIG. 10, the adapter (1) is partially cut away to show the internal structure.
  • the adapter (1) shown in FIG. 10 includes a first peripheral wall (122) and a second peripheral wall (123).
  • the screw formed on the first peripheral wall (122) and the second peripheral wall (123) respectively connects the first peripheral wall (122) and the second peripheral wall (123), and the shaft of the adapter (1)
  • the length is variable.
  • the first peripheral wall portion (122) is a substantially cylindrical shape connected to the second peripheral wall portion, and a substantially cylindrical connection connected rotatably to the acisister (91). And the screw formed at the proximal end of the connection part (92) and the casing around the lens (21) of the imaging device (2) (shown in FIG. 10).
  • connection form between the ground portion (93) and the imaging device (2) may be determined as appropriate according to the form of the imaging device (2), and the anti-slip layer described in relation to FIG. (113), the claws (116) described in connection with FIG. 5, the curved bottom (11) described in connection with FIG. 6 or other shapes may be employed.
  • a non-slip layer (113) is disposed on the bottom surface of the grounding portion (93) for grounding with the imaging device (2).
  • the grounding portion (93) has substantially the same structure as the bottom portion (11) of the adapter (1) described above, and includes an opening (111) and a light collecting window (112).
  • a threaded portion is formed on the inner peripheral surface of the ground portion (93), and the threaded portion is screwed with a threaded portion formed at the proximal end of the connection portion (92).
  • the ground portion (93) is connected to the imaging device (2) via the anti-slip layer (113) or other means, so it is fixed to the imaging device (2) regardless of the axial length adjustment operation described later. Be done.
  • An annular groove (921) having a rectangular cross section is formed on the outer peripheral surface of the distal end portion of the connection portion (92). Further, an annular groove (911) having a rectangular cross section is formed on the outer peripheral surface of the proximal end of the agitator (91).
  • the annular groove (921) of the connecting portion (92) and the annular groove (911) of the agitator (91) are mutually joined, and the connecting portion (92) and the agitator (91) are connected.
  • the agitator (91) rotates during axial length adjustment, but the annular groove (911, In the meantime, the connection portion (92) does not rotate regardless of the rotation operation of the agitator (91), since the 921) makes sliding movement with each other.
  • the portion between the annular groove (911) force of the agitator (91) and the tip of the agitator (91) has a double wall structure, and comprises an inner side wall (912) and an outer side wall (913). Ru.
  • the inner diameter of the outer side wall (913) is formed larger than the outer diameter of the inner side wall (912), and the outer side wall (913) covers the outer side of the inner side wall (912).
  • An annular space (914) is formed between the inner wall (912) outer peripheral surface and the outer wall (913).
  • a threaded portion is formed on the outer peripheral surface of the inner side wall (912).
  • a grid is formed on the outer peripheral surface of the outer side wall (913).
  • the second peripheral wall portion (123) is a cylindrical contact portion (94) in contact with the skin surface of the user, and a cylindrical shape disposed between the contact portion (94) and the agitator (91).
  • the contact portion (94) is made of transparent resin and has substantially the same form as the peripheral wall portion (12) described in connection with FIG.
  • a lens (13) is disposed at the tip of the holding portion (95).
  • An annular groove (951) is formed on the inner peripheral surface of the holding portion (95), and the lens (13) is fitted with the annular groove (951) and fixed inside the holding portion (95).
  • the lens may be disposed inside the first peripheral wall (122).
  • annular protrusion (952) is formed at the tip of the holding portion (95) and protrudes outward in the radial direction of the holding portion (95). Further, an annular fitting projection (953) is formed which protrudes from the annular projection (952) in the distal direction.
  • the fitting protrusion (953) fits with the proximal end of the contact portion (94).
  • the distal surface of the projection (952) abuts on the proximal edge of the contact portion (94) to define the axial position of the contact portion (94) with respect to the retaining portion (95).
  • the proximal end of the holding portion (95) is inserted into an annular space (914) formed in the agitator (91).
  • a threaded portion is formed in the inner peripheral surface area of the holding portion (95) from the annular groove portion (951) of the holding portion (95) to the base end portion of the holding portion (95).
  • the threaded portion of the inner peripheral surface of the holding portion (95) is screwed with the threaded portion formed on the outer peripheral surface of the inner side wall (912) of the adjustor (91).
  • the base end side surface of the annular projection (952) formed on the outer peripheral surface of the holding portion (95) is positioned on the base end side of the screw tip end side of the inner peripheral surface of the holding portion (95).
  • the screw portion on the inner peripheral surface of the holding portion (95) and the screw portion formed on the outer peripheral surface of the inner side wall (912) of the agitator (91) become the maximum amount. Even when screwed, the tip of the inner wall (912) of the agitator (91) does not collide with the lens (13).
  • the adapter (1) When the user applies a force to the imaging device (2) toward the user, the adapter (1) is fixed in front of the user's face. In this state, when the user rotates the agitator (91), the axial length of the adapter (1) changes. Due to the structure of the adapter (1) described above, the position of the contact portion (94) with respect to the user and the position of the ground portion (93) with respect to the imaging device (2) change regardless of the rotational movement of the agitator (91). Shina.
  • the peripheral wall portion (12) of the adapter (1) is flexible in the case where the eye is used as an imaging control.
  • a material eg, a rubber material, etc.
  • an adapter (12) formed of such a material a force is applied to the upper peripheral surface of the adapter (1) just before bringing the adapter (1) into contact with the eye, and the adapter (1) is slightly ) To reduce the open area.
  • the upper edge of the adapter (1) is brought into contact with the skin surface around the eye, and the imaging device (2) is fixed to the bottom of the adapter (1).
  • the upper end opening of the adapter (1) tries to expand by the elastic restoring force of the peripheral wall (12), and as a result, it is possible to prevent the eyelid from covering the eye during imaging.
  • FIG. 11 shows the flow of still image data obtained by the imaging device (2).
  • the imaging device (2) includes a storage unit (201), a transmission unit (202), and a reception unit (203). Data of a still image obtained by the imaging device (2) is stored in the storage unit (201) of the imaging device (2).
  • the transmission unit (202) reads the still image data from the storage unit (201), and transmits the still image data to the medical staff.
  • a receiver (301) and a transmitter (302) are arranged on the medical worker side.
  • the receiving device (301) and the transmitting device (302) provided by the medical staff are medical It may be a server provided to the party side.
  • the server may be provided with commercially available image diagnostic software for performing image diagnosis of the image data automatically sent from the transmission unit (202).
  • the receiving apparatus (301) on the medical worker side receives the image data transmitted from the transmitting unit (202). Then, based on the image data received by the receiving device (301), the medical practitioner performs an image diagnosis.
  • the diagnostic result is sent to the receiving unit (203) provided in the imaging device (2) of the user using the transmission device (302) on the medical worker side.
  • the image captured by the imaging device (2) is a still image, but if the imaging device (2) can acquire moving image data, the moving image data is used. You may obtain data for image diagnosis.
  • FIG. 12 is an image diagram of moving image data (41) obtained using the imaging device (2).
  • the video data (41) is configured by arranging a plurality of still image data (42) in time series.
  • FIG. 13 shows the flow of moving image data obtained by the imaging device (2).
  • the imaging device (2) includes a storage unit (201), a transmission unit (202), a reception unit (203), and an arithmetic processing unit (204).
  • the moving image data (41) obtained by the moving image shooting function of the imaging device (2) is stored in the storage unit (201).
  • the storage unit (201) is not particularly limited as long as it can store moving image data (41).
  • the imaging device (2) is a mobile phone with an imaging function, a smartphone with an imaging function, a palm device with an imaging function, or a digital video with a communication function
  • the data storage memory built in these devices is the storage unit (201). May be used as! Some!
  • the external memory externally mounted on these devices may be used as the storage unit (201).
  • the arithmetic processing unit (204) first reads moving image data (41) stored in the storage unit (201).
  • the storage unit (3) is a smartphone with an imaging function, a palm device with an imaging function, a storage unit (201) incorporated in a digital video with a communication function, or an externally attached storage unit (201), imaging A CPU incorporated in a smartphone with a function, a palm device with an imaging function, or a digital video with a communication function is used as the arithmetic processing unit (204).
  • FIG. 14 is a flowchart of the main steps performed by the arithmetic processing unit (204).
  • the arithmetic processing unit (204) performs a reading step, an image processing step, a first storage step, a comparison step and a second storage step.
  • the arithmetic processing unit (204) reads one of the plurality of still image data (42) constituting the moving image data (41) from the storage unit (201). Then, image processing is performed on the read still image data (42) in the image processing process.
  • the contour of the diagnostic object appearing in the image is extracted from the still image.
  • a known contour extraction method can be appropriately applied to this contour extraction, or can be performed using a contour extraction filter provided in commercially available image processing software. Furthermore, it is also possible to incorporate a program built on the same principle as a contour extraction filter provided in commercially available image processing software into the processing unit (204).
  • the outline extraction method using the first derivative is briefly described by first calculating the difference in lightness of adjacent pixels. Then, a pixel adjacent to the boundary between pixels where the difference is a maximum is recognized as a contour and extracted.
  • FIG. 15 shows a still image contour-extracted as described above.
  • FIG. 15 (a) shows contour-extracted reference still image data (43) stored in the storage unit (201), and FIG. 15 (b) shows the operation processing unit (204) as described above.
  • An outline extraction method is applied to one still image data (42) extracted from moving image data obtained by the imaging device (2) to obtain still image data (44) after the outline is extracted. Show.
  • the area divided into grids represents the pixels of the still image data (43, 44), and for the purpose of explanation, the pixels are numbered in the X-Y direction and are co-ordinated. ing.
  • the arithmetic processing unit (204) performs image processing on the still image data (42) to obtain processed still image data (44) from which the outline is extracted, and then, from the storage unit (201). Read out the reference still image data (43). It is preferable that the reference still image data (43) stored in the storage unit (201) be downloaded from another Sano into the storage unit (201) as appropriate. This makes it possible to update to the latest reference still image data (43) regularly or as needed.
  • the reference still image data (43) is an image having a suitable image quality when performing image diagnosis.
  • the reference still image data (43) stored in advance in the storage unit (201) may be image data after contour extraction has been performed in advance, or a raw image in a state in which contour extraction has not been performed. It may be data.
  • the arithmetic processing unit (204) reads the reference still image data (43) and then uses the same method as described above. Contour extraction processing is performed on the reference still image data (43).
  • the arithmetic processing unit (204) determines the coordinates of the pixel recognized as the contour in the processed still image data (44), and recognizes the coordinates in the reference still image data (43) as the contour. Determines the coordinates of the pixel that has been sent. If the coordinates of both of the determined image data (43, 44) match, it is determined that the feature amounts of the still image data (43, 44) match, and if the coordinates do not match, the feature amounts do not match, and to decide.
  • Coordinates (1, 8) are coordinates recognized as contours in both images (43, 44), specifically using the example shown in FIG. At this time, the arithmetic processing unit (204) determines that the feature amounts of both images (43, 44) match.
  • coordinates (4, 13) are the reference stationary
  • the image data (43) is a pixel indicating an outline
  • the post-processing still image data (44) is recognized as a pixel indicating an outline.
  • the arithmetic processing unit (204) determines that the feature amounts of both images (43, 44) do not match.
  • the arithmetic processing unit (204) generates the ratio of the processed still image data (44) to the pixels forming the contour of the reference still image data (43), 43) At the coordinates that match the coordinates of the pixels that make up the contour, calculate whether it has pixels recognized as contour. This ratio is taken as the degree of coincidence of the feature quantities of the image data.
  • FIG. 16 is a diagram showing an example of coordinate correction.
  • 16 (a) shows reference still image data (43)
  • FIG. 16 (b) shows still image data after processing before correction (44)
  • FIG. 16 (c) shows processing after correction
  • the rear still image data (45) is shown.
  • Coordinate correction may be applied to the processed still image data before calculating the degree of coincidence of the feature amounts of the image data.
  • Center coordinates are determined in advance in the reference still image data (43).
  • the position of coordinates (11, 7) is marked with “X”, which is the center coordinates.
  • the central coordinates are defined as the barycentric positions of the outermost isolated closed curve, that is, the area within the contour line formed by the eye line (eye edge).
  • the arithmetic processing unit (204) finds an isolated closed curve formed by an outline forming the outermost line of the processed still image data (44) subjected to the outline extraction process. Then, the barycentric coordinates of the area enclosed by the isolated closed curve are calculated.
  • the calculated barycentric coordinates are coordinates (18, 10), and the coordinates of “X” are attached to these coordinates.
  • the calculated barycentric coordinates are coordinate transformed so as to match the center coordinates of the reference still image data (43), and the image in the processed still image data (44) is moved (see FIG. 16C). ). In this way, it is easy to obtain a high degree of matching of feature amounts.
  • FIG. 17 shows an example of various reference still image data (43).
  • the arithmetic processing unit (204) performs a plurality of still image data (42) (for example, 3 to 5) of the still image data (42) constituting the moving image data (41) before performing the comparison step. Still image data (42) is selected, contour extraction processing is performed, and processed still image data (44) of a plurality of selected still image data (42) is obtained.
  • the arithmetic processing unit (204) finds an isolated closed curve formed by the outermost contour in the still image data (44) after this processing.
  • the arithmetic processing unit (204) finds an isolated closed curve formed by the outermost contours of the plurality of reference still image data (43) stored in the storage unit (201). Then, the degree of coincidence of the feature amount with the isolated closed curve in the image data is calculated using the same method as the calculation of the degree of coincidence of the feature amount of the image data shown in relation to FIG. Then, the reference still image data (43) having the highest degree of coincidence of the calculated feature amounts is used in the subsequent comparison step.
  • the still image is bitmap data
  • the force that has calculated the degree of coincidence of the feature amounts by comparison between the bitmap data. You may use it to calculate the degree of feature match.
  • FIG. 18 shows an example of a vectorization method for bitmap data
  • the vectorization method shown in FIG. 18 is a Freeman's Chain Code.
  • the present invention is not limited to Freeman's chain code, and any suitable vectorization method called vector conversion, raster vector conversion or auto-trace can be adopted appropriately.
  • the arithmetic processing unit (204) sets a processing start point (S) at any coordinate on the contour of the contour-extracted processed still image data (44). Then, the contour of the still image data (44) is tracked after processing. In this tracking process, a vector is created along the contour (see left in Figure 18). Based on the direction of the created vector, the presence or absence of a recess or a protrusion in the contour of the processed still image data (44) is identified according to a rule determined by the freeman's chain code. Can be interpolated with a straight line vector to obtain a continuous vector array along a smooth contour curve without any depressions or protrusions (Fig. 18). See the figure on the right).
  • FIG. 19 shows a comparison process using the vectorized image data as described above.
  • FIG. 19 (a) shows vectorized reference still image data (43), and Fig. 19 (b) shows still image data (42) of moving image data (41) from which an imaging device (2) power is also obtained.
  • FIG. 19 (c) shows image data after the image data of FIG. 19 (b) has been subjected to enlargement processing.
  • vectorized image data is used, vectorized reference still image data (43) is stored in advance in the storage unit (201). Alternatively, raw reference image data (43) may be stored, and the same processing may be performed on this reference image data (43) to obtain reference image data (43) to be compared.
  • the size of the portion to be diagnosed in the image obtained by the imaging device (2) is determined by the distance between the lens of the imaging device (2) and the subject, and the zoom function of the imaging device (2). Dependent. Therefore, for example, when the distance between the imaging device (2) and the eye is long, as shown in FIG. 19 (b), the eye image appears in a small area with respect to the image area.
  • the still image data (47) can be made approximately the same size as the reference still image data (43) by applying the enlargement / reduction processing to the still image data (47) obtained.
  • the rate at which the vector passing coordinates coincide can be the degree of coincidence of the feature quantities.
  • FIG. 20 shows a method of calculating the degree of coincidence of feature amounts using another image processing method.
  • FIGS. 20 (a) to 20 (e) show each processing step of image processing.
  • the outline extracted by the outline extraction method is used as the feature amount of the image, and the reference still image data (43) and the still image data (42) obtained by imaging are compared.
  • the present invention can also be implemented by image processing methods.
  • FIG. 20 (a) shows still image data constituting moving image data (41) obtained by the imaging device (2). It is one of (42). A lightness threshold value is provided for each pixel constituting this image data (42) to binarize the image data.
  • FIG. 20 (b) is the image data (44) after the binary image processing.
  • the binary data processing divides the image data (42) into black and white parts.
  • Curve interpolation is performed between the ends of the vector curves (C1) so as to connect the upper ends and the lower ends of the pair of left and right vector curves (C1) as shown in FIG. 20 (d). This creates a pair of upper and lower complementary curves (C2) between the ends of the vector curve (C1).
  • this complementary curve (C2) is created based on the average curvature radius of the vector curve (C1), but other complementary methods may be used.
  • an isolated closed curve (C) composed of a pair of vector curves (C1) and a pair of complementary curves (C2) can be obtained.
  • the processing unit (204) creates a perfect circle (CA) based on the mean radius of the isolated closed curve (C). Then, the deviation between the true circle (CA) and the isolated closed curve (C) is calculated. The calculated deviation is evaluated as the degree of coincidence of the feature amounts, and if the deviation is large, it is judged that the degree of coincidence is small, and it is judged that the degree of coincidence is high.
  • a plurality of threshold values may be provided for the lightness of each of the forces subjected to the binary image processing to identify the pigment portion of the eye using three or more regions.
  • the image area By defining the image area by the lightness of such pixels, it is possible to cope with various eye colors. For example, in order to cope with blue and red eyes, it is possible to easily perform binary reading as shown in FIG. 20 by setting the threshold value of lightness of each pixel lower than that for black eyes. .
  • the above-described arithmetic processing unit (204) performs contour extraction processing or binary processing in the image processing step. After the conversion processing, the still image data (44) after processing is stored in the storage unit (201) in the first storage step. Then, in the comparison step, the arithmetic processing unit (204) reads the processed still image data (44) stored in the storage unit (201) from the storage unit (201), and the processed still image data (44) Is compared with the reference image data (43) to calculate the matching degree of the feature amount. Alternatively, the difference between the still image data (44) after processing and the perfect circle is calculated, and the degree of coincidence of the feature values is calculated.
  • the arithmetic processing unit (204) extracts moving image data (41) from still image data (42) which is the source of the processed still image (44) having the highest degree of matching calculated in the second storage step.
  • the still image data (42) taken out is stored in the storage unit (201).
  • a moving image is imaged again by the imaging device (2).
  • the arithmetic processing unit (204) generates still image data (42), which is the source of the still image data (44) with the highest degree of matching, and is the source of the processed still image data (41). ) The degree of coincidence is high! After processing, it is good to select a plurality of still image data (44) and combine the selected image.
  • the image data needs to have a matching degree of 60% or more with respect to the reference image data (43) in order to make an image diagnosis.
  • the degree of coincidence of the obtained still image data (42) with the reference image data (43) is 57%, 56% and 54% from the higher side.
  • the arithmetic processing unit (204) combines three still image data (42) to create one combined still image data (46).
  • the arithmetic processing unit (204) subjects the composite still image data (46) to the above-mentioned image processing again, and the reference image data (43) is processed. Calculate the degree of coincidence.
  • the arithmetic processing unit (204) checks whether the calculated degree of coincidence exceeds the threshold value, and if it exceeds the threshold value, the combined still image data (46) is stored in the storage unit (201). Store.
  • a predetermined threshold value is set. Also, a predetermined number of still image data is selected such that the average value of the degree of coincidence is exceeded. It may be
  • the degree of coincidence increased by composite image processing shall be at least 5%. Then, it is assumed that the threshold value for the average value of the matching degree is set to 55%, and the number of still image data (42) to be subjected to the image combining process is three. Also, at this time, it is assumed that still image data (42) having 57% and 56% matching degree is already obtained.
  • the processing using the average value of the degree of coincidence as described above is preferable when using an arithmetic processing device provided separately from the imaging device (2).
  • FIG. 22 shows a data flow when performing processing using the average value of the degree of coincidence using an arithmetic processing unit provided separately from the imaging device (2).
  • an imaging device (2) and an arithmetic processing unit (5) are prepared on the user side.
  • a commercially available personal computer can be appropriately used as the processing unit (5).
  • the imaging device (2) includes a storage unit (201), an arithmetic processing unit (204), a transmission unit (202), and a reception unit (203).
  • the arithmetic processing unit (5) includes a receiving unit (501), a storage unit (502), image processing software (503), and a transmitting unit (504).
  • the transmission unit (202) of the imaging device (2) and the reception unit (501) of the arithmetic processing unit (5) are communicably connected by a wire.
  • a wire Alternatively, using Bluetooth (Blue Tooth) or WiFi (WiFi), the transmission unit (202) of the imaging device (2) and the reception unit (501) of the arithmetic processing unit (5) are connected wirelessly.
  • still image data having a degree of coincidence exceeding a predetermined threshold value (42) is selected by the arithmetic processing unit (204) of the imaging device (2).
  • Selected still image day (42) is received by the receiver (50) of the arithmetic processing unit (5) via the transmitter (202) of the imaging device (2).
  • Image processing software (503) included in the arithmetic processing unit (5) reads the still image data (42) stored in the storage unit (502), and creates a composite image.
  • the created composite image is sent by the transmitting unit (504) to the receiving device (301) disposed on the medical staff side.
  • the medical staff then performs an image diagnosis based on the image data received by the receiving device (301). Thereafter, the medical worker uses the transmission device (302) to make a diagnosis to the reception unit (203) of the imaging device (2) on the user side or the reception unit (501) of the arithmetic processing unit (5).
  • the transmitting unit (202) reads the still image data (42) or the composite still image data (46) selectively stored by the arithmetic processing unit (204) in the second storing step, and the receiving device provided to the medical worker ( These image data (42, 46) are sent to 301).
  • the medical staff performs image diagnosis based on the image data (42, 46) received by the receiving device (301). Then, the health care worker transmits the diagnostic result to the health care worker side (3
  • the image data (42, 46) is sent to the receiver (203) of the imaging device (2) on the user side.
  • FIG. 23 shows another form of the flow of moving image data obtained by the imaging device (2).
  • the imaging device (2) shown in FIG. 23 includes an arithmetic processing unit (204), a storage unit (201), a transmission unit (202), and a reception unit (203). Furthermore, the imaging device (2) includes an operation unit (205).
  • the operation unit (205) includes a vibration unit, a sound generation unit, or a light emission unit, and performs vibration, sound or light emission when a signal is sent from the arithmetic processing unit (204) to the operation unit (205).
  • the medical worker side is provided with a receiving device (301) and a transmitting device (302).
  • the user uses the imaging device (2) to capture a moving image of a body part that is desired to undergo diagnostic imaging.
  • FIG. 24 shows moving image data (41) received by the arithmetic processing unit (204) from the imaging device (2).
  • the moving image data (41) sent from the imaging device (2) to the arithmetic processing unit (204) is
  • the still image data (42) is composed of a plurality of pieces of still image data (42), and is sent to the arithmetic processing unit (204) sequentially from the start of the moving image data (41).
  • the arithmetic processing unit (204) sequentially performs image processing on each of the still image data (42) from the imaging device (2), and calculates the degree of coincidence of the feature amount with the reference image data (43).
  • the above-described contour extraction method, vector ⁇ or binary ⁇ can be applied as appropriate.
  • the same method as described above can be adopted for calculation of the degree of coincidence of feature amounts.
  • a threshold of 60% is set for the degree of coincidence of feature amounts.
  • the arithmetic processing unit (204) performs the matching of the feature amount for each of the still image data (42) constituting the moving image data (41) sent from the imaging device (2).
  • the matching degree of the feature amount with respect to the reference still image data (43) of each still image data (42) is calculated.
  • Arithmetic processing unit (204) Force: If it is determined that the 2052th still image data (42) is processed and the degree of matching of the feature amount exceeds the set threshold, the arithmetic processing unit (204) performs the image processing operation The operation of calculating the degree of coincidence of feature amounts is also stopped, and the 2052nd still image data (42) is stored in the storage unit (201). At the same time, the processing unit (204) sends a signal to the operation unit (205).
  • the operation unit (205) operates the vibration unit, the sound generation unit or the light emission unit based on the signal sent from the arithmetic processing unit (204) to vibrate the imaging device (2). , Sound from the imaging device (2) It emits or emits light. In this way, when the imaging device (2) provides a visual, tactile or auditory stimulus to the user of the imaging device (2), the user stops the imaging operation in response to this stimulus.
  • a threshold of 55% is set for the degree of coincidence of feature amounts, and the number of still image data (42) to be stored in the storage unit (201) is set. Then, the arithmetic processing unit (204) processes the still image data (42) sent from the imaging device (2), and calculates the matching degree of the feature amount for each.
  • still image data (42) having feature feature coincidences exceeding 55% are the 2 500th, 2502nd and 2504th still image data (42).
  • the arithmetic processing unit (204) stores the 2500th, 2502nd and 2504th still image data (42) in the storage unit (201).
  • the arithmetic processing unit (204) reads the 2500th, 2502nd and 2504th still image data (42) stored in the storage unit (201), and combines these still image data (42). 1. Create one composite still image data (46), and store the composite still image data (46) in the storage unit (201). Then, the arithmetic processing unit (204) stops the subsequent image processing and calculation of the matching degree. The arithmetic processing unit (204) sends a signal to the operation unit (205), and the operation unit (205) operates the imaging device (2) according to the signal sent from the arithmetic processing unit (204). Give the user a visual, tactile or auditory stimulus.
  • the transmitting unit (202) reads the still image data (42) or the composite still image data (46) selectively stored by the arithmetic processing unit (204) in the second storing step, and performs medical care These image data (42, 46) are transmitted to the receiver (301) provided by the user side.
  • the medical staff diagnoses the image based on the image data (42, 46) received by the receiving device (401). Then, the medical worker uses the transmitting device (302) of the medical worker side with the diagnosis result, and the receiving unit (the imaging device (2) of the user side that transmitted the image data (42, 46)). Send to 203).
  • the receiving device (301) and the transmitting device (302) provided to the medical worker may be a server provided to the medical person.
  • the server may be provided with commercially available image diagnostic software for performing image diagnosis of the image data (42, 46) automatically sent from the transmission unit (202).
  • FIG. 23 and FIG. 24 have the additional advantage of being able to save the user's imaging work.
  • FIG. 25 is a flowchart showing an example of image data processing using the imaging device (2) of the embodiment shown in FIG. 23 and FIG.
  • two threshold values are set for the degree of coincidence of feature amounts.
  • One is a first threshold, which is used as an index for determining whether or not a user has image quality that can be used for diagnostic imaging.
  • the other one is a second threshold, which is set to a value lower than the first threshold, and can be used for image diagnosis by increasing the degree of matching of feature amounts by the above-mentioned image combining process. It is set to determine whether or not it is an image to be obtained. Further, the number of pieces of still image data (42) necessary for the image combining process is set with respect to the second threshold.
  • moving image data (41) is sent to the arithmetic processing unit (204), and the arithmetic processing unit (204) receives the moving image data (41 Image processing is applied to the still image data (42) constituting the
  • the degree of coincidence of calculated feature amounts is compared with a first threshold. If the calculated matching degree of the feature amount is higher than the first threshold, the image data is stored in the storage unit (201) as a transmission image.
  • the calculated feature amount matching degree is compared with the second threshold value. If the degree of coincidence of the calculated feature amounts is lower than the second threshold, processing is performed on the next image. If the degree of coincidence of the calculated feature amounts is higher than the second threshold, this image is stored in the storage unit (201), and is counted as the stored number of images by comparison with the second threshold. Then, processing is performed on the next image data (42).
  • the arithmetic processing unit (204) may calculate the average value of the matching amounts as described above. Yes. Then, the second threshold may be set to the average value of the matching amounts. In this way, the processing load on the arithmetic processing unit (204) can be reduced.
  • the degree of coincidence of the calculated feature amounts of the subsequent image data (42) exceeds the second threshold which does not exceed the first threshold, and the predetermined number of image data (42) is the second.
  • the stored image data (42) is composited.
  • the degree of coincidence of the feature amounts is calculated, and the degree of coincidence of the calculated feature amounts is compared with the first threshold, and the calculated one If the matching degree is a value exceeding the first threshold, the composite image data (46) is stored in the storage unit (201) as a transmission image. If the calculated degree of coincidence does not exceed the first threshold, the processing is continued for the next image data (42).
  • the necessary image data (42) can be acquired efficiently.
  • FIG. 26 is a diagram showing an example of the imaging device (2), and the imaging device (2) shown in FIG. 26 is a mobile phone.
  • a display indicating a site to be imaged appears on the display screen (D) included in the imaging device (2).
  • the user selects the imaging site shown while looking at the display screen (D). According to this selection, it is possible to adopt a form in which the application incorporated in the imaging device (2) changes the focal length setting of the imaging function of the imaging device (2).
  • FIG. 27 shows an adapter (1) for obtaining high-quality image data by combining a hardware approach and a software approach.
  • the adapter (1) shown in FIG. 27 is fixed between the user's eye (E) and the imaging device (2).
  • the adapter (1) of FIG. 27 adopts the form of the adapter (1) described with reference to FIG. 8 Force
  • the other forms described above can also be adopted appropriately.
  • the adapter (1) includes the first peripheral wall (122) and the second peripheral wall (123), similarly to the adapter (1) described in connection with FIG.
  • a first ring (81) and a second ring (82) are disposed inside the second peripheral wall (123).
  • the first ring (81) and the second ring (82) have an opening at the center, which is concentric with the opening (111) formed in the bottom of the adapter (1).
  • the outer peripheral surfaces of the first ring (81) and the second ring (82) are connected to the second peripheral wall (123).
  • the inner diameter of the first ring (81) is set to be smaller than the diameter of the iris of the user's eye (E).
  • the inner edge (811) of the first ring (81) has a different color than the other areas of the first ring (81).
  • the color of the inner edge (811) of the first ring (81) is a color that is visible to the user and is particularly limited as long as it is a color that can be identified by image analysis by the imaging device (2). is not. In the example shown in FIG. 27, the inner edge (811) is red.
  • the second ring (82) is disposed between the first ring (81) and the user's eye (E).
  • the inner diameter of the second ring (82) is the inner edge (811) of the first ring (81) force and the trapezoidal cylindrical region (the region shown by the dotted line in FIG. 27) extending toward the iris outer edge of the user's eye
  • the second ring (82) is designed to contact the inner circumferential surface.
  • the inner circumferential surface of the second peripheral wall portion (123) is divided into three regions. One is a first area (83) disposed between the imaging device (2) and the first ring (81), and the other is a first ring (81) and a second ring (82). A second area (84) between them) and another one is a third area (85) between the second ring (82) and the user's eye (E).
  • the tip portion of the third area (85) is a light collecting area (851) formed of a light transmitting material, and light enters the inside of the adapter (1) from the light collecting area (851), and the user The color of the inner edge (811) of the ring (81) becomes visible.
  • the inner wall surface of the adapter (1) is colored in substantially the same color as the iris except for the daylighting area (851), and is black in the example shown in FIG.
  • an anti-reflection layer is formed to prevent the reflection of the light which has entered from the light receiving area (851).
  • An antireflective layer may be provided in addition to the second region (84).
  • the first ring (81) and the second ring (82) themselves may be covered with an antireflective layer, or Alternatively, the entire area from the first ring (81) to the lens opening (111) may be covered with an anti-reflection layer, or the third area (85) excluding the daylight area (851) may be anti-reflection Layers may be provided. Further, since the inner diameter of the second ring (82) is determined as described above, it blocks most of the light component directed to the second area (84) of the light which has entered from the light collection area (851).
  • FIG. 28 shows the recognition of the processing unit (204) on the image data obtained by the embodiment shown in FIG.
  • the imaging device (2) includes the arithmetic processing unit (204) that directly receives the image data sent from the imaging device (2) as described with reference to FIG. Further, in the example shown in FIG. 27, the imaging device (2) sends moving image data (41) to the arithmetic processing unit (204).
  • the arithmetic processing unit (204) shown in FIG. 28 (a) is a square processing area (700) in the image area (700) of the moving image data (41) recognized by the arithmetic processing unit (204). Define 701). Inside the processing area (701) an image of the inner edge (811) of the first ring (81) appears, in the inside of which the iris of the user's eye (E) appears. White eyes appear around the iris, and in the example shown in FIG. 28, the white areas and the band-like regions are white eyes.
  • the arithmetic processing unit (204) identifies the color applied to the inner edge (811) of the first ring (81) in the moving image data (41). Then, in the processing area (701), the arithmetic processing unit (204) determines whether the shape of the inner edge (811) identified by the color is equal to the shape of the actual inner edge (811) of the first ring (81). To judge. In the example shown in FIG. 28, the shape of the inner edge (811) is circular.
  • the arithmetic processing unit (204) determines that the image of the inner edge (811) of the first ring (81) inside the processing area (701) is circular, the arithmetic processing unit (204) 2) Send a signal to adjust the zoom function, and the zoom function of the imaging device (2) is such that the image area surrounded by the inner edge (811) of the first ring (81) in the processing area (701) is maximized Image enlargement operation.
  • an image area surrounded by the inner edge (811) of the first ring (81) is a processing area defined. If it protrudes from (701), the arithmetic processing unit (204) determines that the image of the inner edge (811) of the first ring (81) inside the processing area (701) is circular. At this time, the arithmetic processing unit (204) sends a zoom-down signal to the zoom function unit of the imaging device (2) to store the image of the inner edge (811) in the processing area (701). After that, a signal is sent to the zoom function unit so that the image area surrounded by the inner edge (811) is maximized in the processing area (701).
  • the image data acquired by the imaging device may be still image data or moving image data.
  • moving image data the above process may be performed similarly.
  • the present invention is suitably applied to image data 'sampling for diagnostic imaging.
  • FIG. 1 is a view showing an adapter used for data for image diagnosis, sampling, and the device of the present invention.
  • FIG. 2 is a view showing an image pickup apparatus used for the image diagnostic data 'sampling' device of the present invention.
  • FIG. 3 is a view showing an example of usage of the data 'sampling' device for image diagnosis of the present invention.
  • FIG. 4 is a view showing an example of usage of the data 'sampling' device for image diagnosis of the present invention.
  • FIG. 5 is a view showing another embodiment of the data 'sampling' device for diagnostic imaging of the present invention.
  • FIG. 6 is a view showing another embodiment of the diagnostic data 'sampling' device of the present invention.
  • FIG. 7 is a view showing another embodiment of an adapter used for image diagnostic data sampling device of the present invention.
  • FIG. 8 is a view showing another embodiment of an adapter used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 9 Data for diagnostic imaging of the present invention ⁇ Sampling ⁇ Other adapters used in the device Is a diagram showing an embodiment of the present invention.
  • FIG. 10 is a view showing a usage pattern of another embodiment of the adapter used for the image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 11 A diagram showing an example of the flow of image data in the device for image diagnostic data and sampling 'device of the present invention.
  • FIG. 12 It is a block diagram of moving image data.
  • FIG. 13 is a view showing an example of the flow of image data in the image diagnostic data 'sampling' device of the present invention.
  • FIG. 14 is a flow chart showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 15 is a view showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 16 is a view showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 17 is a view showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 18 is a view showing an example of a vector processing method used for image data processing used for image diagnostic data sampling device of the present invention.
  • FIG. 19 is a view showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 20 is a view showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 21 is a view showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 22 is a view showing an example of the flow of image data in the image diagnostic data 'sampling' device of the present invention.
  • FIG. 23 is a view showing an example of the flow of image data in the image diagnostic data 'sampling' device of the present invention.
  • FIG. 24 is a view showing an example of image data processing used for the image diagnostic data 'sampling' device of the present invention.
  • FIG. 25 is a flowchart showing an example of image data processing used for image diagnostic data ⁇ sampling ⁇ device of the present invention.
  • FIG. 26 is a view showing an example of an imaging apparatus used for the image diagnostic data 'sampling' device of the present invention.
  • FIG. 27 is a view showing the usage of the diagnostic data 'sampling' device of the present invention.
  • FIG. 28 A diagram showing image data recognized by the arithmetic processing unit of the image diagnostic data 'sampling' device shown in FIG.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Studio Devices (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Input (AREA)

Abstract

(課題) 一般に市販される携帯電話に備えられる簡易な撮像装置を用いて、良質な画像診断用データを得ることを可能とする画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタの提供。 (解決手段) 所望の診断箇所の動画を撮像可能な携帯型撮像装置と、該撮像装置の撮像用レンズ上に取付けられる略一端有底筒形状のアダプタからなり、該アダプタの底面部は、前記撮像用レンズを取り囲むとともに該撮像用レンズを支持する前記撮像装置筐体外壁部分に当接し、前記アダプタの開口端を取り囲む縁部は、前記診断箇所周囲の皮膚表面と当接し、前記アダプタ底面部には、前記撮像装置のレンズの径より大きな径の開口部が形成されることを特徴とする画像診断用データ・サンプリング・デバイスである。

Description

明 細 書
画像診断用データ'サンプリング ·デバイス並びに該デバイスに用いられ る撮像用アダプタ
技術分野
[0001] 本発明は、画像データに基づいて病状の診断を行う画像診断用の画像データをサ ンプリングするための画像診断用データ ·サンプリング ·デバイス並びに該デバイスに 用いられる撮像用アダプタに関し、より詳しくは、専門の診療場所まで行くことなしに 画像診断を受けることを可能とするとともに良質な画像を得ることを可能とする画像診 断用データ'サンプリング 'デバイス並びに該デバイスに用いられる撮像用アダプタに 関する。
背景技術
[0002] 近年の光学系装置の発達に伴って、多くの場面で光学系装置から得られた画像デ ータに基づいた医療診断が行われるようになってきている。代表的な例として、胃カメ ラが挙げられる。胃カメラを体腔内に挿入して、体腔内の腫瘍の有無を視覚的に判 断し、良好な画像データが得られれば、視覚的に発見された腫瘍が悪性であるか良 性であるかの判断も可能である。
[0003] 他の例として、眼底カメラが挙げられる。眼底カメラは、緑内障診断や糖尿病性網 膜症の診断の他、高血圧や動脈硬化の進行や全身疾患の発見の用に役立てられて いる。
特許文献 1は、画像処理機能付眼底カメラを開示している。特許文献 1に開示され る眼底カメラは、得られた画像を処理することによって診断にとって好適な画像を提 供可能とするものである。
[0004] 特許文献 1に開示される眼底カメラは、光学的技術のみならず画像処理技術を応 用することにより比較的廉価で一定レベルの高品質の画像を提供可能であるが、 1 つの問題点を有する。
特許文献 1に開示される眼底カメラに限られるものではないが、従来の画像診断装 置によって診断を受けようとする患者は、画像診断装置が備えられた病院まで出向 力なければならない。特に医療施設が不足している非都市部では、このような画像診 断装置を備えていない病院も多ぐ画像診断を受けようとする人は、都市部或いは遠 方の大病院まで出向かなければならない。したがって、何力しらの症状が出て、診断 を受けようと思っても、なかな力診断を受けることができず、症状が悪ィ匕してしまうこと もめる。
[0005] 画像診断設備を備える大病院が多く設立されている大都市部であっても、同様の 問題がある。一般に、画像診断を受けるためには、病院に予約して、画像診断を申し 込み、その後病院に出向き、相当時間病院で待った後、画像診断装置の前に座り、 診断箇所の画像を撮像するという段階を経る必要がある。力 tlえて、所定日数経過後、 診断結果が出され、その診断結果を得るために再び病院に出向くという手順を経る 必要がある。
このような煩雑な手順を経ることは、結果として、日常生活にさほど影響の出ない或 いは自覚症状が少ない病変 (例えば、緑内障など)に対して診断を受けることを遠ざ けるものとなる。このため、初期治療が受けられず、或いは初期に病変を発見すること ができな!/、ことを招来するものとなる。
[0006] 特許文献 2は、上記課題を鑑みて、診断を受ける使用者が使用者自身の手によつ て所望の診断箇所を撮像し、撮像して得られた画像データを、インターネットを介し て、情報処理装置へ送る方法を提案している。情報処理装置は、送信された画像デ ータに基づき診断を行うものである。
[0007] 特許文献 1 :特開 2005— 124879号公報
特許文献 2:特開 2003 - 70753号公報
発明の開示
発明が解決しょうとする課題
[0008] 特許文献 2に開示される発明によれば、使用者自身の手により得られた画像データ に基づき診断を受けることが可能となるが、以下の点で問題点を有する。
使用者自身が撮像を行うことで、画像データを簡便に得ることができるが、その一方 で良質な画像データを得ることは困難となる。撮像装置のレンズから撮像される診断 箇所までの距離がレンズの焦点距離と一致して 、な 、場合や撮像装置が撮像中に 移動する場合には、得られる画像はぼけた状態となり、最早画像診断の用に供する ことができるものではない。
[0009] このため、良質な画像データを得ようとすれば、撮像装置の位置を固定し、撮像装 置のレンズから所定距離をお ヽて撮像対象たる診断箇所を配置し、撮像作業を行う ことが必要となる。
上記のような撮像作業は、非常に煩雑であり、特許文献 2に開示される発明の利点 である簡便さをも損なうものである。カロえて、上記撮像作業は、近年発達してきた撮像 機能付携帯電話等の撮像装置を用いることには不向きである。
特に、顔面部位を撮像するときには、使用者の目で撮像装置と撮像対象間の距離 を測ることができず、適切な位置に撮像装置を配することは困難である。
[0010] 本発明は上記実情を鑑みてなされたものであって、一般に市販される携帯電話に 備えられる簡易な撮像装置を用いて、良質な画像診断用データを得ることを可能と する画像診断用データ ·サンプリング 'デバイス並びに該デバイスに用いられる撮像 用アダプタを提供することを目的とする。
課題を解決するための手段
[0011] 特許請求の範囲第 1項記載の発明は、所望の診断箇所の動画を撮像可能な携帯 型撮像装置と、該撮像装置の撮像用レンズ上に取付けられる略一端有底筒形状の アダプタ力もなり、該アダプタの底面部は、前記撮像用レンズを取り囲むとともに該撮 像用レンズを支持する前記撮像装置筐体外壁部分に当接し、前記アダプタの開口 端を取り囲む縁部は、前記診断箇所周囲の皮膚表面と当接し、前記アダプタ底面部 には、前記撮像装置のレンズの径より大きな径の開口部が形成されることを特徴とす る画像診断用データ ·サンプリング 'デバイスである。
特許請求の範囲第 2項記載の発明は、前記撮像用レンズ周囲の前記撮像装置筐 体外壁が平坦に形成され、前記アダプタの底面部が平坦に形成され、該底面部の 前記撮像装置筐体外壁と当接する面に、滑り止め層が設けられることを特徴とする特 許請求の範囲第 1項記載の画像診断用データ ·サンプリング ·デバイスである。 特許請求の範囲第 3項記載の発明は、前記撮像用レンズ周囲の前記撮像装置筐 体外壁が平坦に形成され、前記アダプタの底面部が平坦に形成され、前記アダプタ 力 前記アダプタの底面部周縁から延設するとともに前記撮像装置筐体を外嵌する 爪部を更に備えることを特徴とする特許請求の範囲第 1項記載の画像診断用データ
•サンプリング ·デバイスである。
特許請求の範囲第 4項記載の発明は、前記撮像装置が、第 1部分と第 2部分を備 え、前記第 1部分と前記第 2部分が略円柱形状のヒンジ部を介して互いに回動可能 に接続し、前記撮像用レンズが該ヒンジ部周面に配され、前記アダプタ部底面部が 前記ヒンジ部を外嵌することを特徴とする特許請求の範囲第 1項記載の画像診断用 データ ·サンプリング ·デバイスである。
[0012] 特許請求の範囲第 5項記載の発明は、前記撮像装置が、撮像用光源を備え、前記 アダプタ底面部が更に、採光窓を備え、前記撮像用光源からの光が、前記採光窓を 介して、前記アダプタ内を通過可能であることを特徴とする特許請求の範囲第 1項記 載の画像診断用データ ·サンプリング 'デバイスである。
特許請求の範囲第 6項記載の発明は、前記アダプタ周壁部が、光を透過させない ことを特徴とする特許請求の範囲第 5項記載の画像診断用データ'サンプリング'デ バイスである。
特許請求の範囲第 7項記載の発明は、前記アダプタ周壁部が、該アダプタ内部に 進入する光の量を変更可能であることを特徴とする特許請求の範囲第 1項記載の画 像診断用データ ·サンプリング ·デバイスである。
特許請求の範囲第 8項記載の発明は、前記アダプタの周壁部が、前記アダプタ底 面部から延出する第 1周壁部と、前記アダプタ縁部から延出する第 2周壁部からなり 、前記第 2周壁部が、前記第 1周壁部に対して、アダプタ軸方向に移動可能であるこ とを特徴とする特許請求の範囲第 1項記載の画像診断用データ'サンプリング 'デバ イスである。
[0013] 特許請求の範囲第 9項記載の発明は、前記撮像装置が、該撮像装置から得られた 動画データを格納する記憶部と、該記憶部に格納された前記動画データを構成する 複数枚の静止画像データのうち 1つを選択し、該選択された静止画像データを前記 記憶部に送信用画像として格納する演算処理部と、前記送信用画像を医療従事者 側へ送信する送信部を更に備えることを特徴とする特許請求の範囲第 1項記載の画 像診断用データ ·サンプリング ·デバイスである。
特許請求の範囲第 10項記載の発明は、前記撮像装置が、該撮像装置から得られ た動画データを格納する記憶部と、該記憶部に格納された前記動画データを構成す る複数枚の静止画像データのうち所定数の前記静止画像データを選択し、該選択さ れた静止画像データを合成処理して、該合成処理により得られた 1つの合成処理静 止画像データを前記記憶部に送信用画像として格納する演算処理部と、前記送信 用画像を医療従事者側へ送信する送信部を更に備えることを特徴とする特許請求の 範囲第 1項記載の画像診断用データ'サンプリング 'デバイスである。
特許請求の範囲第 11項記載の発明は、前記撮像装置が、該撮像装置から送られ た動画データを受け取るとともに該動画データを構成する複数枚の静止画像データ のうち 1つを選択する演算処理部と、前記演算処理部により選択された静止画像デ ータを送信画像として記憶する記憶部と、前記送信用画像を医療従事者側へ送信 する送信部を更に備えることを特徴とする特許請求の範囲第 1項記載の画像診断用 データ ·サンプリング ·デバイスである。
特許請求の範囲第 12項記載の発明は、前記撮像装置が、該撮像装置から送られ た動画データを受け取るとともに該動画データを構成する複数枚の静止画像データ のうち所定数の前記静止画像データを選択し、該選択された静止画像データを合成 処理して、該合成処理により得られた 1つの合成処理静止画像データを作成する演 算処理部と、該演算処理部により作成された画像データを送信用画像として格納す る記憶部と、前記送信用画像を医療従事者側へ送信する送信部を更に備えることを 特徴とする特許請求の範囲第 1項記載の画像診断用データ'サンプリング 'デバイス である。
特許請求の範囲第 13項記載の発明は、前記医療従事者側で行われる診断結果 を受信する受信部を備えることを特徴とする特許請求の範囲第 9項乃至第 12項いず れかに記載の画像診断用データ ·サンプリング 'デバイスである。
特許請求の範囲第 14項記載の発明は、前記演算処理部が前記送信用画像デー タを前記記憶部に格納すると、前記撮像装置が、使用者に視覚的、聴覚的或いは触 覚的刺激を与えることを特徴とする特許請求の範囲第 9項乃至第 12項いずれかに 記載の画像診断用データ ·サンプリング ·デバイスである。
特許請求の範囲第 15項記載の発明は、前記演算処理部による選択が、前記動画 データを構成する前記複数枚の静止画像データに画像処理を施す段階と、前記画 像処理により得られた一の処理後静止画像データと前記記憶部に格納された基準 画像データの特徴量を比較して、該特徴量の一致度を算出する段階と、前記算出さ れた一致度を所定の閾値と比較し、前記一の処理後静止画像データの元となった前 記静止画像データを前記送信用画像として前記記憶部に格納するカゝ否かを判断す る段階により実行されることを特徴とする特許請求の範囲第 9項乃至 12項いずれか に記載の画像診断用データ ·サンプリング ·デバイスである。
特許請求の範囲第 16項記載の発明は、前記画像処理が、輪郭抽出法により行わ れ、被写体の輪郭線が抽出され、該輪郭線が前記特徴量として扱われることを特徴 とする特許請求の範囲第 15項記載の画像診断用データ ·サンプリング ·デバイスであ る。
特許請求の範囲第 17項記載の発明は、前記画像処理が、前記抽出された輪郭線 をベクトル化する段階を備え、前記ベクトル化された輪郭線が前記特徴量として扱わ れることを特徴とする特許請求の範囲第 16項記載の画像診断用データ'サンプリン グ-デバイスである。
特許請求の範囲第 18項記載の発明は、前記診断箇所が眼であり、前記演算処理 部による選択が、前記動画データを構成する前記複数枚の静止画像データに対して 、該静止画像データを構成する画素の明度の範囲に応じて領域分けを行い、眼球の 色素部分を識別する段階と、前記眼球の色素部分とその他の部分の領域のうち左右 の曲線輪郭をベクトル化する段階と、該ベクトル化して得られた左右一対の曲線端部 同士を、該左右一対の曲線の平均曲率半径に基づいて補完し、補完曲線を作成す る段階と、前記左右一対の曲線と補完曲線とで構成される孤立閉曲線と真円とのず れを算出する段階と、該ずれを所定の閾値と比較し、前記二値化された静止画像デ ータの元となった前記静止画像データを前記送信用画像として前記記憶部に格納 するカゝ否かを判断する段階により実行されることを特徴とする特許請求の範囲第 9項 乃至第 12項 、ずれか〖こ記載の画像診断用データ ·サンプリング 'デバイスである。 特許請求の範囲第 19項記載の発明は、前記アダプタ内部に第 1リングが配され、 該第 1リングは、内縁に使用者に視認可能であるとともに該第 1リングの他の部分と異 なる色彩が施され、前記撮像装置がズーム機能を備え、前記演算処理部は、該演算 処理部が認識する画像領域内に処理領域を定義する段階と、前記内縁の色彩を識 別し、前記処理領域内の内縁の像の形状が実際の内縁の形状と等しいか否かを判 断する段階と、該判断により、等しいと判断された場合に、前記演算処理部がズーム 機能を動作させ、前記処理領域内で前記内縁により囲まれる像の領域を最大化させ ることを特徴とする特許請求の範囲第 11項又は第 12項記載の画像診断用データ · サンプリング ·デバイスである。
特許請求の範囲第 20項記載の発明は、前記判断により、等しくないと判断された 場合に、前記演算処理部がズーム機能を動作させ、前記内縁により囲まれる像の領 域を前記処理領域内に収めることを特徴とする特許請求の範囲第 19項記載の画像 診断用データ ·サンプリング ·デバイスである。
特許請求の範囲第 21項記載の発明は、携帯型撮像装置に着脱自在に取付けら れる略一端有底筒形状のアダプタであって、該アダプタ力 前記撮像用レンズを取り 囲むとともに該撮像用レンズを支持する前記撮像装置筐体外壁部分に接地する底 面部と、前記撮像装置が撮像する診断箇所周囲の皮膚表面と当接する縁部を備え 、前記アダプタの底面部には、前記撮像装置のレンズの径より大きな径の開口部が 形成されることを特徴とする撮像用アダプタである。
特許請求の範囲第 22項記載の発明は、前記アダプタの底面部が平坦に形成され 、前記撮像装置に当接する前記アダプタの底面部の面上に滑り止め層が設けられる ことを特徴とする特許請求の範囲第 21項記載の撮像用アダプタである。
特許請求の範囲第 23項記載の発明は、前記アダプタの底面部が平坦に形成され 、前記アダプタの底面部周縁から前記撮像装置筐体を外嵌する爪部が延設すること を特徴とする特許請求の範囲第 21項記載の撮像用アダプタである。
特許請求の範囲第 24項記載の発明は、前記アダプタの底面部が前記アダプタ内 部方向に屈曲する曲面形状をなし、前記撮像装置の撮像用レンズが配される円柱 状部材を前記アダプタ底面部が外嵌することを特徴とする特許請求の範囲第 21項 記載の撮像用アダプタである。
特許請求の範囲第 25項記載の発明は、前記アダプタ底面部が更に、採光窓を備 え、
前記撮像用光源力 の光が、前記採光窓を介して、前記アダプタ内を通過可能で あることを特徴とする特許請求の範囲第 21項記載の撮像用アダプタである。
特許請求の範囲第 26項記載の発明は、前記アダプタ周壁部が、光を透過させな いことを特徴とする特許請求の範囲第 25項記載の撮像用アダプタである。
特許請求の範囲第 27項記載の発明は、前記アダプタ周壁部が、該アダプタ内部 に進入する光の量を変更可能であることを特徴とする特許請求の範囲第 21項記載 の撮像用アダプタである。
特許請求の範囲第 28項記載の発明は、前記アダプタ周壁部が、光を透過させる 部分と光を透過させない部分を備えることを特徴とする特許請求の範囲第 21項記載 の撮像用アダプタである。
特許請求の範囲第 29項記載の発明は、前記アダプタの内壁面が、光を反射させ ないことを特徴とする特許請求の範囲第 21項記載の撮像用アダプタである。
特許請求の範囲第 30項記載の発明は、前記アダプタの周壁部が、前記アダプタ 底面部から延出する第 1周壁部と、前記アダプタ縁部から延出する第 2周壁部からな り、前記第 2周壁部が、前記第 1周壁部に対して、アダプタ軸方向に移動可能である ことを特徴とする特許請求の範囲第 21項記載の撮像用アダプタである。
特許請求の範囲第 31項記載の発明は、前記第 1周壁部が筒状の接続部と、前記 撮像装置に接地する接地部を備え、該接地部が前記接続部に対して着脱自在であ ることを特徴とする特許請求の範囲第 30項記載の撮像用アダプタである。
特許請求の範囲第 32項記載の発明は、前記第 2周壁部が、撮像対象に先端が接 触する筒状の接触部と、前記第 1周壁部に接続する筒状の保持部を備え、前記接触 部が前記保持部に対して着脱自在であることを特徴とする特許請求の範囲第 30項 記載の撮像用アダプタである。
特許請求の範囲第 33項記載の発明は、前記第 1周壁部が更に、前記接続部に接 続する筒状のアジヤスタを備え、前記接続部は、先端に環状溝を備え、前記アジヤス タは基端に環状溝を備え、前記接続部と前記アジヤスタの接続が、これらに形成され た環状溝同士の嵌合により行われ、前記アジヤスタは、先端部にねじ部を備え、該ね じ部が前記第 2周壁部に形成されるねじ部と螺合することを特徴とする特許請求の範 囲第 31項記載の撮像用アダプタである。
特許請求の範囲第 34項記載の発明は、前記アダプタ内部に追加のレンズが配さ れることを特徴とする特許請求の範囲第 21項記載の撮像用アダプタである。
特許請求の範囲第 35項記載の発明は、前記アダプタの周壁部が可撓性且つ弾性 復元性を備える材料で構成されることを特徴とする特許請求の範囲第 21項記載の 撮像用アダプタである。
特許請求の範囲第 36項記載の発明は、前記アダプタ内部に第 1リングが配され、 前記アダプタ先端部は、光を透過可能な材料で形成され、該第 1リング内縁に使用 者に視認可能であるとともに該第 1リングの他の部分と異なる色彩が施されることを特 徴とする特許請求の範囲第 21項記載の撮像用アダプタである。
特許請求の範囲第 37項記載の発明は、前記第 1リングと前記アダプタの先端との 間に第 2リングが配され、該第 2リングは、前記第 1リングの内径よりも大きな内径を備 えることを特徴とする特許請求の範囲第 33項記載の撮像用アダプタである。
特許請求の範囲第 38項記載の発明は、前記アダプタの内壁のうち、少なくとも前 記第 1リングと前記第 2リングの間の領域が光を反射させないことを特徴とする特許請 求の範囲第 34項記載の撮像用アダプタである。
特許請求の範囲第 39項記載の発明は、前記アダプタの内壁の色彩が使用者の虹 彩の色彩と略等しいことを特徴とする特許請求の範囲第 21項記載の撮像用アダプタ である。
発明の効果
特許請求の範囲第 1項記載の発明によれば、診断箇所と撮像装置のレンズ間距離 が一定となる。したがって、良質の画像データを安定して得ることが可能となる。 特許請求の範囲第 2項記載の発明によれば、撮像作業中にアダプタが撮像装置に 対して移動することを防止できる。したがって、良質の画像データを安定して得ること が可能となる。 特許請求の範囲第 3項記載の発明によれば、撮像作業中にアダプタが撮像装置に 対して移動することを防止できる。したがって、良質の画像データを安定して得ること が可能となる。
特許請求の範囲第 4項記載の発明によれば、撮像装置のヒンジ部にアダプタを取 付けることができ、撮像作業中にアダプタが撮像装置に対して移動することを防止で きる。したがって、良質の画像データを安定して得ることが可能となる。
[0018] 特許請求の範囲第 5項記載の発明によれば、撮像装置に備えられる撮像用光源を 撮像に用いることが可能となる。
特許請求の範囲第 6項記載の発明によれば、外乱光がアダプタ内に進入すること を防止可能となる。したがって、良質な画像データを安定して得ることが可能となる。 特許請求の範囲第 7項記載の発明によれば、アダプタ内部に進入する光量を調整 可能であり、撮像に最適な光環境を作り出すことが可能となる。
特許請求の範囲第 8項記載の発明によれば、アダプタの軸長が可変となり、撮像装 置が備えるレンズの焦点距離に応じて、アダプタの軸長を調整可能となる。
[0019] 特許請求の範囲第 9項乃至第 12項記載の発明によれば、動画力も抽出された良 質の静止画像データを画像診断用データとして用いることができ、更に良質な画像 データを得ることができる。
特許請求の範囲第 13項記載の発明によれば、診断結果を受信することができ、早 期に診断結果を知ることが可能となる。
特許請求の範囲第 14項記載の発明によれば、画像診断に供することができる画像 データが得られた時を使用者に知らせることが可能となり、不必要な撮像作業の発生 を防止可能となる。
[0020] 特許請求の範囲第 15項記載の発明によれば、動画を構成する静止画像データの うち、特徴量が基準画像データの特徴量と高い水準で一致する静止画像のみが送 信対象となるので、診断に使用可能な程度の品質を有する画像データを送信可能と なる。また、低い処理能力の装置であっても、長時間力かる膨大な計算処理を行うこ となしに、必要な画像データを送信可能である。
特許請求の範囲第 16項及び第 17項記載の発明によれば、低い計算処理能力の 演算処理部であっても、特徴量の算出を行うことが可能となる。
特許請求の範囲第 18項記載の発明によれば、人間の目に対して好適で且つ最小 の計算能力をもって、画像診断用データをサンプリング可能となる。
特許請求の範囲第 19及び 20項記載の発明によれば、使用者が第 1リングの内縁 を見ることによって、眼の虹彩の位置を画像領域中心に配することが可能となる。そし て、ズーム機能により虹彩の画像データを所望の大きさに拡大した状態で撮像するこ とが可能となり、画像診断に好適な画像データを得ることが可能となる。
特許請求の範囲第 21項記載の発明によれば、診断箇所と撮像装置のレンズ間距 離が一定となる。したがって、良質の画像データを安定して得ることが可能となる。 特許請求の範囲第 22項記載の発明によれば、撮像作業中にアダプタが撮像装置 に対して移動することを防止できる。したがって、良質の画像データを安定して得るこ とが可能となる。
特許請求の範囲第 23項記載の発明によれば、撮像作業中にアダプタが撮像装置 に対して移動することを防止できる。したがって、良質の画像データを安定して得るこ とが可能となる。
特許請求の範囲第 24項記載の発明によれば、撮像装置のヒンジ部にアダプタを取 付けることができ、撮像作業中にアダプタが撮像装置に対して移動することを防止で きる。したがって、良質の画像データを安定して得ることが可能となる。
特許請求の範囲第 25項記載の発明によれば、撮像装置に備えられる撮像用光源 を撮像に用いることが可能となる。
特許請求の範囲第 26項記載の発明によれば、外乱光がアダプタ内に進入すること を防止可能となる。したがって、良質な画像データを安定して得ることが可能となる。 特許請求の範囲第 27項記載の発明によれば、アダプタ内部に進入する光量を調 整可能であり、撮像に最適な光環境を作り出すことが可能となる。
特許請求の範囲第 28項記載の発明によれば、光を透過させる部分と光を透過させ な 、部分の割合で、撮像時のアダプタ内部の光量を好適に定めることが可能となる。 特許請求の範囲第 29項記載の発明によれば、アダプタ内に進入した光がアダプタ 内壁により反射されず良質の画像データを得ることが可能となる。 特許請求の範囲第 30項記載の発明によれば、アダプタの軸長が可変となり、撮像 装置が備えるレンズの焦点距離に応じて、アダプタの軸長を調整可能となる。
特許請求の範囲第 31項記載の発明によれば、取付対象の撮像装置の形態に応じ て接地部のみを交換することができる。
特許請求の範囲第 32項記載の発明によれば、撮像対象の変更に応じて、接触部 のみを交換することが可能となる。
特許請求の範囲第 33項記載の発明によれば、アダプタを撮像箇所と撮像装置の 間で保持した状態で、アダプタの軸長を変更することが可能となる。
特許請求の範囲第 34項記載の発明によれば、撮像装置が備える焦点距離範囲を 超えて、焦点距離の調整を行うことが可能となる。
特許請求の範囲第 35項記載の発明によれば、アダプタが眼の撮像に用いられると きに、まぶたが閉じないようにすることが可能となる。
特許請求の範囲第 36項記載の発明によれば、使用者が第 1リングの内縁を見るこ とで、使用者の眼の虹彩を画像の中心に配することが可能となる。
特許請求の範囲第 37項記載の発明によれば、第 2リングにより、アダプタ内部に進 入するとともにアダプタ内壁に向力 光を遮断することが可能となる。
特許請求の範囲第 38項記載の発明によれば、アダプタ内壁による反射光による画 像データの劣化を確実に防止することが可能となる。
特許請求の範囲第 39項記載の発明によれば、虹彩とアダプタ内壁の光の吸収率 を近似させることができ、眼の良好な画像データを取得可能である。
発明を実施するための最良の形態
[0022] 以下、本発明に係る画像診断用データ'サンプリング 'デバイス並びに画像診断用 データ ·サンプリング ·デバイスに使用される撮像用アダプタの実施形態にっ 、て、図 を参照しつつ説明する。
図 1は、本発明の撮像用アダプタの一実施形態を示す図である。図 1 (a)は、撮像 用アダプタの平面図であり、図 1 (b)は撮像用アダプタの縦断面図である。
[0023] 図 1に示す撮像用アダプタ(1)は、眼を撮像対象として形成されている。アダプタ(1
)は、略一端有底円筒形状に形成される。図 1に示すアダプタ(1)の底面部(11)は 略平坦な円板形状に形成され、 2つの開口部を備える。一方の開口部(111)は、後 述するように撮像装置のレンズを取り囲み、撮像装置のレンズより大きな径を有する。 他方の開口部は、撮像装置の撮像用光源からの光を通過させる採光窓(112)であ る。
底面部(11)の下面には、滑り止め層(113)が形成される。滑り止め層(113)は、 底面部(11)と略同径の円板形状に形成され、底面部(11)に形成された開口部(11 1)並びに採光窓(112)に対応する位置に開口部(114, 115)を備える。開口部(1 14)は、底面部(11)に形成された開口部(111)と同径に形成される。また、開口部( 115)は、採光窓( 112)と同径に形成される。
滑り止め層(113)は、撮像装置の外面をなす筐体との間で高い摩擦力を発揮でき る材質であれば特に限定されるものではな 、が、ゴムやウレタンなどが好適な材質と して例示できる。或いは滑り止め層(113)として、接着剤層を設けてもよい。
[0024] アダプタ(1)の周壁部(12)は、下端が円形輪郭を有するように形成され、上方に向 力うにつれて幅方向に広がる楕円形状に形成される。周壁部(12)の高さは、使用さ れる撮像装置のレンズが有する焦点距離に合わせて定められる。
図 1に示すアダプタ(1)の周壁部(12)の上端縁(121)は、使用者の眼周囲の皮膚 表面に当接する。上端縁 (121)全体が皮膚表面に当接するように、上端縁 (121)は 使用者の眼周囲の皮膚表面の隆起輪郭に合わせて、下方に湾曲した輪郭をなして いる。
[0025] 図 2は、撮像装置の一例を示す。図 2に示す例において、撮像装置として撮像機能 付折畳式携帯電話を示す。図 2 (a)は、撮像装置の正面図であり、図 2 (b)は撮像装 置の側面図である。
尚、図 2に示す例においては、携帯電話を用いているが、撮像機能及び通信機能 を備えるならば他の装置も適宜使用可能である。例えば、撮像機能付スマートフォン (Smart Phone)、撮像機能付パーソナル'デジタル'アシスタント(PDA: Personal Digit al Assistant)或いは通信機能付デジタルビデオなどである。所望の診断箇所を撮影 するため、撮像装置は軽量 '小型のものが好ましぐまた、品質の高い画像データを 得るため画素数も出来るだけ高い方が好ましいが、 100万画素を超えるものであれ ば、本発明に好適に使用可能である。
[0026] 撮像装置 (2)は、略直方体形状に形成された第 1部分 (24)と第 2部分 (25)を備え る。第 1部分 (24)と第 2部分 (25)は、略円柱形状に形成されたヒンジ部(26)を介し て、互いに回動可能に接続される。
撮像装置 (2)の第 1部分 (24)側に撮像用のレンズ (21)が配される。図 2に示す例 においては、撮像装置(2)の筐体(22)外面にレンズ (21)が現れる。そして、一般的 に撮像装置(2)のレンズ (21)近傍に撮像用の光源 (23)が配される。光源 (23)は、 暗所での撮像作業の際にフラッシュ光を照射するために用いられる。
レンズ (21)付近の筐体(22)外面は略平坦に形成される。
[0027] 図 3は、画像診断用データ'サンプリング 'デバイスの使用形態の一例を示す。図 4 は、図 3に示す使用状態における画像診断用データ ·サンプリング ·デバイスの正面 図である。
画像診断用データ'サンプリング 'デバイス(10)は、上述のアダプタ(1)と撮像装置 (2)力 構成される。
アダプタ(1)の上端縁は、使用者の眼周囲の皮膚表面と当接する。そして、ァダプ タ(1)の底面部(11)に配された滑り止め層(113)に撮像装置 (2)の筐体 (22)を当 接させる。これにより、アダプタ(1)は、使用者の皮膚表面と撮像装置(2)の間で固定 される。
[0028] このとき、撮像装置(2)のレンズ (21)は、アダプタ(1)の底面部(11)に形成された 開口部(111)内に現れる。そして、撮像装置(2)の光源(23)は、採光窓(112)内部 に現れる。
滑り止め層(113)は、撮像装置 (2)がアダプタ(1)に対して移動することを防止す る。これにより、撮像装置(2)は、レンズ (21)の焦点距離と略一致した位置で固定さ れる。したがって、撮像装置(2)の撮像作業中の移動に起因する撮像画像のボケを 防止可能となる。よって、良質の画像データを得ることが可能となる。
[0029] 図 5は、画像診断用データ'サンプリング ·デバイス(10)の変更例を示す。図 5 (a) は、画像診断用データ'サンプリング 'デバイス(10)の平面図であり、図 5 (b)は、画 像診断用データ ·サンプリング ·デバイス (10)の正面図である。 図 5に示す画像診断用データ'サンプリング ·デバイス(10)は、図 1乃至図 4で示し た画像診断用データ'サンプリング 'デバイス(10)と略同様の構成であるが、ァダプ タ(1)の撮像装置 (2)に対する取付形態が異なる。
[0030] 図 5に示すアダプタ(1)は、滑り止め層(113)に代えて、平面視略 C型の一対の爪 部(116)を備える。爪部(116)は、アダプタ(1)の底面部(11)周縁から延出し、撮 像装置 (2)の第 1部分 (24)側面を外嵌する。
このような方式によっても、アダプタ(1)と撮像装置(2)の位置関係を固定可能であ る。
尚、爪部(116)を備える形態においても、アダプタ(1)の底面部(11)に滑り止め層 (113)を配してもよい。このようにすれば、アダプタ(1)と撮像装置(2)の位置関係の 固定を確実に行うことができる。
[0031] 図 6は、アダプタ(1)の撮像装置(2)に対する他の取付形態を示す画像診断用デ ータ ·サンプリング ·デバイス (10)の断面図である。
撮像装置 (2)の種類によっては、平坦な筐体 (22)にレンズ (21)が配されず、円柱 形状に形成されたヒンジ部(26)周面にレンズ (21)が配される場合がある。このような 場合、アダプタ(1)の底面部(11)を曲面状に形成し、ヒンジ部(26)を外嵌するように してもよい。このような手段により、曲面上に配されたレンズ (21)に対してもアダプタ( 1)を取付けることが可能となる。
[0032] アダプタ(1)が採光窓(112)を備える場合には、アダプタ(1)の周壁部(12)を、光 が透過しない材料で形成してもよい。例えば、周壁部(12)を黒色材料で形成すれば 、光の透過を防止可能である。
周壁部(12)を、光が透過しない材料で形成すると、外界からのアダプタ(1)内部へ の進入を防止可能となる。したがって、撮像時の光源は、撮像装置 (2)に備えられた 撮像用光源(23)のみとなり、常に一定の光量での撮像が可能となる。よって、撮像 作業で得られる画像データは、外界からの光の影響を受けず、安定した質の画像デ ータを得ることがでさる。
特に、アダプタ(1)の内周面が光を反射させない材質力もなることが好ましい。例え ば、アダプタ(1)内周面に黒色のゴム層が設けられ、或いは、アダプタ(1)の周壁部( 12)が黒色のゴム層で形成されると、アダプタ(1)内部に進入した光がアダプタ(1) 内壁面によって反射されることがなぐ良質の画像データを得ることが可能である。
[0033] 周壁部(12)を光透過性材料で形成してもよい。この場合には、撮像作業場所の室 内光を撮像用光源として利用可能である。また、室内光が撮像用光源として十分な 光量を有する場合には、アダプタ(1)に採光窓(112)を設ける必要はない。
更には、アダプタ(1)外壁に電池を固定するホルダを形成してもよい。そして、ァダ プタ(1)内部に LED等の小型光源を固定し、小型光源と電池を接続し、アダプタ(1) 内部で光を照射可能としてもょ 、。
[0034] 図 7は、アダプタ(1)の他の実施形態を示す。図 7 (a)は、アダプタ(1)の平面図で あり、図 7 (b)は、アダプタ(1)の正面図である。
図 7に示すアダプタ(1)の周壁面(12)は、正面視略矩形状の窓部(124)を備える 。窓部(124)は、光透過性材料から形成され、他の部分は、光を透過させない材料 力も形成される。窓部(124)の外側には、扉部(125)が取り付けられ、扉部(125)は 、周面壁(12)に沿って、周面壁(12)周方向に移動可能である。扉部(125)は、光 を透過させな、ヽ材料から形成される。
[0035] 図 7に示すアダプタ(1)を用いる場合、採光窓(112)から進入した光の一部は、扉 部(125)によって覆われていない窓部(124)を通じて、アダプタ(1)の外へ放出され る。結果として、撮像時のアダプタ(1)内部の光量を低減することができる。
上述の如ぐ扉部(125)は周面壁(12)に沿って周方向に移動可能であるので、窓 部(124)が扉部(125)によって覆われる領域の増減を行うことが可能である。したが つて、所望に応じて、撮像時のアダプタ(1)内部の光量を、扉部(125)の動作によつ て調整可能となる。
[0036] 図 8は、アダプタ(1)の変更形態を示す。図 8 (a)は、アダプタ(1)の縦断面図であり 、図 8 (b)は、アダプタ(1)の正面図である。
図 8 (a)に示す如ぐアダプタ(1)の周壁部(12)は、アダプタ(1)の底面部(11)か ら上方に延出する円筒形状の第 1周壁部(122)と、第 1周壁部(122)上部外周面に 形成されたねじ部と螺合する円筒形状の第 2周壁部(123)から構成される。このよう に周壁部(12)を第 1周壁部(122)と第 2周壁部(123)を螺合させて形成することに より、アダプタ(1)の軸方向長さを可変とすることが可能となり、アダプタ(1)の長さを 撮像装置 (2)のレンズ (21)の焦点距離と一致するように調整することが可能となる。 第 1周壁部(122)の外周面には、目盛或いはマークが付されて 、る(図 8 (b)に示 す例では、目盛線並びに数字が示されている)。 目盛或いはマークは、所定のァダプ タ軸長距離を指し示す。
例えば、図 8 (b)に示される目盛線「1」に第 2周壁部(123)の下縁を合わせれば、 眼底部に焦点を合わせることが可能となり、目盛線「3」に第 2周壁部(123)の下縁を 合わせれば、虹彩部分に焦点を合わせることが可能となる。
尚、図 8に示す例においては、第 1周壁部(122)の外周面に形成されたおねじ部( 図示せず)と第 2周壁部(123)の内周面に形成されためねじ部(図示せず)の螺合に よって、第 1周壁部(122)と第 2周壁部(123)とを接続したが、本発明はこれに限ら れるものではない。例えば、第 2周壁部(123)に溝部を形成し、第 1周壁部(122)内 周面に、第 2周壁部(123)に形成された溝部に嵌入する凸部を設け、第 1周壁部(1 22)をアダプタ(1)軸方向に摺動可能とする形態を採用することも可能である。
図 9は、アダプタ(1)の変更形態を示す。図 9 (a)は、アダプタ(1)内部に凸レンズを 配した例を示し、図 9 (b)は、アダプタ(1)内部にフィルタを配した例を示す。
図 9 (a)に示す如ぐアダプタ(1)内部に凸レンズ(13)を配することにより、撮像作 業により得られる像は、拡大されることとなる。したがって、このようなアダプタ(1)を用 いることで、毛穴などの非常に微細な領域を撮像することが可能となる。尚、所望に 応じて凹レンズを配してもょ 、。
図 9 (b)は、特定波長の光のみを透過させるフィルタ(14)を配した例である。例え ば、所望の撮像対象領域に紫外線照射塗料を塗布し、図 9 (b)に示すアダプタ(1) を用いて撮像することで、塗布領域の像を明瞭に得られることとなる。
尚、アダプタ(1)内に凸レンズ(13) (或いは凹レンズ)とフィルタ(14)を同時に配し てもよい。
このようにアダプタ(1)内部にレンズ(13)を配することで、被写体と撮像装置(2)が 備える撮像用レンズとの距離が短くとも(例えば、 3cm以下の距離)、好適な画像デ ータを得ることが可能である。 [0038] 図 10は、アダプタ(1)の他の形態の使用状態を示す。図 10に示すアダプタ(1)は 、図 8及び図 9に示すアダプタ(1)を組み合わせた形態である。尚、図 10に示す例に おいて、内部構造を示すためアダプタ(1)は一部が切除されている。
図 10に示すアダプタ(1)は、第 1周壁部(122)と第 2周壁部(123)を備える。第 1 周壁部(122)と第 2周壁部(123)それぞれに形成されたねじ部によって、第 1周壁 部(122)と第 2周壁部(123)とは接続し、アダプタ(1)の軸長が可変とされる。
[0039] 第 1周壁部(122)は、第 2周壁部と接続する略円筒形状に形成されたアジヤスタ(9 1)と、アジヤスタ(91)に対して回転可能に接続する略円筒形状の接続部(92)と、接 続部(92)基端部に形成されたねじ部と接続するとともに撮像装置(2) (図 10には示 されて 、な 、)のレンズ (21)周辺の筐体(22)外面に設置される一端有底筒状の接 地部(93)カゝら構成される。
[0040] 接地部 (93)と撮像装置 (2)との間の接続形態は、撮像装置 (2)の形態に応じて適 宜定めればよぐ図 1に関連して説明した滑り止め層(113)、図 5に関連して説明し た爪部(116)、図 6に関連して説明した湾曲形状の底面部(11)或いはその他の形 状を採用可能である。
尚、図 10に示す例においては、撮像装置(2)との接地のために、接地部(93)の底 面に滑り止め層(113)が配されている。
接地部(93)は、上記において説明したアダプタ(1)の底面部(11)と略同様の構 成であり、開口部(111)並びに採光窓(112)を備える。接地部(93)の内周面には ねじ部が形成され、このねじ部は、接続部(92)の基端部に形成されたねじ部と螺合 する。
接地部(93)は、撮像装置 (2)と滑り止め層(113)或いは他の手段を介して接続す るので、後述する軸長調整動作にかかわらず、撮像装置 (2)に対して固定される。
[0041] 接続部(92)の先端部外周面には、断面矩形状の環状溝 (921)が形成される。ま た、アジヤスタ(91)の基端部外周面には、断面矩形状の環状溝 (911)が形成される 。接続部(92)の環状溝 (921)とアジヤスタ(91)の環状溝 (911)は互いに嚙合 、、 接続部(92)とアジヤスタ(91)とが接続される。
軸長調整動作時にアジヤスタ(91)は、回転動作をすることとなるが、環状溝 (911, 921)は、その間、互いに摺動動作をするため、接続部(92)はアジヤスタ(91)の回 転動作にかかわらず、回転することがない。
[0042] アジヤスタ(91)の環状溝(911)力もアジヤスタ(91)の先端までの間の部分は、 2重 壁構造となっており、内側壁(912)と外側壁(913)から構成される。外側壁(913)の 内径は、内側壁(912)外径よりも大きく形成され、外側壁(913)は内側壁(912)の 外側を覆う。そして、内側壁 (912)外周面と外側壁 (913)の間には、環状の空間(9 14)が形成される。
内側壁(912)の外周面には、ねじ部が形成される。また、外側壁(913)の外周面 には、グリッドが形成される。
[0043] 第 2周壁部(123)は、使用者の皮膚面と接触する筒状の接触部 (94)と、接触部 (9 4)とアジヤスタ(91)との間に配される円筒状の保持部(95)力もなる。
接触部(94)は、透明榭脂製であり、図 1に関連して説明した周壁部(12)と略同様 の形態である。
保持部(95)先端部には、レンズ(13)が配される。保持部(95)先端部内周面には 、環状溝部 (951)が形成され、レンズ (13)は環状溝部 (951)と嵌合し、保持部 (95) 内部で固定される。尚、レンズは、第 1周壁部(122)内部に配されてもよい。
保持部 (95)の先端部には、保持部 (95)半径方向外側に向けて突出する環状の 突出部(952)が形成される。また、環状突出部(952)から先端方向に向けて突出す る環状の嵌合突出部(953)が形成される。嵌合突出部(953)は、接触部(94)基端 部と嵌合する。突出部(952)の先端側の面は、接触部(94)の基端縁と当接し、保持 部(95)に対する接触部(94)の軸方向位置を定める。
[0044] 保持部(95)の基端部は、アジヤスタ(91)に形成された環状空間(914)内に挿入 される。保持部(95)の環状溝部(951)から保持部(95)基端部にかけての保持部( 95)の内周面領域にはねじ部が形成される。保持部(95)内周面のねじ部は、アジャ スタ(91)の内側壁(912)外周面に形成されたねじ部と螺合する。
保持部(95)外周面に形成された環状突出部(952)の基端側の面は、保持部(95 )内周面のねじ部先端側端部よりも基端側に位置する。これにより、保持部(95)内周 面のねじ部とアジヤスタ(91)の内側壁(912)外周面に形成されたねじ部が最大量 螺合したときでも、アジヤスタ(91)の内側壁(912)の先端がレンズ(13)に衝突しな い。
[0045] 使用者は、撮像装置(2)に対して使用者側に向けて力を加えることで、アダプタ(1 )は、使用者の顔前で固定される。この状態で、使用者がアジヤスタ(91)を回転させ ると、アダプタ(1)の軸長が変化する。上記において説明したアダプタ(1)の構造に より、アジヤスタ(91)の回転動作にかかわらず、使用者に対する接触部(94)の位置 並びに撮像装置(2)に対する接地部(93)の位置は変化しな 、。
したがって、アダプタ(1)を使用者の顔前で固定した状態で、アダプタ(1)の軸長を 変化させることが可能である。
また、このような分割構造をアダプタ(1)に採用することで、撮像装置 (2)の種類に 応じて接地部(93)のみを交換することが可能となる。或いは、撮像箇所に応じて接 触部(94)のみを交換することが可能となる。
[0046] 上述のように、アダプタ(1)に対して様々な形態を採用可能であるが、眼を撮像対 照とする場合においては、アダプタ(1)の周壁部(12)は、可撓性且つ弾性復元性の ある材料 (例えば、ゴム材料など)力も形成されることが好ましい。このような材料で形 成されるアダプタ(12)を用いる場合、眼にアダプタ(1)を当接させる直前に、ァダプ タ(1)の上縁周面に力を加えて、若干アダプタ(1)の開口面積を低減させる。この状 態でアダプタ(1)の上縁を眼周囲の皮膚表面に当接させ、アダプタ(1)の底部に撮 像装置(2)を固定する。アダプタ(1)の上端開口部は、周壁部(12)の弾性復元力に よって拡がろうとし、結果として、撮像最中にまぶたが眼を覆うことを妨げることが可能 となる。
[0047] 図 11は、撮像装置(2)より得られた静止画像データのフローを示す。
撮像装置(2)は、記憶部(201)、送信部(202)及び受信部(203)を備える。撮像 装置(2)により得られた静止画像のデータは、撮像装置(2)が備える記憶部(201) 内に格納される。送信部(202)は、記憶部(201)から静止画像データを読み出し、 医療従事者側へ静止画像データを送信する。
医療従事者側には、受信装置 (301)と送信装置 (302)が配される。
尚、ここで医療従事者側が備える受信装置 (301)及び送信装置 (302)は医療従 事者側が備えるサーバであってもよい。またこのサーバが自動的に送信部(202)か ら送られた画像データを画像診断する市販の画像診断ソフトを備えるものであっても よい。
[0048] 医療従事者側の受信装置(301)は、送信部(202)から送信された画像データを 受信する。そして、受信装置(301)が受け取った画像データに基づいて、医療従事 者側で画像診断が行われる。
画像診断の結果が出ると、医療従事者側の送信装置 (302)を用いて、使用者の撮 像装置 (2)が備える受信部(203)に診断結果が送られる。
このようにして、使用者は病院へ出向くことなく簡便に画像診断を受けることが可能 となる。
[0049] 上記例にぉ ヽて、撮像装置(2)により撮像される画像は、静止画像であつたが、撮 像装置(2)が動画データを取得可能であるならば、動画データを利用して、画像診 断用データを得てもよい。
動画データを利用することで、撮像時の撮像対象の動きにかかわらず、画像診断 に好適な質の画像データを得ることが可能となる。例えば、撮像対象が眼である場合 、上述のようにアダプタ(1)を用いて、撮像装置(2)の固定をすることは可能であるが 、眼球の動きを止めることはできない。このような場合に後述する手法は有効である。
[0050] 図 12は、撮像装置(2)を用いて得られる動画データ (41)のイメージ図である。動 画データ (41)は、複数の静止画像データ (42)が時系列に配列されて構成される。 図 13は、撮像装置(2)より得られた動画データのフローを示す。
図 13に示す例において、撮像装置(2)は、記憶部(201)、送信部(202)、受信部 (203)及び演算処理部(204)を備える。
[0051] 撮像装置(2)の動画撮影機能により得られた動画データ (41)は、記憶部(201)に 格納される。記憶部(201)は、動画データ (41)を記憶可能であるならば特に限定さ れない。例えば、撮像装置 (2)が撮像機能付携帯電話、撮像機能付スマートフォン、 撮像機能付パームデバイス或いは通信機能付デジタルビデオであるならば、これら 装置に内蔵されたデータ記憶メモリが記憶部(201)として用いられてもよ!/、。或!、は これら装置に外付で搭載される外部メモリが記憶部(201)として用いられてもよい。 [0052] 演算処理部(204)は、まず記憶部(201)に格納された動画データ (41)を読み取 る。
記憶部(3)が、撮像機能付スマートフォン、撮像機能付パームデバイス或いは通信 機能付デジタルビデオに内蔵された記憶部(201)或いは外付で取付けられた記憶 部(201)であるならば、撮像機能付スマートフォン、撮像機能付パームデバイス或い は通信機能付デジタルビデオに内蔵される CPUが演算処理部(204)として用いら れる。
[0053] 図 14は、演算処理部(204)が行う主な工程のフローチャートである。
演算処理部(204)は、読み取り工程、画像処理工程、第 1保存工程、比較工程及 び第 2保存工程を行う。
読み取り工程において、演算処理部(204)は、記憶部(201)から動画データ (41) を構成する複数の静止画像データ (42)のうち 1つを読み取る。そして、画像処理ェ 程において、読み取られた静止画像データ (42)に対して画像処理を行う。
[0054] 画像処理工程において、静止画像中から画像に現れた診断対象の輪郭が抽出さ れる。
この輪郭抽出には、既知の輪郭抽出法が適宜適用可能であり、或いは市販の画像 処理ソフトウェアに設けられる輪郭抽出フィルタを用いて行うことも可能である。更に は市販の画像処理ソフトウェアが備える輪郭抽出フィルタと同様の原理で構築された プログラムを演算処理部(204)に組み込むことも可能である。
尚、一次微分を用いた輪郭抽出法について、簡便に説明すれば、まず、隣接する 画素の明度の差分をとる。そして、この差分が極大となる画素間の境界に隣接する画 素が輪郭として認識され、抽出される。
一次微分を用いた輪郭抽出法以外にも、二次微分を用いた方法、 Prewittの方法、 Hilditchの方法などを用いてもよ!、。
[0055] 尚、輪郭抽出に当たって、焦点距離の不適合に対するクライテリアを設けてもよい。
例えば、隣接する画素の明度の差分の極大値が所定の閾値を超えない場合には、 焦点距離が不適合なものとして、画像処理工程を中断させてもよい。そして、撮像装 置(2)が備えるディスプレイに焦点距離が適当ではないことを表示させてもよい。 [0056] 図 15は、上述の如くして輪郭抽出された静止画像を示す。図 15 (a)は、記憶部(2 01)に格納される輪郭抽出化された基準静止画像データ (43)を示し、図 15 (b)は、 上述の如ぐ演算処理部(204)が、撮像装置(2)により得られた動画データから取り 出された 1つの静止画像データ (42)に対して、輪郭抽出法を施して、輪郭を抽出し た後の静止画像データ (44)を示す。図 15に示す例において、格子状に区切られた 領域が静止画像データ (43, 44)の画素を表し、説明のため画素に対して、 X—Y方 向に番号が付され、座標化されている。
[0057] 演算処理部(204)は、静止画像データ (42)に対して画像処理を施し、輪郭が抽 出された処理後静止画像データ (44)を得た後、記憶部(201)から基準静止画像デ ータ (43)を読み出す。記憶部(201)に格納される基準静止画像データ (43)は、他 のサーノから適宜記憶部(201)内にダウンロードされるものであることが好ましい。こ れにより、定期的或いは必要に応じて最新の基準静止画像データ (43)に更新可能 となるからである。
この基準静止画像データ (43)は、画像診断を行うに当たって、好適な画像品質を 備える画像である。尚、記憶部(201)に予め格納されている基準静止画像データ (4 3)は、予め輪郭抽出された後の画像データであってもよいし、輪郭抽出されていな い状態の生の画像データであってもよい。尚、生の画像データが記憶部(201)に格 納されている場合には、演算処理部(204)は、基準静止画像データ (43)を読み込 んだ後に、上記と同様の手法で、基準静止画像データ (43)に対して、輪郭抽出処 理を行う。
[0058] その後、演算処理部(204)は、処理後静止画像データ (44)にお 、て、輪郭として 認識されている画素の座標を割り出すとともに、基準静止画像データ (43)において 輪郭として認識されて ヽる画素の座標を割り出す。割り出された両画像データ (43, 44)の座標が一致すれば、静止画像データ (43, 44)の特徴量が一致すると判断し 、座標が一致しなければ特徴量が一致しな 、と判断する。
図 15に示す例を用いて、具体的に詳述すれば、座標(1, 8)は、両画像 (43, 44) においてはともに輪郭として認識された座標である。このとき演算処理部(204)は、 両画像 (43, 44)の特徴量が一致すると判断する。一方、座標 (4, 13)は、基準静止 画像データ (43)においては、輪郭を示す画素であるのに対して、処理後静止画像 データ (44)にお 、ては輪郭を示す画素として認識されて ヽな 、。このとき演算処理 部(204)は、両画像 (43, 44)の特徴量が一致しな 、と判断する。
このようにして、演算処理部(204)は、基準静止画像データ (43)の輪郭を構成す る画素に対して、処理後静止画像データ (44)がどのくらいの割合で、基準静止画像 データ (43)の輪郭を構成する画素の座標と一致する座標にお!ヽて、輪郭と認識さ れた画素を有するかを算出する。この割合が、画像データの特徴量の一致度とされ る。
[0059] 図 16は、座標補正の一例を示す図である。図 16 (a)は、基準静止画像データ (43 )を示し、図 16 (b)は、補正前の処理後静止画像データ (44)であり、図 16 (c)は、補 正後の処理後静止画像データ (45)を示す。
画像データの特徴量の一致度を算出する前に、処理後静止画像データに座標補 正を施してもよい。
基準静止画像データ (43)には、予め中心座標が定められている。図 16 (a)に示す 例においては、座標(11, 7)の位置に「X」の符号が付され、この座標が中心座標で ある。本実施例において、中心座標は、最外郭をなす孤立閉曲線、即ちアイライン( 目の縁)がなす輪郭線内領域の重心位置として定義される。
[0060] 演算処理部(204)は、輪郭抽出処理が施された処理後静止画像データ (44)の最 外郭をなす輪郭線が形成する孤立閉曲線を見出す。そして、この孤立閉曲線で囲ま れた領域の重心座標を算出する。
図 16 (b)において、算出された重心座標は、座標(18, 10)であり、この座標には「 X」の符号が付されている。
そして、この算出された重心座標を、基準静止画像データ (43)の中心座標に一致 させるように座標変換し、処理後静止画像データ (44)中の画像を移動させる(図 16 ( c)参照)。このようにして、高い特徴量の一致度を得やすくなる。
[0061] 図 17は、様々な基準静止画像データ (43)の例を示す。
上記例において、 1つの基準静止画像データ (43)を用いて、処理後静止画像デ ータ (44)との一致度を算出する例を示したが、複数の基準静止画像データ (43)を 記憶部(201)に格納してもよい。
この場合、演算処理部(204)は、比較工程を行う前に、動画データ (41)を構成す る静止画像データ (42)のうち複数の静止画像データ (42) (例えば、 3乃至 5の静止 画像データ (42) )を選択し、輪郭抽出処理を行い、選択された複数の静止画像デー タ (42)の処理後静止画像データ (44)を得る。
そして、演算処理部(204)は、この処理後静止画像データ (44)中の最外郭をなす 輪郭線が形成する孤立閉曲線を見出す。加えて、演算処理部(204)は、記憶部(2 01)に格納された複数の基準静止画像データ (43)の最外郭をなす輪郭線が形成 する孤立閉曲線を見出す。そして、図 15に関連して示した画像データの特徴量の一 致度の算出と同様の手法を用いて、画像データ中の孤立閉曲線に対する特徴量の 一致度を算出する。そして、算出された特徴量の一致度が最も高い基準静止画像デ ータ (43)が、その後の比較工程に用いられる。
このようにすれば、様々な目の形状に対して、対応可能となる。
[0062] 上記例において、静止画像はビットマップデータであり、ビットマップデータ同士の 比較で特徴量の一致度を算出してきた力 このビットマップデータをベクトルィ匕して、 ベクトルィ匕された画像データを用いて特徴量の一致度を算出してもよ ヽ。
図 18は、ビットマップデータのベクトル化手法の一例を示し、図 18に示すベクトル 化手法はフリーマンのチェーンコード(Freeman's Chain Code)である。尚、本発明に おいては、フリーマンのチェーンコードに限られず、ベクトルコンバージョン、ラスター ベクトル変換或いはオートトレースと呼ばれるベクトル化手法のうち適当なものを適宜 採用可能である。
[0063] 演算処理部(204)は、輪郭抽出された処理後静止画像データ (44)の輪郭上の任 意の座標に処理開始点(S)を設定する。そして、処理後静止画像データ (44)の輪 郭を追跡する。この追跡過程において、輪郭に沿ったベクトルを作成する(図 18左図 参照)。この作成されたベクトルの方向により、処理後静止画像データ (44)の輪郭の 窪み部或いは突出部の有無をフリーマンのチェーンコードにより定められる規則によ り識別し、この窪み部或いは突出部に対して直線ベクトルで補完し、窪み部や突出 部のない滑らかな輪郭曲線に沿った連続したベクトル配列を得ることが出来る(図 18 右図参照)。
[0064] 図 19は、上述の如くして、ベクトル化された画像データを用いた比較工程を示す。
図 19 (a)は、ベクトル化された基準静止画像データ (43)を表し、図 19 (b)は撮像 装置(2)力も得られた動画データ (41)の静止画像データ (42)に、輪郭抽出処理を 行って、処理後静止画像データ (44)を得た後、この処理後静止画像データ (44)に 対して更にベクトル化処理を行って得られたベクトル処理後静止画像データ (47)で ある。また、図 19 (c)は、図 19 (b)の画像データに対して拡大処理を施した後の画像 データを示す。尚、ベクトル化された画像データを用いる場合、ベクトル化された基準 静止画像データ (43)が予め記憶部(201)内に格納されている。或いは、生の基準 画像データ (43)を格納しておき、この基準画像データ (43)に同様の処理を施し、比 較対照される基準画像データ (43)を得てもよ!ヽ。
[0065] 一般に、撮像装置(2)により得られる画像中の診断対象となる部分の大きさは、撮 像装置 (2)のレンズと被写体の距離や、撮像装置 (2)が備えるズーム機能に依存す る。したがって、例えば、撮像装置 (2)と目との距離が長くなれば、図 19 (b)に示す如 く、目の画像は画像領域に対して小さな領域に現れることとなる。し力しながら、上述 の如くベクトル化処理を施すことで、画像の拡大縮小処理を簡便に行うことができる。 したがって、拡大縮小処理を得られた静止画像データ (47)に施すことにより、静止 画像データ (47)を基準静止画像データ (43)と略同じ大きさとすることができる。そし て、輪郭線に沿って配されるベクトルが通過する画素座標が一致する力否かを基準 画像データ (43)とベクトル化処理後静止画像データ (47)とを比較することにより行 V、、ベクトル通過座標が一致する割合を特徴量の一致度とすることができる。
[0066] 図 20は、他の画像処理方法を用いて、特徴量の一致度を算出する方法を示す。
図 20 (a)乃至図 20 (e)は、画像処理の各処理段階を示す。
上記において、輪郭抽出法により抽出された輪郭線を画像の特徴量として、基準 静止画像データ (43)と撮像して得られた静止画像データ (42)とを比較してきたが、 輪郭線を画像の特徴量としな 、画像処理方法によっても、本発明は実施可能である
[0067] 図 20 (a)は撮像装置(2)カゝら得られた動画データ (41)を構成する静止画像データ (42)のうちの 1つである。この画像データ (42)を構成する各画素について、明度の 閾値を設け、画像データを二値化する。
図 20 (b)は二値ィ匕処理後の画像データ(44)である。二値ィ匕処理によって、画像デ ータ (42)は黒目の部分とその他の部分に分けられる。
図 20 (c)に示す如ぐ二値化された画像データ (44)の黒目を示す画像領域にお いて、左右の境界部分に対して、上述したベクトルィ匕手法を用いて、境界輪郭をべク トル化する。これにより、比較的滑らかな曲線輪郭を形成する。このようにして、左右 一対のベクトル曲線 (C1)が作成される。
図 20 (d)に示す如ぐ左右一対のベクトル曲線 (C1)の上端部同士並びに下端部 同士を接続するように、これらベクトル曲線 (C1)の端部間に曲線補完を行う。これに より、ベクトル曲線 (C1)の端部間に上下一対の補完曲線 (C2)が作成される。
尚、本実施例において、この補完曲線 (C2)はベクトル曲線 (C1)の平均的な曲率 半径に基づ ヽて作成されて ヽるが、他の補完手法を用いてもょ ヽ。
この段階で、一対のベクトル曲線 (C1)と一対の補完曲線 (C2)で構成される孤立 閉曲線 (C)を得ることができる。
演算処理部(204)は、この孤立閉曲線 (C)の平均半径に基づき、真円(CA)を作 成する。そして、真円(CA)と孤立閉曲線 (C)とのずれを算出する。この算出された ずれを特徴量の一致度として評価し、ずれが大きければ、一致度が小さいと判断し、 ずれ力 、さければ一致度が高いと判断する。
図 20に示す画像処理手法を用いれば、基準となる画像データ (43)を記憶部(201 )に格納する必要はない。
尚、上記において、二値ィ匕処理を行った力 各画素の明度に対して、複数の閾値 を設け、 3以上の領域を用いて、眼球の色素部分を識別する処理を行ってもよい。こ のような画素の明度によって画像領域を定義することによって、様々な目の色に対し て対応可能である。例えば、青色や赤色の目に対応するためには、各画素の明度の 閾値を黒い目に対するものより低く設定すれば、図 20で示すような二値ィ匕を簡便に 行うことが可能である。
上述の如ぐ演算処理部(204)は、画像処理工程において、輪郭抽出処理や二値 化処理を行った後、第 1保存工程で、処理後の静止画像データ (44)を記憶部(201 )に格納する。そして、演算処理部(204)は、比較工程で、記憶部(201)に格納され た処理後の静止画像データ (44)を記憶部(201)から読み出し、処理後の静止画像 データ (44)を基準画像データ (43)と比較し、特徴量の一致度を算出する。或いは、 処理後の静止画像データ (44)と真円とのずれを算出し、特徴量の一致度を算出す る。
演算処理部(204)は、第 2保存工程で、この算出された一致度が最も高い処理後 静止画像 (44)の元となった静止画像データ (42)を動画データ (41)力 取り出し、 記憶部(201)に取り出された静止画像データ (42)を格納する。ここで、最も高い一 致度が、一致度に対して設けられた所定の閾値よりも低い場合には、再度、撮像装 置(2)で動画が撮像されることとなる。
[0069] 上記例にお 、て、演算処理部(204)は、一致度が最も高!、処理後静止画像デー タ(44)の元となった静止画像データ (42)を動画データ (41)力 取り出したが、一致 度が高!ヽ処理後静止画像データ (44)を複数選択して、選択された画像を合成処理 してちよい。
図 21に示すように、画像診断を行うために、画像データが基準画像データ (43)に 対して、 60%以上の一致度を有することが必要であったとする。これに対して、得ら れた静止画像データ (42)の基準画像データ (43)に対する一致度が、高い方からそ れぞれ 57%、 56%及び 54%であったとする。このとき、演算処理部(204)が、 3つ の静止画像データ (42)を合成し、 1つの合成静止画像データ (46)を作成する。 演算処理部(204)は、合成静止画像データ (46)を作成した後、合成静止画像デ ータ (46)に対して、再度上記の画像処理を施すとともに、基準画像データ (43)に対 する一致度を算出する。そして、演算処理部(204)は、算出された一致度が閾値を 超えて 、る力否かを確認し、閾値を超えて 、れば合成静止画像データ (46)を記憶 部(201)に格納する。
[0070] 尚、所定枚数の静止画像データ (42)を合成処理することにより増カロさせることが可 能な基準画像データ (43)に対する一致度が既知のものであるならば、所定の閾値 を超えるような一致度の平均値となるような所定枚数の静止画像データを選択するも のであってもよい。
上記の例を用いて、具体的に説明する。まず、合成画像処理により増加する一致 度が最低 5%以上であるものとする。そして、一致度の平均値に対する閾値が 55% に設定されて ヽるものとし、画像合成処理されるべき静止画像データ (42)の枚数が 3枚であったとする。また、このとき、 57%及び 56%の一致度を有する静止画像デー タ (42)が既に得られて 、るものとする。
そして、新たに得られた静止画像データ (42)の一致度が 54%であるとき、既に得 られた静止画像データ (42)と新たに得られた静止画像データ (42)の基準静止画像 データ (43)に対する一致度の平均値は、 55. 7%となる。この一致度の算出に基づ き、一致度が 54%である静止画像データ (42)は、合成処理されるべき静止画像デ ータ (42)として選択される。
[0071] 上記のような一致度の平均値を用いた処理は、撮像装置 (2)と別体に設けられた 演算処理装置を用いるときに好適である。
図 22は、撮像装置 (2)と別体に設けられた演算処理装置を用いて上記一致度の 平均値を用いた処理を行う際のデータフローを示す。
図 22に示す例において、使用者側には撮像装置 (2)と演算処理装置 (5)が用意さ れる。演算処理装置(5)としては、市販されるパーソナルコンピュータが適宜使用可 能である。
[0072] 撮像装置(2)は、記憶部(201)、演算処理部(204)、送信部(202)及び受信部(2 03)を備える。
演算処理装置(5)は、受信部(501)、記憶部(502)、画像処理ソフトウェア(503) 及び送信部(504)を備える。
撮像装置 (2)の送信部(202)と演算処理装置 (5)の受信部(501)は、ワイヤで通 信可能に接続される。或いは、ブルートゥース(Blue Tooth)やワイフアイ (WiFi)を用 いて、撮像装置 (2)の送信部(202)と演算処理装置 (5)の受信部(501)が、無線式 に接続される。
[0073] 上記処理例において、所定の閾値を超える一致度を有する静止画像データ (42) 力 撮像装置 (2)の演算処理部(204)により選択される。選択された静止画像デー タ (42)は、撮像装置 (2)の送信部(202)を介して、演算処理装置 (5)の受信部(50
1)へ送られ、演算処理装置(501)の記憶部(502)に格納される。
演算処理装置(5)が備える画像処理ソフトウェア(503)は、記憶部(502)に格納さ れた静止画像データ (42)を読み出し、合成画像を作成する。作成された合成画像 は送信部(504)により、医療従事者側に配された受信装置(301)へ送られる。そし て医療従事者は、受信装置 (301)が受け取った画像データを基に、画像診断を行う 。その後、医療従事者は、送信装置 (302)を用いて、使用者側の撮像装置 (2)の受 信部(203)或 、は演算処理装置(5)の受信部(501)へ診断結果を送信する。
このような手法によれば、撮像装置 (2)の演算処理部(204)の計算処理能力が低 くとも、合成画像を利用した画像サンプリングを行うことが可能となる。
[0074] 再び、図 13及び図 14を参照する。送信部(202)は、第 2保存工程で演算処理部( 204)により選択的に保存された静止画像データ (42)或いは合成静止画像データ( 46)を読み出し、医療従事者側が備える受信装置 (301)へ、これら画像データ (42, 46)を送信する。
医療従事者は、受信装置(301)が受け取った画像データ (42, 46)に基づき画像 診断を行う。そして、医療従事者は、診断結果を医療従事者側が備える送信装置 (3
02)を用いて、画像データ (42, 46)を送信した使用者側の撮像装置(2)の受信部( 203)へ送信する。
このようにして、使用者は病院へ出向くことなく簡便に画像診断を受けることが可能 となる。
[0075] 図 23は、撮像装置(2)により得られた動画データのフローの他の形態を示す。
図 13に示す例と略同様に、図 23に示す撮像装置(2)は、演算処理部(204)、記 憶部(201)、送信部(202)及び受信部(203)を備える。更に、撮像装置(2)は、動 作部(205)を備える。動作部(205)は、振動部、音声発生部或いは発光部を備え、 演算処理部(204)から動作部(205)へ信号が送られると、振動、音声或いは発光を それぞれ行う。
また、図 13に示す例と同様に、医療従事者側には、受信装置 (301)と送信装置 (3 02)が備えられる。 使用者は、撮像装置 (2)を用いて、画像診断を受けたい身体部位の動画を撮影す る。
[0076] 図 24は、演算処理部(204)が撮像装置(2)から受信する動画データ (41)を示す 撮像装置(2)から演算処理部(204)へ送られる動画データ (41)は複数枚の静止 画像データ (42)からなり、静止画像データ (42)が、動画データ (41)開始時点から 順次演算処理部(204)へ送られる。演算処理部(204)は撮像装置 (2)からの静止 画像データ (42)それぞれに対して、順々に画像処理を行い、基準画像データ (43) との特徴量の一致度を算出する。尚、画像処理は、上記の輪郭抽出法、ベクトルィ匕 或いはニ値ィ匕が適宜適用可能である。また、特徴量の一致度の算出も上記と同様の 方法が採用可能である。
[0077] 図 24に示すように、例えば特徴量の一致度に対して 60%の閾値を設定する。
そして、上述の如ぐ演算処理部(204)が特徴量の一致度を撮像装置 (2)から送ら れた動画データ (41)を構成する静止画像データ (42)それぞれに対して行!ヽ、それ ぞれの静止画像データ (42)の基準静止画像データ (43)に対する特徴量の一致度 を算出する。
ここで、図 24に示す如ぐ動画データ (41)開始時点の静止画像データ (42)から 2 051番目の静止画像データ (42)までの間、特徴量の一致度に対して設けられた閾 値を、算出された特徴量の一致度が超えなカゝつたとする。そして、 2052番目の静止 画像データ (42)に対して算出された特徴量の一致度が初めて設定された閾値を超 えたとする。
[0078] 演算処理部(204)力 2052番目の静止画像データ (42)を処理し、特徴量の一致 度が設定された閾値を超えたと判断すると、演算処理部(204)は、画像処理動作並 びに特徴量の一致度の算出動作を停止し、 2052番目の静止画像データ (42)を記 憶部(201)に格納する。これと同時に、演算処理部(204)は、動作部(205)に信号 を送る。
[0079] 動作部(205)は、演算処理部(204)から送られた信号に基づ!/、て、振動部、音声 発生部或いは発光部を作動させ、撮像装置 (2)を振動させ、撮像装置 (2)から音を 発し或いは発光させる。このようにして、撮像装置(2)が、撮像装置(2)の使用者に 視覚的、触覚的或いは聴覚的刺激を与えると、使用者は、この刺激に応じて撮像作 業を停止する。
[0080] 図 24に示す例の応用として、演算処理装置 (4)が所定閾値を超える特徴量の一致 度を有する静止画像データ (42)を複数枚記憶部(201)に格納することも可能であ る。
例えば、特徴量の一致度に対して、 55%の閾値を設定し、記憶部(201)に格納す べき静止画像データ (42)の枚数を設定する。そして、演算処理部(204)が撮像装 置(2)から送られた静止画像データ (42)を処理し、それぞれに対して特徴量の一致 度を算出する。
図 24において、 55%を超える特徴量の一致度を備える静止画像データ (42)は、 2 500番目、 2502番目及び 2504番目の静止画像データ (42)である。した力 て、演 算処理部 (204)は、 2500番目、 2502番目及び 2504番目の静止画像データ (42) を記憶部(201)へ格納する。
[0081] 演算処理部(204)は、その後、記憶部(201)に格納された 2500番目、 2502番目 及び 2504番目の静止画像データ (42)を読み出し、これら静止画像データ (42)を 合成し、 1つの合成静止画像データ (46)を作成し、この合成静止画像データ (46)を 記憶部(201)に格納する。そして、演算処理部(204)は、その後の画像処理や一致 度の算出を停止する。そして、演算処理部(204)は動作部(205)へ信号を送り、動 作部(205)は演算処理部(204)から送られた信号に応じて、撮像装置 (2)を動作さ せ、使用者に視覚的、触覚的或いは聴覚的刺激を与える。
[0082] 送信部(202)は、第 2保存工程で演算処理部(204)により選択的に保存された静 止画像データ (42)或 ヽは合成静止画像データ (46)を読み出し、医療従事者側が 備える受信装置(301)へ、これら画像データ (42, 46)を送信する。
医療従事者は、受信装置 (401)が受け取った画像データ (42, 46)に基づき画像 診断を行う。そして、医療従事者は、診断結果を医療従事者側が備える送信装置 (3 02)を用いて、画像データ (42, 46)を送信した使用者側の撮像装置(2)が備える受 信部(203)へ送信する。 尚、ここで医療従事者側が備える受信装置 (301)及び送信装置 (302)は医療従 事者側が備えるサーバであってもよい。またこのサーバが自動的に送信部(202)か ら送られた画像データ (42, 46)を画像診断する市販の画像診断ソフトを備えるもの であってもよい。
図 23及び図 24に示す実施形態においては、更に、使用者の撮像作業を省力化で きるという利点を奏する。
[0083] 図 25は、図 23及び図 24に示す実施例の撮像装置(2)を用いた画像データ処理 の一例を示すフローチャートである。
図 25に示す例において、特徴量の一致度に対して 2つの閾値を設定する。 1つは 、第 1の閾値であり、画像診断に使用可能である画像の質を備えているカゝ否かを判 断するための指標として用いられる。他のもう 1つは、第 2の閾値であり、第 1の閾値よ りも低い値で設定され、上記画像合成処理によって、特徴量の一致度を上げることに より、画像診断に使用可能となり得る画像であるカゝ否かを判断するために設定される 。また、この第 2の閾値に対して、画像合成処理に必要な静止画像データ (42)の枚 数が設定されている。
[0084] 上述の如ぐ撮像装置 (2)を用いて撮像作業が開始されると、動画データ (41)が 演算処理部(204)へ送られ、演算処理部(204)は動画データ (41)を構成する静止 画像データ (42)に対して画像処理を施す。
一の画像データ (42)が処理され、特徴量の一致度が算出されると、算出された特 徴量の一致度が第 1の閾値と比較される。算出された特徴量の一致度が第 1の閾値 よりも高い場合、この画像データが記憶部(201)に送信用画像として保存される。
[0085] 算出された特徴量の一致度が第 1の閾値よりも低い場合、算出された特徴量の一 致度は第 2の閾値と比較される。算出された特徴量の一致度が第 2の閾値よりも低い 場合、次の画像に対して処理を行う。算出された特徴量の一致度が第 2の閾値よりも 高い場合、この画像は記憶部(201)に格納され、第 2の閾値に対しての比較により 格納された画像枚数としてカウントされる。そして次の画像データ (42)に対して処理 が行われる。
[0086] 尚、演算処理部(204)が上述の如く一致量の平均値を算出するものであってもよ い。そして、第 2の閾値が一致量の平均値に対して設定されるものであってもよい。こ のようにして、演算処理部(204)に力かる処理負荷を軽減することができる。
[0087] このようにして、続く画像データ (42)の算出された特徴量の一致度が第 1の閾値を 超えることなぐ第 2の閾値を超え、所定枚数の画像データ (42)が第 2の閾値との比 較を介して記憶部(201)に格納されると、格納された画像データ (42)が合成処理さ れる。そして合成処理して得られた画像データ (46)に対して、特徴量の一致度が算 出され、この算出された特徴量の一致度が第 1の閾値と比較され、この算出された一 致度が第 1の閾値を超える値である場合、合成画像データ (46)が送信用画像として 記憶部(201)に格納される。算出された一致度が第 1の閾値を超えない値である場 合、次の画像データ (42)に対して処理が続行される。
以上のようにして、効率よく必要な画像データ (42)が取得される。
[0088] 図 26は、撮像装置 (2)の一例を示す図であり、図 26に示す撮像装置 (2)は携帯電 話である。
撮像装置(2)が備える表示画面 (D)上には、撮像される部位を示す表示が現れる 。使用者は、表示画面 (D)を見ながら、示される撮像部位を選択する。この選択に応 じて、撮像装置 (2)内に組み込まれたアプリケーションが、撮像装置 (2)の撮像機能 の焦点距離設定を変更させる形態を採用することが可能である。
[0089] 上記説明にお 、て、ハードウェア的なアプローチ(アダプタ形状など)及びソフトゥェ ァ的なアプローチ (画像処理など)それぞれにつ ヽて、良質な画像データを得るため の方式を説明してきたが、これらアプローチを融合させて、良質な画像データを得て ちょい。
図 27は、ハードウェア的なアプローチ及びソフトウェア的なアプローチを組み合わ せて良質な画像データを得るためのアダプタ(1)を示す。
図 27に示すアダプタ(1)は、使用者の眼 (E)と撮像装置(2)の間で固定されて 、る 。図 27のアダプタ(1)は、図 8に関連して説明したアダプタ(1)の形態を採用している 力 上記説明した他の形態も適宜採用可能である。以下の説明において、特徴的な 部分のみを説明するが、該特徴的な部分は、他のアダプタの形態についても適宜採 用可能である。 [0090] アダプタ(1)は、図 8に関連して説明したアダプタ(1)と同様に、第 1周壁部(122) と第 2周壁部(123)を備える。
第 2周壁部(123)内部には、第 1リング (81)と第 2リング (82)が配される。第 1リン グ(81)及び第 2リング(82)はその中央に開口部を備え、この開口部は、アダプタ(1 )の底面に形成される開口部(111)と同心である。また、第 1リング (81)及び第 2リン グ (82)の外周面は第 2周壁部(123)と接続する。
第 1リング (81)の内径は、使用者の眼 (E)の虹彩の径より小さくなるように定められ る。
第 1リング (81)の内縁 (811)は、第 1リング (81)その他の領域と異なる色彩を備え る。第 1リング (81)の内縁 (811)の色彩は、使用者に視認可能な色彩であり、且つ、 撮像装置(2)による画像解析によって識別可能な色彩であるならば、特に限定され るものではない。尚、図 27に示す例においては、内縁 (811)は赤色である。
[0091] 第 2リング (82)は、第 1リング (81)と使用者の眼 (E)との間に配される。第 2リング( 82)の内径は、第 1リング(81)の内縁 (811)力 使用者の眼の虹彩外縁に向けて延 設する台形円柱領域(図 27中、点線で示される領域)と第 2リング (82)内周面が接 触するように定められる。
[0092] 第 2周壁部(123)の内周面は、 3つの領域に分けられる。 1つは、撮像装置(2)と第 1リング (81)との間に配される第 1領域 (83)であり、他の 1つは、第 1リング(81)と第 2リング (82)の間の第 2領域 (84)であり、他のもう 1つは、第 2リング (82)と使用者の 眼 (E)との間の第 3領域 (85)である。
第 3領域 (85)の先端部分は、光透過性材料力 形成される採光領域 (851)であり 、採光領域 (851)から光がアダプタ(1)内部に進入し、使用者は、第 1リング (81)の 内縁 (811)の色彩を視認可能となる。
尚、採光領域 (851)を除いて、アダプタ(1)の内壁面は、虹彩と略等しい色彩を施 され、図 27に示す例においては黒色である。
[0093] 第 2領域 (84)には、採光領域 (851)から侵入した光の反射を防止するための反射 防止層が形成される。尚、第 2領域 (84)以外にも反射防止層を設けてもよい。例え ば、第 1リング (81)及び第 2リング (82)そのものを反射防止層で覆ってもよいし、或 いは第 1リング (81)からレンズ用開口部(111)までの領域全体を反射防止層で覆つ てもよいし、或いは、採光領域 (851)を除く第 3領域 (85)に反射防止層を設けてもよ い。また、第 2リング (82)の内径寸法は、上述の如く定められるので、採光領域 (851 )から侵入した光のうち第 2領域 (84)へ向かう光成分の多くを遮断する。
したがって、得られる画像データが採光領域 (851)から侵入した光によって劣化す ることが防止される。
[0094] 図 28は、図 27に示す実施例により得られる画像データに対する演算処理部(204 )の認識を示す。尚、撮像装置 (2)は、図 23に関連して説明したように、撮像装置 (2 )から送られた画像データを直接受け取る演算処理部(204)を備える。また、図 27に 示す例にお 、て、撮像装置(2)は演算処理部(204)へ動画データ (41)を送り込ん でいる。
[0095] 図 28 (a)に示す如ぐ演算処理部(204)は、演算処理部(204)が認識する動画デ ータ (41)の画像領域(700)中に正方形状の処理領域(701)を定義する。処理領域 (701)内部には、第 1リング(81)の内縁 (811)の像が現れ、その内方に使用者の眼 (E)の虹彩が現れる。虹彩の周囲には白眼部分が現れ、図 28に示す例においては 、白 、帯状領域が白眼部分である。
[0096] 演算処理部(204)は、動画データ (41)中、第 1リング (81)の内縁 (811)に施され た色彩を識別する。そして、演算処理部(204)は、処理領域(701)内において、色 彩により識別された内縁 (811)の形状が実際の第 1リング (81)の内縁 (811)の形状 と等しいか否かを判断する。図 28に示す例において、内縁 (811)の形状は円形であ る。
演算処理部(204)により処理領域(701)内部の第 1リング (81)の内縁 (811)の像 が円形であると判断された場合には、演算処理部(204)は、撮像装置(2)のズーム 機能を調整する信号を送り、撮像装置 (2)のズーム機能は、処理領域 (701)内で第 1リング (81)の内縁 (811)により囲まれる画像領域が最大となるように画像の拡大動 作を行う。
これにより、詳細な虹彩の画像データを取得可能である。
[0097] 尚、第 1リング (81)の内縁 (811)により囲まれる画像領域が、定義された処理領域 (701)からはみ出て 、る場合には、演算処理部(204)により処理領域(701)内部の 第 1リング (81)の内縁 (811)の像が円形であると判断されなり。このとき、演算処理 部(204)は、ズームダウンの信号を撮像装置(2)のズーム機能部に送り、内縁 (811 )の像を処理領域(701)に収める。その後、処理領域(701)内で、内縁 (811)により 囲まれる画像領域が最大となるように、ズーム機能部に信号を送る。
[0098] その後、撮像作業が行われる。撮像装置により取得される画像データは静止画像 データであってもよぐ動画データであってもよい。動画データである場合には、上記 の処理を同様に行ってもょ 、。
産業上の利用可能性
[0099] 本発明は、画像診断用の画像データ'サンプリングに好適に適用される。
図面の簡単な説明
[0100] [図 1]本発明の画像診断用データ ·サンプリング ·デバイスに用いられるアダプタを示 す図である。
[図 2]本発明の画像診断用データ'サンプリング 'デバイスに用いられる撮像装置を示 す図である。
[図 3]本発明の画像診断用データ'サンプリング 'デバイスの使用形態の一例を示す 図である。
[図 4]本発明の画像診断用データ'サンプリング 'デバイスの使用形態の一例を示す 図である。
[図 5]本発明の画像診断用データ'サンプリング 'デバイスの他の実施例を示す図で ある。
[図 6]本発明の画像診断用データ'サンプリング 'デバイスの他の実施例を示す図で ある。
[図 7]本発明の画像診断用データ ·サンプリング ·デバイスに用いられるアダプタの他 の実施形態を示す図である。
[図 8]本発明の画像診断用データ ·サンプリング ·デバイスに用いられるアダプタの他 の実施例を示す図である。
[図 9]本発明の画像診断用データ ·サンプリング ·デバイスに用いられるアダプタの他 の実施例を示す図である。
[図 10]本発明の画像診断用データ ·サンプリング ·デバイスに用いられるアダプタの 他の実施例の使用形態を示す図である。
[図 11]本発明の画像診断用データ ·サンプリング 'デバイス内の画像データのフロー の一例を示す図である。
[図 12]動画データの構成図である。
[図 13]本発明の画像診断用データ'サンプリング 'デバイス内の画像データのフロー の一例を示す図である。
[図 14]本発明の画像診断用データ ·サンプリング ·デバイスに用 ヽられる画像データ 処理の一例を示すフローチャートである。
[図 15]本発明の画像診断用データ ·サンプリング ·デバイスに用いられる画像データ 処理の一例を示す図である。
[図 16]本発明の画像診断用データ ·サンプリング ·デバイスに用いられる画像データ 処理の一例を示す図である。
[図 17]本発明の画像診断用データ ·サンプリング ·デバイスに用 ヽられる画像データ 処理の一例を示す図である。
[図 18]本発明の画像診断用データ ·サンプリング ·デバイスに用いられる画像データ 処理に用いられるベクトルィ匕手法の一例を示す図である。
[図 19]本発明の画像診断用データ ·サンプリング ·デバイスに用いられる画像データ 処理の一例を示す図である。
[図 20]本発明の画像診断用データ ·サンプリング ·デバイスに用いられる画像データ 処理の一例を示す図である。
[図 21]本発明の画像診断用データ ·サンプリング ·デバイスに用いられる画像データ 処理の一例を示す図である。
[図 22]本発明の画像診断用データ'サンプリング 'デバイス内の画像データのフロー の一例を示す図である。
[図 23]本発明の画像診断用データ'サンプリング 'デバイス内の画像データのフロー の一例を示す図である。 [図 24]本発明の画像診断用データ'サンプリング 'デバイスに用いられる画像データ 処理の一例を示す図である。
[図 25]本発明の画像診断用データ ·サンプリング ·デバイスに用いられる画像データ 処理の一例を示すフローチャートである。
[図 26]本発明の画像診断用データ'サンプリング 'デバイスに用いられる撮像装置の 一例を示す図である。
[図 27]本発明の画像診断用データ'サンプリング 'デバイスの使用形態を示す図であ る。
[図 28]図 27に示す画像診断用データ'サンプリング 'デバイスの演算処理部により認 識される画像データを示す図である。
符号の説明
1 アダプタ
10· · ··画像診断用データ'サンプリング'デバイス
11····底面部
111···開口部
112···採光窓
113···滑り止め層
116···爪部
12····周壁部
121···縁部
122'',第1周壁部
123···第 2周壁部
2 ·····撮像装置
201···記憶部
202···送信部
203···受信部
204···演算処理部
21 レンズ 22···,筐体
23····撮像用光源 24''.'第1部分 25····第 2部分 26····ヒンジ部 301···受信装置 302···送信装置

Claims

請求の範囲
[1] 所望の診断箇所の動画を撮像可能な携帯型撮像装置と、
該撮像装置の撮像用レンズ上に取付けられる略一端有底筒形状のアダプタ力 な り、
該アダプタの底面部は、前記撮像用レンズを取り囲むとともに該撮像用レンズを支 持する前記撮像装置筐体外壁部分に当接し、
前記アダプタの開口端を取り囲む縁部は、前記診断箇所周囲の皮膚表面と当接し 前記アダプタ底面部には、前記撮像装置のレンズの径より大きな径の開口部が形 成されることを特徴とする画像診断用データ ·サンプリング ·デバイス。
[2] 前記撮像用レンズ周囲の前記撮像装置筐体外壁が平坦に形成され、
前記アダプタの底面部が平坦に形成され、
該底面部の前記撮像装置筐体外壁と当接する面に、滑り止め層が設けられること を特徴とする特許請求の範囲第 1項記載の画像診断用データ'サンプリング'デバイ ス。
[3] 前記撮像用レンズ周囲の前記撮像装置筐体外壁が平坦に形成され、
前記アダプタの底面部が平坦に形成され、
前記アダプタ力 前記アダプタの底面部周縁から延設するとともに前記撮像装置筐 体を外嵌する爪部を更に備えることを特徴とする特許請求の範囲第 1項記載の画像 診断用データ ·サンプリング ·デバイス。
[4] 前記撮像装置が、第 1部分と第 2部分を備え、
前記第 1部分と前記第 2部分が略円柱形状のヒンジ部を介して互いに回動可能に 接続し、
前記撮像用レンズが該ヒンジ部周面に配され、
前記アダプタ部底面部が前記ヒンジ部を外嵌することを特徴とする特許請求の範 囲第 1項記載の画像診断用データ'サンプリング 'デバイス。
[5] 前記撮像装置が、撮像用光源を備え、
前記アダプタ底面部が更に、採光窓を備え、 前記撮像用光源力 の光が、前記採光窓を介して、前記アダプタ内を通過可能で あることを特徴とする特許請求の範囲第 1項記載の画像診断用データ'サンプリング' デバイス。
[6] 前記アダプタ周壁部が、光を透過させな!/、ことを特徴とする特許請求の範囲第 1項 記載の画像診断用データ ·サンプリング ·デバイス。
[7] 前記アダプタ周壁部が、該アダプタ内部に進入する光の量を変更可能であることを 特徴とする特許請求の範囲第 1項記載の画像診断用データ'サンプリング 'デバイス
[8] 前記アダプタの周壁部が、前記アダプタ底面部力 延出する第 1周壁部と、前記ァ ダプタ縁部から延出する第 2周壁部力 なり、
前記第 2周壁部が、前記第 1周壁部に対して、アダプタ軸方向に移動可能であるこ とを特徴とする特許請求の範囲第 1項記載の画像診断用データ'サンプリング 'デバ イス。
[9] 前記撮像装置が、
該撮像装置から得られた動画データを格納する記憶部と、
該記憶部に格納された前記動画データを構成する複数枚の静止画像データのうち 1つを選択し、該選択された静止画像データを前記記憶部に送信用画像として格納 する演算処理部と、
前記送信用画像を医療従事者側へ送信する送信部を更に備えることを特徴とする 特許請求の範囲第 1項記載の画像診断用データ ·サンプリング ·デバイス。
[10] 前記撮像装置が、
該撮像装置から得られた動画データを格納する記憶部と、
該記憶部に格納された前記動画データを構成する複数枚の静止画像データのうち 所定数の前記静止画像データを選択し、該選択された静止画像データを合成処理 して、該合成処理により得られた 1つの合成処理静止画像データを前記記憶部に送 信用画像として格納する演算処理部と、
前記送信用画像を医療従事者側へ送信する送信部を更に備えることを特徴とする 特許請求の範囲第 1項記載の画像診断用データ ·サンプリング ·デバイス。
[11] 前記撮像装置が、
該撮像装置から送られた動画データを受け取るとともに該動画データを構成する複 数枚の静止画像データのうち 1つを選択する演算処理部と、
前記演算処理部により選択された静止画像データを送信画像として記憶する記憶 部と、
前記送信用画像を医療従事者側へ送信する送信部を更に備えることを特徴とする 特許請求の範囲第 1項記載の画像診断用データ ·サンプリング ·デバイス。
[12] 前記撮像装置が、
該撮像装置から送られた動画データを受け取るとともに該動画データを構成する複 数枚の静止画像データのうち所定数の前記静止画像データを選択し、該選択された 静止画像データを合成処理して、該合成処理により得られた 1つの合成処理静止画 像データを作成する演算処理部と、
該演算処理部により作成された画像データを送信用画像として格納する記憶部と、 前記送信用画像を医療従事者側へ送信する送信部を更に備えることを特徴とする 特許請求の範囲第 1項記載の画像診断用データ ·サンプリング ·デバイス。
[13] 前記医療従事者側で行われる診断結果を受信する受信部を備えることを特徴とす る特許請求の範囲第 9項乃至第 12項いずれかに記載の画像診断用データ'サンプ リング'デバイス。
[14] 前記演算処理部が前記送信用画像データを前記記憶部に格納すると、前記撮像 装置が、使用者に視覚的、聴覚的或いは触覚的刺激を与えることを特徴とする特許 請求の範囲第 9項乃至第 12項いずれかに記載の画像診断用データ'サンプリング' デバイス。
[15] 前記演算処理部による選択が、
前記動画データを構成する前記複数枚の静止画像データに画像処理を施す段階 と、
前記画像処理により得られた一の処理後静止画像データと前記記憶部に格納され た基準画像データの特徴量を比較して、該特徴量の一致度を算出する段階と、 前記算出された一致度を所定の閾値と比較し、前記一の処理後静止画像データの 元となった前記静止画像データを前記送信用画像として前記記憶部に格納するか 否かを判断する段階により実行されることを特徴とする特許請求の範囲第 9項乃至 1 2項 、ずれかに記載の画像診断用データ ·サンプリング 'デバイス。
[16] 前記画像処理が、輪郭抽出法により行われ、被写体の輪郭線が抽出され、
該輪郭線が前記特徴量として扱われることを特徴とする特許請求の範囲第 15項記 載の画像診断用データ ·サンプリング ·デバイス。
[17] 前記画像処理が、前記抽出された輪郭線をベクトル化する段階を備え、
前記ベクトル化された輪郭線が前記特徴量として扱われることを特徴とする特許請 求の範囲第 16項記載の画像診断用データ ·サンプリング ·デバイス。
[18] 前記診断箇所が眼であり、
前記演算処理部による選択が、
前記動画データを構成する前記複数枚の静止画像データに対して、該静止画像 データを構成する画素の明度の範囲に応じて領域分けを行い、眼球の色素部分を 識別する段階と、
前記眼球の色素部分とその他の部分の領域のうち左右の曲線輪郭をベクトルィ匕す る段階と、
該ベクトルィ匕して得られた左右一対の曲線端部同士を、該左右一対の曲線の平均 曲率半径に基づいて補完し、補完曲線を作成する段階と、
前記左右一対の曲線と補完曲線とで構成される孤立閉曲線と真円とのずれを算出 する段階と、
該ずれを所定の閾値と比較し、前記二値化された静止画像データの元となった前 記静止画像データを前記送信用画像として前記記憶部に格納するカゝ否かを判断す る段階により実行されることを特徴とする特許請求の範囲第 9項乃至第 12項いずれ かに記載の画像診断用データ ·サンプリング 'デバイス。
[19] 前記アダプタ内部に第 1リングが配され、該第 1リングは、内縁に使用者に視認可 能であるとともに該第 1リングの他の部分と異なる色彩が施され、
前記撮像装置がズーム機能を備え、
前記演算処理部は、 該演算処理部が認識する画像領域内に処理領域を定義する段階と、 前記内縁の色彩を識別し、前記処理領域内の内縁の像の形状が実際の内縁の形 状と等 U、か否かを判断する段階と、
該判断により、等しいと判断された場合に、前記演算処理部がズーム機能を動作さ せ、前記処理領域内で前記内縁により囲まれる像の領域を最大化させることを特徴と する特許請求の範囲第 11項又は第 12項記載の画像診断用データ'サンプリング' デバイス。
[20] 前記判断により、等しくないと判断された場合に、前記演算処理部がズーム機能を 動作させ、前記内縁により囲まれる像の領域を前記処理領域内に収めることを特徴と する特許請求の範囲第 19項記載の画像診断用データ ·サンプリング ·デバイス。
[21] 携帯型撮像装置に着脱自在に取付けられる略一端有底筒形状のアダプタであつ て、
該アダプタが、前記撮像用レンズを取り囲むとともに該撮像用レンズを支持する前 記撮像装置筐体外壁部分に接地する底面部と、
前記撮像装置が撮像する診断箇所周囲の皮膚表面と当接する縁部を備え、 前記アダプタの底面部には、前記撮像装置のレンズの径より大きな径の開口部が 形成されることを特徴とする撮像用アダプタ。
[22] 前記アダプタの底面部が平坦に形成され、
前記撮像装置に当接する前記アダプタの底面部の面上に滑り止め層が設けられる ことを特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[23] 前記アダプタの底面部が平坦に形成され、
前記アダプタの底面部周縁から前記撮像装置筐体を外嵌する爪部が延設すること を特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[24] 前記アダプタの底面部が前記アダプタ内部方向に屈曲する曲面形状をなし、 前記撮像装置の撮像用レンズが配される円柱状部材を前記アダプタ底面部が外 嵌することを特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[25] 前記アダプタ底面部が更に、採光窓を備え、
前記撮像用光源力 の光が、前記採光窓を介して、前記アダプタ内を通過可能で あることを特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[26] 前記アダプタ周壁部が、光を透過させな 、ことを特徴とする特許請求の範囲第 25 項記載の撮像用アダプタ。
[27] 前記アダプタ周壁部が、該アダプタ内部に進入する光の量を変更可能であることを 特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[28] 前記アダプタ周壁部が、光を透過させる部分と光を透過させない部分を備えること を特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[29] 前記アダプタの内壁面が、光を反射させないことを特徴とする特許請求の範囲第 2
1項記載の撮像用アダプタ。
[30] 前記アダプタの周壁部が、前記アダプタ底面部から延出する第 1周壁部と、前記ァ ダプタ縁部から延出する第 2周壁部力 なり、
前記第 2周壁部が、前記第 1周壁部に対して、アダプタ軸方向に移動可能であるこ とを特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[31] 前記第 1周壁部が筒状の接続部と、前記撮像装置に接地する接地部を備え、該接 地部が前記接続部に対して着脱自在であることを特徴とする特許請求の範囲第 30 項記載の撮像用アダプタ。
[32] 前記第 2周壁部が、撮像対象に先端が接触する筒状の接触部と、前記第 1周壁部 に接続する筒状の保持部を備え、前記接触部が前記保持部に対して着脱自在であ ることを特徴とする特許請求の範囲第 30項記載の撮像用アダプタ。
[33] 前記第 1周壁部が更に、前記接続部に接続する筒状のアジヤスタを備え、
前記接続部は、先端に環状溝を備え、
前記アジヤスタは基端に環状溝を備え、
前記接続部と前記アジヤスタの接続が、これらに形成された環状溝同士の嵌合によ り行われ、
前記アジヤスタは、先端部にねじ部を備え、該ねじ部が前記第 2周壁部に形成され るねじ部と螺合することを特徴とする特許請求の範囲第 31項記載の撮像用アダプタ
[34] 前記アダプタ内部に追加のレンズが配されることを特徴とする特許請求の範囲第 2 1項記載の撮像用アダプタ。
[35] 前記アダプタの周壁部が可撓性且つ弾性復元性を備える材料で構成されることを 特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[36] 前記アダプタ内部に第 1リングが配され、
前記アダプタ先端部は、光を透過可能な材料で形成され、
該第 1リング内縁に使用者に視認可能であるとともに該第 1リングの他の部分と異な る色彩が施されることを特徴とする特許請求の範囲第 21項記載の撮像用アダプタ。
[37] 前記第 1リングと前記アダプタの先端との間に第 2リングが配され、
該第 2リングは、前記第 1リングの内径よりも大きな内径を備えることを特徴とする特 許請求の範囲第 33項記載の撮像用アダプタ。
[38] 前記アダプタの内壁のうち、少なくとも前記第 1リングと前記第 2リングの間の領域が 光を反射させないことを特徴とする特許請求の範囲第 34項記載の撮像用アダプタ。
[39] 前記アダプタの内壁の色彩が使用者の虹彩の色彩と略等 、ことを特徴とする特 許請求の範囲第 21項記載の撮像用アダプタ。
PCT/JP2005/022805 2005-12-12 2005-12-12 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ WO2007069294A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007550028A JP4898704B2 (ja) 2005-12-12 2005-12-12 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ
PCT/JP2005/022805 WO2007069294A1 (ja) 2005-12-12 2005-12-12 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2005/022805 WO2007069294A1 (ja) 2005-12-12 2005-12-12 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ

Publications (1)

Publication Number Publication Date
WO2007069294A1 true WO2007069294A1 (ja) 2007-06-21

Family

ID=38162617

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/022805 WO2007069294A1 (ja) 2005-12-12 2005-12-12 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ

Country Status (2)

Country Link
JP (1) JP4898704B2 (ja)
WO (1) WO2007069294A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2442339A (en) * 2006-09-26 2008-04-02 Icheck Ltd H Ocular imaging apparatus for monitoring a bodily function
WO2009122114A1 (en) * 2008-03-31 2009-10-08 H-Icheck Limited Apparatus for monitoring a human or animal subject's bodily function
JP2016523122A (ja) * 2013-05-31 2016-08-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 移動式の前眼部及び後眼部検眼のためのモジュール式レンズアダプタ
JP2018500062A (ja) * 2014-11-07 2018-01-11 オハイオ・ステート・イノヴェーション・ファウンデーション アンビエント照明条件において眼についての判定を行うための方法及び装置
US10188294B2 (en) 2015-06-18 2019-01-29 Verana Health, Inc. Adapter for retinal imaging using a hand held computer
US10561315B2 (en) 2015-03-25 2020-02-18 The Board Of Trustees Of The Leland Stanford Junior University Modular adapters for mobile ophthalmoscopy
JP2021010426A (ja) * 2019-07-04 2021-02-04 株式会社MITAS Medical 検眼装置
US11372479B2 (en) 2014-11-10 2022-06-28 Irisvision, Inc. Multi-modal vision enhancement system
US11475547B2 (en) 2018-02-13 2022-10-18 Irisvision, Inc. Methods and apparatus for contrast sensitivity compensation
US11546527B2 (en) 2018-07-05 2023-01-03 Irisvision, Inc. Methods and apparatuses for compensating for retinitis pigmentosa
US11622682B2 (en) 2019-12-27 2023-04-11 Ohio State Innovation Foundation Methods and apparatus for making a determination about an eye using color temperature adjusted ambient lighting
US11969212B2 (en) 2019-12-27 2024-04-30 Ohio State Innovation Foundation Methods and apparatus for detecting a presence and severity of a cataract in ambient lighting

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101793380B1 (ko) * 2016-06-28 2017-11-02 동국대학교 산학협력단 안저 검사 효율을 향상시키는 렌즈 필터 어댑터

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07508911A (ja) * 1993-01-29 1995-10-05 サーントル、ナシヨナル・ドゥ・ラ・ルシェルシェ・シヤンティフィック 眼の動きを解析するための方法及び装置
JP2001258044A (ja) * 2000-03-14 2001-09-21 Matsushita Research Institute Tokyo Inc 医療用画像処理装置
JP2002297257A (ja) * 2001-03-30 2002-10-11 Mitsubishi Electric Corp 携帯端末およびこれに用いられる個人識別用モジュール
JP2003070742A (ja) * 2001-08-31 2003-03-11 Japan Science & Technology Corp 視線検出装置及び視線検出方法
JP2003219224A (ja) * 2002-01-24 2003-07-31 Jiyaruko:Kk 身体観察用美容器具
JP2003227725A (ja) * 2002-02-04 2003-08-15 Clarion Co Ltd 車載ナビゲーションシステム及びナビゲーション方法並びにナビゲーション用プログラム
JP2003274281A (ja) * 2003-02-03 2003-09-26 Canon Inc 撮像装置
JP2003315905A (ja) * 2002-04-25 2003-11-06 Scalar Corp ユニット
JP2004081387A (ja) * 2002-08-26 2004-03-18 Topcon Corp 携帯型眼科装置及び眼科システム
JP2004120727A (ja) * 2003-03-20 2004-04-15 Hitachi Ltd 携帯電話機
JP3101014U (ja) * 2003-10-15 2004-06-03 株式会社栄電社 交換レンズ装着用アダプタ
JP2004279733A (ja) * 2003-03-14 2004-10-07 Scalar Corp 拡大撮像用ユニット
JP2004341422A (ja) * 2003-05-19 2004-12-02 Hitachi Ltd 地図作成装置、地図配信方法及び地図作成プログラム
JP2004357040A (ja) * 2003-05-29 2004-12-16 Canon Inc 撮像制御装置
JP2005109648A (ja) * 2003-09-29 2005-04-21 Matsushita Electric Ind Co Ltd 撮像装置及び動画生成方法
JP2005192583A (ja) * 2003-12-26 2005-07-21 Koichi Nariyama 携帯端末用スコープユニット
JP2005192944A (ja) * 2004-01-09 2005-07-21 Keio Gijuku 色素沈着部位の遠隔診療システム
JP2005278134A (ja) * 2004-02-23 2005-10-06 Junichiro Kuze 携帯電話用の接写装置
JP2005323336A (ja) * 2004-04-05 2005-11-17 Casio Comput Co Ltd 動画撮影装置、動画撮影制御方法、及び、動画撮影制御プログラム
JP2005323188A (ja) * 2004-05-10 2005-11-17 Fuji Photo Film Co Ltd 携帯電話機

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0733470Y2 (ja) * 1990-02-05 1995-07-31 株式会社アップル電子 ケーブルイコライザー

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07508911A (ja) * 1993-01-29 1995-10-05 サーントル、ナシヨナル・ドゥ・ラ・ルシェルシェ・シヤンティフィック 眼の動きを解析するための方法及び装置
JP2001258044A (ja) * 2000-03-14 2001-09-21 Matsushita Research Institute Tokyo Inc 医療用画像処理装置
JP2002297257A (ja) * 2001-03-30 2002-10-11 Mitsubishi Electric Corp 携帯端末およびこれに用いられる個人識別用モジュール
JP2003070742A (ja) * 2001-08-31 2003-03-11 Japan Science & Technology Corp 視線検出装置及び視線検出方法
JP2003219224A (ja) * 2002-01-24 2003-07-31 Jiyaruko:Kk 身体観察用美容器具
JP2003227725A (ja) * 2002-02-04 2003-08-15 Clarion Co Ltd 車載ナビゲーションシステム及びナビゲーション方法並びにナビゲーション用プログラム
JP2003315905A (ja) * 2002-04-25 2003-11-06 Scalar Corp ユニット
JP2004081387A (ja) * 2002-08-26 2004-03-18 Topcon Corp 携帯型眼科装置及び眼科システム
JP2003274281A (ja) * 2003-02-03 2003-09-26 Canon Inc 撮像装置
JP2004279733A (ja) * 2003-03-14 2004-10-07 Scalar Corp 拡大撮像用ユニット
JP2004120727A (ja) * 2003-03-20 2004-04-15 Hitachi Ltd 携帯電話機
JP2004341422A (ja) * 2003-05-19 2004-12-02 Hitachi Ltd 地図作成装置、地図配信方法及び地図作成プログラム
JP2004357040A (ja) * 2003-05-29 2004-12-16 Canon Inc 撮像制御装置
JP2005109648A (ja) * 2003-09-29 2005-04-21 Matsushita Electric Ind Co Ltd 撮像装置及び動画生成方法
JP3101014U (ja) * 2003-10-15 2004-06-03 株式会社栄電社 交換レンズ装着用アダプタ
JP2005192583A (ja) * 2003-12-26 2005-07-21 Koichi Nariyama 携帯端末用スコープユニット
JP2005192944A (ja) * 2004-01-09 2005-07-21 Keio Gijuku 色素沈着部位の遠隔診療システム
JP2005278134A (ja) * 2004-02-23 2005-10-06 Junichiro Kuze 携帯電話用の接写装置
JP2005323336A (ja) * 2004-04-05 2005-11-17 Casio Comput Co Ltd 動画撮影装置、動画撮影制御方法、及び、動画撮影制御プログラム
JP2005323188A (ja) * 2004-05-10 2005-11-17 Fuji Photo Film Co Ltd 携帯電話機

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2442339A (en) * 2006-09-26 2008-04-02 Icheck Ltd H Ocular imaging apparatus for monitoring a bodily function
WO2009122114A1 (en) * 2008-03-31 2009-10-08 H-Icheck Limited Apparatus for monitoring a human or animal subject's bodily function
JP2016523122A (ja) * 2013-05-31 2016-08-08 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー 移動式の前眼部及び後眼部検眼のためのモジュール式レンズアダプタ
US10743761B2 (en) 2013-05-31 2020-08-18 The Board Of Trustees Of The Leland Stanford Junior Univeristy Modular lens adapters for mobile anterior and posterior segment ophthalmoscopy
US10092182B2 (en) 2013-05-31 2018-10-09 The Board Of Trustees Of The Leland Stanford Junior University Modular lens adapters for mobile anterior and posterior segment ophthalmoscopy
JP2021035545A (ja) * 2014-11-07 2021-03-04 オハイオ・ステート・イノヴェーション・ファウンデーション アンビエント照明条件において眼についての判定を行うための方法及び装置
JP2018500062A (ja) * 2014-11-07 2018-01-11 オハイオ・ステート・イノヴェーション・ファウンデーション アンビエント照明条件において眼についての判定を行うための方法及び装置
US11642017B2 (en) 2014-11-07 2023-05-09 Ohio State Innovation Foundation Methods and apparatus for making a determination about an eye in ambient lighting conditions
US10986991B2 (en) 2014-11-07 2021-04-27 Ohio State Innovation Foundation Methods and apparatus for making a determination about an eye in ambient lighting conditions
JP7179814B2 (ja) 2014-11-07 2022-11-29 オハイオ・ステート・イノヴェーション・ファウンデーション アンビエント照明条件において眼についての判定を行うためのコンピュータ実装方法及び装置
US11372479B2 (en) 2014-11-10 2022-06-28 Irisvision, Inc. Multi-modal vision enhancement system
US10561315B2 (en) 2015-03-25 2020-02-18 The Board Of Trustees Of The Leland Stanford Junior University Modular adapters for mobile ophthalmoscopy
US11484201B2 (en) 2015-03-25 2022-11-01 The Board Of Trustees Of The Leland Stanford Junior University Modular adapters for mobile ophthalmoscopy
US10188294B2 (en) 2015-06-18 2019-01-29 Verana Health, Inc. Adapter for retinal imaging using a hand held computer
US11475547B2 (en) 2018-02-13 2022-10-18 Irisvision, Inc. Methods and apparatus for contrast sensitivity compensation
US11546527B2 (en) 2018-07-05 2023-01-03 Irisvision, Inc. Methods and apparatuses for compensating for retinitis pigmentosa
JP2021010426A (ja) * 2019-07-04 2021-02-04 株式会社MITAS Medical 検眼装置
JP7374418B2 (ja) 2019-07-04 2023-11-07 株式会社MITAS Medical 検眼装置
US11622682B2 (en) 2019-12-27 2023-04-11 Ohio State Innovation Foundation Methods and apparatus for making a determination about an eye using color temperature adjusted ambient lighting
US11969212B2 (en) 2019-12-27 2024-04-30 Ohio State Innovation Foundation Methods and apparatus for detecting a presence and severity of a cataract in ambient lighting
US11969210B2 (en) 2019-12-27 2024-04-30 Ohio State Innovation Foundation Methods and apparatus for making a determination about an eye using color temperature adjusted lighting

Also Published As

Publication number Publication date
JPWO2007069294A1 (ja) 2009-05-21
JP4898704B2 (ja) 2012-03-21

Similar Documents

Publication Publication Date Title
WO2007069294A1 (ja) 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ
US20210169321A1 (en) Smartphone-based handheld ophthalmic examination devices
AU2019203346B2 (en) Optical detection of skin disease
US10129450B2 (en) System and method for ophthalmological imaging adapted to a mobile processing device
KR101094766B1 (ko) 시선 위치 추적 장치 및 방법
AU2017235943B2 (en) Fundus image capture system
US20170249509A1 (en) Adaptive camera and illuminator eyetracker
US11051716B2 (en) Method and apparatus for jaundice diagnosis based on an image
JP3673834B2 (ja) 眼球運動を用いた視線入力コミュニケーション方法
JP5651119B2 (ja) 眼の画像化装置及び方法
US10945637B2 (en) Image based jaundice diagnosing method and apparatus and image based jaundice diagnosis assisting apparatus
CN109074438A (zh) 与可见光复用的生物特征复合成像系统和方法
CN109471523A (zh) 使用眼球中心位置的眼睛追踪
CN106488738A (zh) 眼底成像系统
EP3416537A1 (en) Mobile device application for ocular misalignment measurement
US12014500B2 (en) Healthy-Selfie(TM): methods for remote medical imaging using a conventional smart phone or augmented reality eyewear
US20150320313A1 (en) Portable medical device and method for quantitative retinal image analysis through a smartphone
JP2021132869A (ja) 電子装置、電子装置の制御方法及び電子装置の制御プログラム
KR102267162B1 (ko) 인지 장애인을 위한 시선 추적 장치 및 방법
US11837029B2 (en) Biometric authentication device and biometric authentication method
CN113974546A (zh) 一种翼状胬肉检测方法和移动终端
WO2017113793A1 (zh) 一种在图像中确定手指所处区域的方法、装置及腕式设备
WO2014047712A1 (en) Imaging device of facial topography with multiple light source flash photography and method of blending same
JP2004021870A (ja) 視線入力機能付携帯電話
JP7182832B1 (ja) 円錐角膜及び乱視等の簡易診断補助装置及び診断補助システム

Legal Events

Date Code Title Description
DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007550028

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05814780

Country of ref document: EP

Kind code of ref document: A1