총 4 건
안녕하세요. 화인스텍입니다. 머신비전은 카메라, 렌즈, 조명, 소프트웨어, 프레임그래버 등으로 구성된 시스템으로, 사람이 눈으로 보고 판단하는 작업을 빠르고 정밀하게 수행합니다. 이전 게시물에서는 머신비전 시스템의 구성 요소와 각각의 역할 및 중요성에 대해 알아보았었는데요 오늘은 머신비전에서 자주 사용하는 용어들에 대해 알아보겠습니다. A부터Z까지, 화인스텍과 함께 머신비전 용어의 세계로 들어가 보시죠! AI [Artificial Intelligence, 인공지능] 인간의 지적 능력을 컴퓨터로 구현하는 과학 기술 상황을 인지하고 이성적·논리적으로 판단·행동하며, 감성적·창의적인 기능을 수행하는 능력까지 포함 Airy Disk and Resolving Power Airy Disk : 렌즈에서 얻을 수 있는 가장 작은 지점 Resolving Power : 서로 가까이 있는 두 지점을 분해하는 기기의 능력 * 수치가 없는 이상적인 렌즈라도 물체의 세부 사항을 재현할 수 없습니다. 회절은 가능한 해상도를 제한합니다. 스폿의 반경 r은 파장 λ(빛 파장)와 개구수 NA에 의해 주어집니다. r = 0.61λ / NA , r = 에어리 디스크의 반경 = 분해능 * 조명광의 파장이 길수록 스폿이 더 커집니다. Area Scan [에어리어 스캔] 이미지 센서가 2차원 배열로 이루어진 센서 고속 이미지 캡처와 정밀한 해상도 제공하며, 정지된 물체뿐만 아니라 움직이는 물체도 캡처할 수 있어 다양한 애플리케이션에 적합 렌즈를 통해 빛이 이미지 센서에 집중되고, 각 픽셀이 빛의 강도를 전기 신호로 변환한 후 디지털 데이터로 처리되는 원리 Bayer Sensor RGB 컬러 필터를 사각형의 광센서 그리드에 배열하기 위한 컬러 필터 어레이(CFA) 디지털카메라와 이미지 센서에서 널리 사용. 적은 수의 센서로 색상 이미지를 생성할 수 있어 효율적이고, 구조가 간단합니다. bayer Sensor의 작동 원리 1. 배열의 적용: 베이어 필터 배열은 전체 센서 그리드에 반복되어 적용 2. 빛의 감지: 각 픽셀은 RGB(빨강, 녹색, 파랑) 중 하나의 색상을 감지 3. 데이터 수집: 각 픽셀이 감지한 특정 색상의 빛 정보를 수집 4. 디모자이킹: 수집된 데이터를 통해 디모자이킹(demosaicing) 과정을 거쳐 전체 이미지의 색상을 재구성 * 디모자이킹(demosaicing)은 디지털 이미징에서 사용되는 과정으로, Bayer 필터 배열과 같은 컬러 필터 배열(CFA)을 사용하여 이미지를 촬영할 때 수집된 데이터를 완전한 컬러 이미지로 변환하는 것 출처 : Wikipedia® Binning [비닝] 이미지 센서의 여러 픽셀을 그룹으로 묶어 단일 픽셀처럼 처리하는 기술 여러 픽셀의 빛을 합쳐 감도를 향상시키고, 신호 대 잡음비(SNR)를 개선하며, 해상도를 낮춰 데이터 처리 속도를 증가 특히 저조도 환경과 실시간 처리가 필요한 머신 비전 애플리케이션에서 유용 일반적인 비닝 방법은 2x2 binning: 2x2 픽셀 그룹을 하나의 픽셀로 합칩니다. 해상도는 원래 해상도의 1/4로 감소 3x3 binning: 3x3 픽셀 그룹을 하나의 픽셀로 합칩니다. 해상도는 원래 해상도의 1/9로 감소 Blooming [블루밍] 이미지의 픽셀 집합이 밝은 점(태양, 빛, 레이저)에 의해 과포화 되어 해당 픽셀에 포함된 전하가 인접한 픽셀로 넘쳐 밝은 점이 방사형 패턴으로 "번지는" 현상 Camera mount 카메라 바디와 렌즈를 연결하는 장치 각 카메라 마운트는 다양한 사이즈의 쓰레드와 플랜지 백을 갖추고 있음 *FB : 센서에서 카메라 플랜지까지의 거리 *1 FB 사이즈는 카메라 제조업체에 따라 다양합니다. 정확한 영상 촬영을 위해서는 올바른 마운트 쓰레드와 FB의 확인이 필요합니다. Camera Link 산업 비디오 제품의 표준화를 위해 설계된 인터페이스 Camera Link 인터페이스는 AIA(Automated Imaging Association)에 의해 유지 및 관리되며, 높은 안전성으로 가장 널리 사용되고 있는 인터페이스 중 하나 데이터 전송 속도 * Base : 1,2,3 Tap (최대 255MB/s) * Medium/Full : 4,6,8 Tap (최대 680MB/s) * DECA : 10 Tap (850MB/s) CCD Sensor / CMOS Senseor CCD Sensor (Charge Coupled Device) 전자결합자 빛을 전하로 변환시켜 화상을 얻어내는 센서 높은 감도와 낮은 노이즈로 뛰어난 이미지 품질을 제공하며, 저조도 환경에서도 우수한 성능을 발휘 상대적으로 높은 전력 소비와 생산 비용, 느린 데이터 전송 속도로 인해 실시간 처리에는 제한 출력 구조상 포화한 빛 전송 시 스미어 현상이 발생. CMOS Sensor (Complementary Metal-Oxide-Semiconductor) 받아들인 빛을 전기신호로 변환하여 이미지를 생성하는 이미지 센서 낮은 전력 소비와 저비용 생산이 가능하며, 고속 데이터 처리로 실시간 영상 촬영에 유리 CCD에 비해 가격이 저렴하며, 감도가 낮고 노이즈가 높은 편. 각 픽셀 별 감도 차이가 있어 FPN(Fixed Pattern Nosie)이 발생. *스미어 현상 : 스미어 현상은 화상 왜곡의 하나로서, 화소의 수광부 이외로의 빛의 누설, 신호 전자의 불완전한 이동 등에 의해 화면의 밝은 부분에 상하로 밝은 선이 보이는 현상 CMM (Coordinate Measuring Machine) 프로브(Probe) 센서가 물체에 직접 닿아 측정하는 방식 정밀하고 신뢰성 있는 데이터를 얻을 수 있지만, 물체의 민감도에 따라 변형, 손상이 있을 수 있음. Confocal [공초점 기술] 이미지의 초점 깊이를 정밀하게 조절하여 고해상도 이미지를 생성하는 기술로 빛의 파장대 별로 초점이 다른 원리를 이용하여, 물체 표면에 따라 높이 데이터를 취득하는 방식. 물체의 표면 높이뿐만 아니라 불투명 재질의 경우 두께 측정도 가능 Contrast [명암 대비] 이미지에서 어두운 부분과 밝은 부분 사이 차이 높은 대비는 밝은 부분과 어두운 부분 사이의 차이가 크다는 것을 의미하며, 낮은 대비는 그 차이가 작다는 것을 의미 <명암 대비의 양 차이> 출처 : Wikipedia® Chromatic Aberration [색수차] 빛의 파장에 따라 상이 맺히는 위치가 어긋나 색이 번져서 상이 흐려지는 현상 일반적으로 단일 렌즈는 모두 색수차가 있으므로, 광학기계에 사용되는 렌즈는 단일 렌즈를 몇 개 결합하여 각각의 용도에 따라 색수차를 감소 출처 : Wikipedia® CXP (CoaXPress) JIIA에서 제정한 표준 고속 이미지 전송을 위한 인터페이스 길이가 긴 케이블을 사용할 수 있음. 초고속 라인 스캔 카메라의 트리거링에 적합하며 신호 지연이 아주 짧음. * JIIA : Japan Industrial Imaging Association 데이터 전송 속도 / 최대 길이 * CXP-1 : 1.25 Gb/s, 212m * CXP-2 : 2.5 Gb/s, 185m * CXP-3 : 3.125 Gb/s, 169m * CXP-5 : 5 Gb/s, 102m * CXP-6 : 6.25 Gb/s, 60m * CXP-10 : 10 Gb/s, 40m * CXP-12 : 12.5 Gb/s, 30m Distortion [왜곡] 렌즈의 중심과 외각의 굴절률 차이로 인해 이미지의 중심과 외곽 부분에 차이가 나는 현상 Distortion Deep Learning [딥러닝] 컴퓨터가 스스로 외부 데이터를 조합, 분석하여 학습하는 기술 딥러닝에 기반한 머신비전 시스템은 복잡한 패턴 인식과 정확한 데이터 분석을 가능하게 하며, 규칙 기반 시스템으로는 어려운 객체 검출, 이미지 분류, 세그멘테이션 등을 높은 정확도로 수행합니다. 이를 통해 자동화 공정의 효율성을 극대화하고, 새로운 응용 분야에서 혁신적인 솔루션을 제공합니다. Digital Camera [디지털 카메라] 광학 이미지를 전자 신호로 변환하여 디지털 형식으로 저장하고 처리하는 장치 CCD나 CMOS 센서를 사용하며, A/D 변환기를 통해 신호를 디지털화하여 노이즈를 최소화 높은 해상도의 이미지를 제공하며, 다양한 파일 형식(JPEG, RAW 등)으로 이미지를 저장할 수 있어 후처리가 용이합니다. Depth Of Field [DOF, 피사계 심도] 영상의 초점이 선명하게 맺혀지는 피사체 거리의 범위 * 초점 심도 : 촬상 측 (센서 측) 거리를 나타내는 파라미터 * 허용 착락원(or 허용 COC) : 허용되는 흐림의 정도 * 심도 : 영상 평면에 초점이 맞추어졌을 때 광선속의 최소 직경 DSP (Digital signal Processor) 디지털 신호를 기계장치가 빠르게 처리할 수 있도록 하는 집적회로 DSP는 아날로그 신호를 디지털로 바꿔 고속 처리해 주는 기능을 하기 때문에 복잡한 신호처리를 요구하는 멀티미디어 기기나 디지털 통신기기 등에 폭넓게 응용 Exposure Time 카메라 센서가 빛을 받아들이는 시간이며, 시간이 짧으면 어두운 이미지, 길면 밝은 이미지를 얻을 수 있음. F Number (F/#) 무한 이미징 렌즈의 밝기 초점 거리를 빛이 들어오는 영역의 직경으로 나눈 값으로, 값이 작을수록 이미지가 밝아짐. FireWire (IEEE 1394) PC 등에 주변 기기를 접속하기 위하여 사용하는 인터페이스 규격 중의 하나 IEEE는 단자 이름이 아니라 전기 전자 기술자 협회(Institute of Electrical and Electronics Engineers)의 약자 FireWire 인터페이스 카메라는 IEEE 1394 데이터 전송 기술로 이미지 데이터를 전송하는 방식. * IEEE1394는 IEEE에서 규정한 인터페이스 규격 전송 속도 * IEEE 1394a: 400Mb/s * IEEE 1394b: 800Mb/s Focal Length [초점거리] 렌즈의 중심에서 렌즈가 수집한 빛이 모여 초점을 형성하는 지점까지의 거리 * 렌즈의 광축과 이미지 센서(또는 필름) 사이의 거리로 표현 FOV (Field of View) 렌즈를 통해 이미지 센서에 들어온 시야 사이즈 즉, 렌즈를 통해서 사진기가 이미지를 담을 수 있는 각 넓은 시야각은 넓은 범위의 장면을 한 번에 포착할 수 있지만 해상도가 떨어질 수 있는 반면, 좁은 시야각은 세밀한 부분을 확대하여 더 높은 해상도로 촬영 가능 측정 방법 각도 단위로 측정된 시야각 수평 시야각 (Horizontal FOV): 카메라나 렌즈가 수평 방향으로 포착할 수 있는 장면의 각도 수직 시야각 (Vertical FOV): 카메라나 렌즈가 수직 방향으로 포착할 수 있는 장면의 각도 대각선 시야각 (Diagonal FOV): 카메라의 센서 또는 렌즈의 대각선 방향으로 포착할 수 있는 장면의 각도 거리 단위로 측정된 시야각 시야 폭 (Field of View Width): 특정 거리에서 카메라가 포착하는 장면의 폭 시야 높이 (Field of View Height): 특정 거리에서 카메라가 포착하는 장면의 높이 * 출처 : Wikipedia® * Opt Mag : 광학배율 (실제 물체 크기와 이미지 센서에 맺히는 물체 크기와의 비율) FPS (frame per second) 초당 찍히는 프레임의 수 FPS가 높을수록 부드러운 영상을 얻을 수 있음. Frame rate 단위 초당 화면을 바꾸는 횟수 횟수가 많을수록 화면의 흔들림을 적게 느낌. FFC (Flat Field Correction) 균일하지 않은 이미지를 균일한 이미지로 보정해 주는 기능 Gain [게인] 전자 기기의 출력과 입력의 레벨비 Gamma correction [감마 보정] 이미지의 밝기와 대비를 조정하여 사람이 더 잘 인식할 수 있도록 하는 과정 이미지의 픽셀 값에 감마 값(γ)을 사용하여 비선형적으로 적용 감마 값(γ)이 1보다 작으면 이미지가 밝아지고, 1보다 크면 어두워짐. * Vin 은 원본 픽셀 값(0과 1 사이)이며, Vout 은 보정된 픽셀 값 GigE Vision GigEVision 인터페이스는 기가 바트 이더넷 통신 프로토콜을 사용하여 개발된 카메라 인터페이스 표준 10GigE Vision -> 속도가 10배 빨라진 것 데이터 전송 속도 * GigE : 1Gb/s * 10GigE : 10Gb/s Infrared light [적외선] 태양이 방출하는 빛을 프리즘으로 분산시켜 보았을 때 적색 선의 끝보다 더 바깥쪽에 있는 전자기파 가시광선보다 파장이 길고 마이크로파보다는 파장이 짧음 * 파장의 길이에 따라 분류하면 파장 0.75∼3㎛의 적외선을 근적외선, 3∼25㎛의 것을 적외선, 25㎛ 이상의 것을 원적외선 Interlaced Scan [비월주사] TV Format에서 사용되며 이미지 데이터의 홀수, 짝수를 번갈아 가며 전송하는 방식 비월주사는 홀수 또는 짝수 필드를 60Hz로 전송하기 때문에 실제로 사람의 눈에는 인식되지 않음. * Field(필드) : 홀수만 또는 짝수만 구성되는 이미지, Frame(프레임) : 이미지 전체 Image Processing [이미지 처리] 카메라나 센서로부터 획득한 이미지를 분석하고, 유의미한 정보를 추출하는 과정 자동화된 시스템에서 사람의 개입 없이 정확하고 신뢰할 수 있는 데이터를 제공하여 효율성 향상 이를 통해 오류를 줄이고, 품질을 향상시키며, 비용 절감 가능 이미지 처리 단계 1. 이미지 획득 (Image Acquisition) : 카메라나 기타 센서를 통해 이미지를 수집 2. 이미지 전처리 (Image Preprocessing) : 수집된 이미지의 품질을 향상시키고, 분석에 적합하게 만드는 과정 3. 특징 추출 (Feature Extraction) : 이미지에서 중요한 정보를 뽑아내는 과정 4. 객체 인식 및 분석 (Object Recognition and Analysis) : 추출된 특징을 기반으로 객체를 인식하고 분류 5. 결과 해석 및 응용 (Interpretation and Application) : 분석된 정보를 해석하여 의사 결정 Light spectrum 사람이나 기기에 의해 "빛"으로 인식되는 전자기 스펙트럼 내의 파장 범위 Liquid Lens 액체의 물리적 특성을 이용하여 렌즈의 초점 거리를 조절하는 광학 기기 일반적인 렌즈는 유리 재질로 되어 있지만 Liquid Lens는 액체 소재로 되어 있으며, 전기적 신호를 받아 형태를 바꾸어 DOF를 극복하거나 초점 거리 변경 가능 * Zoom Lens의 경우 모터를 없애고 Liquid Lens와 결합해 간편하게 제어가 가능 <좌> Liquid Lens 구성도 <우> 구동 방식 LWD (Lighting Working Distance) 조명 끝 단부터 물체 표면까지의 거리 Mash 3D Point Cloud Data 점들을 연결하여 3D 표현으로 만드는 표현 방식 그물망처럼 점을 이어 표현하는 방식 Machine Learning [ML, 머신러닝] 머신 러닝은 경험적 데이터를 기반으로 학습을 하고 예측을 수행하고 스스로의 성능을 향상시키는 시스템과 이를 위한 알고리즘을 연구하고 구축하는 기술 MOD (Minimum Object Distance) 초점을 맞추기 위한 렌즈와 물체의 최소 거리 MTF (Modulation Transfer Function) 공간 주파수 및 명암비 측면에서 물체 표면의 음영 반복이 이미지 측면에서 어떻게 나타나는지를 표현하는 각 공간 주파수의 명암 특성 즉, MTF는 렌즈의 이미징 성능과 물체의 콘트라스트를 이미지로 얼마나 완벽하게 재현할 수 있는지 확인하는 기준 *콘트라스트 성능은 특정 공간 주파수와 동일한 간격의 흑백 테스트 패턴을 사용 Near infrared light [근적외선] 적외선 중에서 파장이 짧아서 가시광선에 가까운 영역 보통 780nm - 2500nm(2.5μm) 영역 Numerical Aperture [NA, 개구수] 렌즈가 빛을 어느 정도 받아들이는지의 척도 NA = n · sin θ * n은 특정 매개체에서 렌즈의 굴절률(공기: 1.0)을 의미, θ는 빛이 들어오는 반각을 의미 Optical Magnification [광학 배율] 실제 물체 크기와 이미지 센서에 맺히는 물체 크기와의 비율 OI (Object to Imager) 물체에서부터 카메라 센서까지의 거리 PCD (Point Cloud Data) 스캔 된 객체를 나타내는 3D 점 좌표의 집합 각 점은 X, Y, Z 좌표를 가지고 있으며, 점의 위치는 3D 공간에서의 정확한 위치 3D 공간을 세밀하게 표현할 수 있으며, 색상과 강도 등의 추가 정보를 포함해 점의 속성을 자세히 이해 가능 * 3D Processing에 사용 출처 : Wikipedia® Pixel [픽셀] 디지털 이미지에서 하나의 작은 사각형 또는 점으로, 이미지의 전체를 구성하는 기본 단위 (=화소) 각 픽셀은 특정 색상과 밝기 정보를 가지고 있으며, 이 정보가 모여 전체 이미지가 형성 출처 : Wikipedia® Pixel Size [픽셀 사이즈] 화소의 길이와 폭 일반적으로 픽셀의 가로와 세로의 물리적 길이를 밀리미터(mm) 또는 마이크로미터(µm) 단위로 측정 Pixel Resolution [픽셀 해상도] 하나의 픽셀 이미지에 담겨 있는 비트 수 Ex) 1920x1080 픽셀 해상도는 1920개의 수평 픽셀과 1080개의 수직 픽셀로 구성된 이미지를 의미 * Megapixel : 100만을 뜻하는 MEGA와 디지털 사진의 최소 단위인 화소(PIXEL)를 결합한 용어 ROI (=AOI) ROI는 센서의 일부 영역만 전송할 수 있는 기능 아래 이미지 같이 필요한 부분만 전송하기 때문에 이미지 전처리 효과 및 촬상 속도 향상 가능 * 여러 영역을 지정하여 전송하는 기능은 Multi ROI Shutter type Rolling Shutter 센서 구조가 간단해 합리적인 가격의 장점이 있으나 센서의 세로 방향으로 순차적으로 노출을 하게 되어 움직이는 물체에는 왜곡(젤로 현상)이 발생. 정지된 물체를 촬상 하는 것에 적합 Global Reset Rolling Shutter의 추가 옵션으로 Rolling Shutter 센서로 정지된 물체를 촬영할 수 있도록 설정을 하는 것이며, 이미지의 세로 방향으로 밝기 편차가 발생 가능 Global Shutter 센서 전체가 동시에 노출을 하게 되어 움직이는 물체를 왜곡 없이 촬상 가능 Shutter type Signal-to-noise ratio [SNR, 신호 대 잡음비] Singal(신호)와 Nosie(잡음)의 상관관계를 나타내며, 이미지 품질을 평가할 수 있는 요소 높은 SNR 값은 신호가 잡음에 비해 상대적으로 강하다는 것을 의미. 즉, 신호의 품질이 좋다는 것 * SNR은 보통 데시벨(dB) 단위로 표현 SNR 수식 Sensor size 디지털카메라나 이미지 센서에서 광학 이미지를 수집하는 센서의 물리적 크기를 의미 Sensor size 공식 Structured Light [구조광] 프로젝터와 같은 광원을 이용하여 물체에 패턴을 투영하는 방식 패턴을 미세하게 움직이며 여러 이미지를 취득해야 하므로, 대상 물체는 정지해 있어야 함. 물체 표면에 투영된 패턴을 분석해 3D 형상을 재구성 Type of Machine Vision Lenses ToF (Time of Flight) 빛을 내는 발광부와 빛을 감지하는 수광부가 한 쌍을 이루는 구조 물체에 반사된 빛이 되돌아오는 시간(또는 위상차)에 따라 거리를 유추하는 방식. USB 인터페이스 USB 2.0 산업용에서 사용되기 위해 지정된 특정 프로토콜이 없음. USB 3.0 / USB3 Vision USB 2.0과 마찬가지로 Plug & Play를 완벽히 지원 * USB 3.0에서 3.1로 확장, USB 기술이 발전하면서 AIA에서 이 인터페이스를 USB3 Vision 표준으로 정의 Vignetting [비네팅] 사진 및 광학에서 화상의 중심부에 비해 주변부로 갈수록 화상의 명도 또는 채도가 감소하는 현상 * 이미지 센서 크기와 맞지 않는 경우에도 발생 출처 : Wikipedia® WD (Working Distance) 렌즈 끝 단부터 물체 표면까지의 거리 Working F/# (W.F/#) 유한 이미징 렌즈의 밝기를 정의 * W.F / 과 F/#의 관계 머신비전 카메라 인터페이스의 종류와 특징 오늘은 머신 비전 기본 구성 요소에 이어 머신 비전과 관련된 약 50여 가지 용어에 대해 알아보았습니다. 이 포스팅을 통해 다양한 용어들을 이해하는 데 도움이 되셨기를 바랍니다. 앞으로도 계속해서 유용한 정보를 제공해 드릴 수 있도록 노력하겠습니다 :) 머신 비전에 대해 궁금한 점이나 추가로 알고 싶은 내용이 있다면, 언제든지 저희 화인스텍을 방문해 주세요.
2024.08.02텔레센트릭 렌즈의 DOF를 더 깊게 늘리는 방법 안녕하세요? 화인스텍 마케팅 팀 입니다. 머신비전 전문기업 화인스텍 블로그를 찾아주셔서 감사합니다. 신비전 렌즈중 텔레센트릭 렌즈는 왜곡을 거의 완벽하게 잡아주는 대신에 WD가 고정 되어있고 배율 또한 고정되어 있습니다. F no.도 대부분 고정되어 있죠 그렇기 때문에 DOF(Depth of Field)도 고정되어 있으며, 그것을 극복하기 위해서는 렌즈의 경이 커지거나 중간에 렌즈가 많이 들어가거나 렌즈가 길어져야 합니다. 하지만 간단한 기구 하나만으로 텔레센트릭 렌즈의 DOF를 더 깊게 늘리는 방법이 있습니다. 바로 Tilt Adaptor 입니다. DOF를 깊게 바꾸는 방법에 대해 알아보도록 하겠습니다. 일반적으로 렌즈는 <사진 1> 과 같이 수직으로 사용합니다. <사진 1> 90도 수직 이미지 90도에서 볼때 평면이기 때문에 DOF에는 문제가 없어 보이네요 하지만 70도로 기울이면 어떻게 될까요? <사진 2> 70도 기울어진 이미지 70도 기울어진 이미지에서 Tilt Adapter 를 끼워 카메라의 각도 조절을 할 수 있는데요. 기존에 심도에 영향이 있던 부분이 개선되면서 이미지와 같이 심도가 늘어납니다. <사진 3> 45도 기울어진 이미지 VS Technology에서 테스트 한 이미지 인데요. 45도 기울였을 때는 정말 한곳 빼고는 DOF를 벗어나 다 블러링이 일어나지만 Tilt Adapter를 끼운 다음에는 많이 개선이 되었습니다. 이러첨 큰 비용을 들이지 않고 작은 비용으로 심도(DOF)를 깊게 바꿀 수 있습니다. Tilt Adapter를 이용해 텔레센트릭 렌즈의 DOF를 더 깊게 늘리는 방법에 대해 알아 봤습니다. 감사합니다.
2022.05.20DOF (피사계심도, Depth Of Field) 안녕하세요 화인스텍 마케팅 팀 입니다. 머신비전 전문기업 화인스텍 블로그를 찾아주셔서 감사합니다. 오늘은 자주 접하는 DOF (피사계심도, Depth Of Field)에 대해 포스팅하겠습니다. 카메라 좋아하시는 분들은 다 아는 단어 하지만 은근히 잘 모르시는 분들 도 계시고 DOF (피사계심도, Depth Of Field)의 정확한 수치가 어떻게 되는지 잘 모르시는 분들 계시죠? 제가 쉽게 설명드리겠습니다. DOF (피사계심도, Depth Of Field)가 무엇인가? 렌즈의 심도는 머신비전 렌즈 사양서에서 정확히 알아야 하는 수치입니다. 쉽게 이야기하면 광축 상에 초점이 맞는 범위입니다. <그림 1> DOF 이해도 DOF(피사계심도)-Depth of field 계산식은 아래와 같습니다. DOF = 2(허용 COC * 실효 F)/(광학 배율)² = 허용 COC / (NA*광학 배율) 허용 COC는 아래 자료에서는 0.04mm에 맞춰 계산했습니다. <그림 2> VS-TCH3-60CO 사양서 2(0.04 x 20.5) / (3)² = 0.18222.... 0.2 mm인 걸 보니 반올림해서 표기했네요. 여기서 중요한 건 실제 0.2mm의 심도는 계산치 일뿐 눈으로 봤을 때 절대 사양서 상의 수치는 만족스럽지 못합니다. 그래서 업체에 제안하거나 스스로 만족하고 싶을 때는 허용 COC를 너 낮춰서 0.04mm -> 0.02mm로 계산합니다. 2(0.02 x 20.5) / (3)² = 0.09111.... VS-TCH3-65CO 렌즈의 실제로 타협할 수 있는 DOF (피사계심도, Depth Of Field)는 0.1mm 정도가 되겠네요. <그림 3> 착란원이란? 허용 COC (P.CoC, 허용착란원) 0.04mm의 의미는 임계초점면이 점이라고 한다면 점이 초점을 벗어나 0.04mm의 착란원이 될 때 까지를 인정해주는 것을 기준으로 잡았을 때의 심도 계산법입니다. 지금까지 DOF (피사계심도, Depth Of Field)에 대해 알아봤습니다.
2022.05.20기본 용어 정리 최소한 알아야 하는 용어 머신 비전의 용어 아주 기본 용어입니다. 고객이든 컴포넌트든 우리가 미팅을 하게 될 텐데요 처음 광학계 콘셉트를 잡을 때 나오는 단어들입니다. 이것 역시 그림으로 간단하게 알아보시죠 <그림 1> 광학계 기본용어 앞서 말씀드렸듯이 카메라 렌즈 조명 등 기본적인 것은 이미 알고 계실 겁니다. 그럼 위에 적혀있는 내용을 알아보죠. 용어 요약 설명 보충 설명 Space 카메라 외형 끝과 오브젝트 측 WD까지의 거리 광학계가 설치되는 공간 O/I 카메라 안의 이미지 센서와 물체 측 WD까지의 거리 센서와 센서가 보는 물체까지의 거리 WD 렌즈 끝과 오브젝트 측 WD까지의 거리 조명이 설치될 수 있는 공간 LWD 조명 끝과 오브젝트 측 WD까지의 거리 조명의 셋업 위치 FOV 렌즈를 통해 카메라 이미지 센서에 보이는 영역 실제 검사 영역 DOF 렌즈의 초점이 맞는 영역 검사가 가능한 정도의 초점 범위 설명이 잘 되었나요? "이 단어를 알더라도 순조로운 미팅이 되지 않습니다. 하지만 이 단어조차 모른다면 믿음이 안 가겠죠?" 위에 나오는 이미지센서(카메라 센서)도 종류가 다양합니다. 1/2.5인치, 1/1.8인치, 1/2인치, 2/3인치, 1인치, 4/3인치 그 이상의 센서와 단일 센서, 멀티 센서 많아도 너무 많지만... 그래도 보다보면 누구나 파악이 가능합니다! 그럼 다음 포스팅에서는 좀 더 디테일하게 카메라를 알아보겠습니다.
2022.03.17