전체(24)
모델명
|
다운로드 | ||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
데이터가 없습니다. |
전체(21)
Photoneo의 PhoXi 3D 스캐너는 고해상도에 정확도가 매우 높은 정지 장면 스캐닝이 필요할 때 사용하는 스캐너입니다. PhoXi 3D 구조화된 광선 투사 접근 방식은 원하는 부분을 신속하고 정확하게 포인트 클라우드 형태의 출력으로 제공합니다. 견고한 스캐너는 고해상도 스캔 품질을 보장하므로 열악한 환경에서 최고의 스캐너 역할을 수행합니다. PhoXi 3D 스캐너는 최고의 해상도/속도 비율 덕분에 Vision Systems Design Innovators Awards Program에서 상을 받았습니다. The-Next-Generation-of-PhoXi-3D-Scanner-is-here ? 까다로운 머신 비전 작업에 적합한 산업용 3D 스캐너 Photoneo Phoxi Photoneo PhoXi 3D 스캐너 적용 가능한 어플리케이션 PhoXi 제품군의 각 스캐너(XS-XL 모델)는 스캔된 물체의 크기, 스캔 볼륨 및 기타 측면에 따라 다양한 응용 분야에 적합합니다. 아래 어플레케이션 3D 모델링을 통해 PhoXi를 직접 체험해보세요! 가장 작은 부품 검사 PhoXi 3D 스캐너 XS는 161~205mm의 스캔 범위 내에서 작은 물체를 높은 정밀도로 스캔할 수 있도록 설계되었습니다. 높은 정확도와 세부 수준을 제공하는 XS 모델은 물체와 재질 검사에 가장 적합한 선택입니다. 큰 물체 검사 PhoXi 3D 스캐너 XL은 1680~3780mm의 스캔 범위 내에서 매우 큰 물체를 스캔하는 데 적합합니다. 광택, 반사 또는 검정색 표면이 겹쳐져 있는 다양한 상자 종류가 적재된 화물 운반대 하역과 같은 여러 응용 분야에서 사용할 수 있습니다. 정확한 유기물 인식 PhoXi 3D 스캐너는 식품 업계에서 과일, 야채 또는 생선과 같은 “살아있는” 물체를 스캔할 때 사용할 수 있습니다. Photoneo AI 기반 솔루션 AnyPick은 변형되는 표면, 다양한 모양 및 상이한 크기의 물체를 인식할 수 있습니다. 가장 복잡한 물체도 인식 노이즈 필터링에 대한 고급 알고리즘 덕분에 PhoXi 3D 스캐너는 반짝이거나 반사되는 재질에서도 (톱니바퀴와 같은 금속 물체) 스캔하고 검사할 수 있습니다. 의료 산업 PhoXi 3D 스캐너는 인체 스캔과 같은 의료 산업에도 적용가능한 어플리케이션입니다. 상이한 표면을 한번에 스캔 PhoXi 3D 스캐너는 표면이 서로 다른 다양한 종류의 물체가 있는 복잡한 장면도 스캔 한 번으로 모든 포인트 클라우드를 확보할 수 있습니다. SPECIFICATIONS Photoneo PhoXi technical parameters Photoneo의 PhoXi 3D에 관한 기술 사양이 궁금하시다면 화인스텍 홈페이지를 통해 알아보세요!
2024-05-22PCB는 산업의 기본 중의 기본입니다. 전자 제품 산업, 의료 산업, 자동차 산업, 통신 산업, 항공 우주 산업, 자동화 제어 산업, 소비재 산업(전자제품, 가전제품, 운송수단, 의료기기, 스마트폰 등)까지 우리 눈에 보이는 대부분의 곳에는 항상 존재한다고 볼 수 있습니다. Printed Circuit Board 그렇다면 PCB는 무엇일까요? 거의 모든 산업에서 누구나 알고 있는 PCB는 “Printed Circuit Board”의 약자로, 전자 제품에서 전기적 연결을 만드는 데 사용되는 회로기판입니다. 즉, 서로 다른 다양한 전자 부품들이 서로 연결되어 우리가 원하는 목적의 동작을 완성하는 필수적인 부품입니다. - 다양한 PCB 종류 - 기술과 트렌드의 발전에 따라 PCB(Printed Circuit Board)의 종류도 다양해졌습니다. PCB는 전자제품의 기능, 역할, 디자인에 큰 영향을 미칩니다. 설계 방식에 따라 단면 PCB (Single-Sided PCB), 양면 PCB (Double-Sided PCB), 다층 PCB (Multilayer PCB)로 분류되며, 재료에 따라 유연한 특성을 가진 플랙시블 PCB (Flexible PCB)와 혼합된 특성을 가진 하이브리드 PCB (Rigid-Flexible PCB) 등으로 나눌 수 있습니다. 단면 PCB (Single-Sided PCB), 양면 PCB (Double-Sided PCB), 다층 PCB (Multilayer PCB) FPCB (Flexible PCB) PCB의 품질 보장은 전자제품의 성능과 신뢰성을 유지하는 데 필수적입니다. 현재 품질 보증, 고객 만족도 향상, 비용 절감, 규정 준수 등 여러 측면에서 PCB 생산 검사(전공정, 후공정 포함) 시장 또한 엄청난 성장세를 만들어가고 있습니다. PCB 검사는 생산된 PCB의 품질을 보장하기 위해 전공정과 후공정으로 크게 나뉘며, 각 단계에서 시각검사, 전기적 검사, AOI 검사 등 다양한 방법을 사용합니다. PCB 검사 과정 1. 전공정 검사 (Pre-Process Inspection) PCB 제조 과정 중 불량률을 초기에 최소화하기 위해 제작 단계해서 실시하는 검사 2. 후공정 검사(Post-Process Inspection) PCB 최종 제품의 품질을 확인하고 출하 전에 결함을 발견하고 수정하는 검사 PCB 검사 종류 - PCB 검사의 핵심은 바로 비전시스템, 자동 광학 검사 AOI - 초기 단계에서 발견하지 못한 오류는 높은 수리 비용, 제품 수명 주기, 시스템 고장 등으로 이어질 가능성이 큽니다. 따라서 PCB 제조 프로세스의 효율성을 높이는 핵심 요소 중 하나인 자동 광학 검사(AOI, Automated Optical Inspection) 시스템을 사용하여 제조 초기 단계 및 최종 출하 단계에서 단락, 부품 누락, 마운팅 오류, 솔더 조인트 품질 등과 같은 문제점을 빠르고 정확하게 식별합니다. AOI 자동 광학 검사기는 말 그대로 광학기기(Vision System) 시스템입니다. 빠르고 정확한 PCB 검사를 위해서는 적합한 광학계 선정과 그에 맞는 알고리즘 셋팅이 진행되어야 합니다. AOI에 사용되는 비전 시스템 중 카메라에 대해 어떤 기준으로 선정하는 것이 좋을지 JAI사의 Spark 시리즈와 함께 알아보겠습니다. [ AOI 시스템 구축 시, 고려해야 할 카메라의 기준 ] 고해상도, 빠른 속도, 고성능 인터페이스, 올바른 셔터방식 AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 고해상도 PCB를 구성하는 부품의 크기가 점점 작아지고 마우트되는 칩들 또한 초소형의 것들이 많기 때문에 AOI 검사기가 정확하게 결함 감지 및 오류를 최소화하기 위해서는 이러한 세부 사항들을 명확하게 볼 수 있어야 합니다. 일반적으로 500만 화소급 이상의 카메라 기본이었던 AOI 검사기는 최근에는 2,000만 화소 이상의 카메라가 요구되기도 합니다. 고해상도 카메라는 초미세한 부분까지도 확인할 수 있는 대안이 될 수 있습니다. 또한 고도화된 규칙 기반의 AOI 시스템은 물론 인공지능 기반 시스템을 사용하여 적절한 학습 데이터를 제공함으로써 더 정확하고, 지능적인 결론을 내릴 수 있도록 고해상도 카메라는 AOI 시스템에 중요한 고려 사항이 될 수 있습니다. AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 빠른 속도 고해상도 이미지 구현으로 인해 시스템의 처리 속도가 느려지고, 생산량에 영향을 준다면 선정된 카메라가 우리에게 맞는 것인지 검토 해봐야 합니다. 더욱 정교하고 복잡해진 설계라고 해서 PCB 생산량을 줄일 필요는 없습니다. 이는 AOI 검사의 ‘속도’가 곧 생산량의 긍정적인 영향을 끼친다고 바로 해석할 수 있습니다. JAI 는 이러한 AOI 시스템 설계자들의 고민을 잘 해석했고, 해상도와 속도 사이에서 원하는 균형을 찾도록 하는 카메라를 생산했습니다. JAI의 Spark 시리즈의 SP-5000-CXP4가 바로 그 균형입니다. Spark시리즈 SP-5000M-CXP4 5 메가픽셀 에어리어 카메라 2,000만 화소 이상의 해상도가 여전히 요구되는 동시에 고속의 이미지 처리량을 유지하고 싶은 시스템 설계자분들의 목소리도 JAI는 겸손히 듣고 그에 맞는 균형적인 제품을 개발했습니다. 2,600만 화소 카메라, Spark 시리즈 SP-25000-CXP4A가 그 답입니다. SP-25000-CXP4A는 최대 150fps(8비트)로 실행할 수 있으며, 5120 x 5120 픽셀을 제공하여 고해상도와 높은 처리량을 동시에 충족할 수 있습니다. 또한, 프레임 속도를 사용하여 현재 처리량을 유지하면서 PCBA당 여러 이미지를 활용하여 더 나은 결함 평가를 제공할 수 있는 고급 알고리즘을 지원합니다. park 시리즈 SP-25000C-CXP4A 26 메가픽셀 에어리어 스캔 카메라 AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 고성능 인터페이스 앞에서 설명한 바와 같이, 속도와 해상도 두 가지 목표를 동시에 만족하려면 카메라에 두 가지가 필요합니다. 즉, ‘빠른 센서’와 생성되는 모든 이미지 데이터를 처리할 수 있는 ‘고대역폭 인터페이스’가 필요합니다. 다시 말해, 고해상도의 이미지를 빠른 프레임 속도(fps)로 전송할 수 있는 고성능 인터페이스여야 합니다. 시스템의 해상도와 관계없이 처리량을 극대화하는 것이 경쟁력 있는 핵심 요건이라면 고성능 인터페이스를 갖춘 카메라를 찾고자 할 것입니다. 단일 인터페이스에서 4개의 병렬 레인으로 구성할 수 있는 CoaXPress 표준 인터페이스 최신 버전(v2.0) - JAI 예를 들어, CoaXPress 표준 인터페이스 최신 버전(v2.0)은 이제 케이블당 최대 12.5Gbps를 지원할 수 있으며, 단일 인터페이스에서 4개의 병렬 레인으로 구성할 수 있습니다. 결과적으로 50Gbps 대역폭은 2,600만 화소의 8비트 이미지를 카메라에서 프로세서로 최대 150fps로 전송할 수 있는 충분한 성능을 제공합니다. 물론 고대역폭 카메라는 그 성능을 100% 발휘할 수 있도록 하는 적절한 프레임그래버 선정도 매우 중요합니다. Euresys는 이미지 및 비디오 캡처용 구성부품, 프레임 그래버, FPGA IP 코어, 이미지 처리 소프트웨어를 설계 및 공급하는 기업입니다. 그러나, 일부 AOI 시스템은 전문화된 유형의 결함 감지에 중점을 둘 수 있으며 고객을 유치하기 위해 처리량을 지나치게 강조할 필요가 없을 수도 있습니다. 이러한 시스템의 경우 최대 6.8Gbps로 작동하는 카메라 링크 인터페이스로도 충분한 대역폭이 될 수 있습니다. AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 올바른 셔터방식 AOI 시스템에서의 “높은 처리량”은 영상 시스템의 시야를 통해 빠르게 움직이는 보드의 이미지를 캡처하는 것을 의미합니다. 이를 위해 고려해야 할 두 가지 유형의 카메라 셔터 방식이 있습니다. 첫째, 글로벌 셔터 카메라입니다. 이러한 카메라는 피사체의 전체 장면을 동시에 노출하는 방식으로 이미지를 캡처합니다. 즉, 충분히 빠른 프레임 속도와 노출 설정(셔터 속도)만 있다면, 움직이는 물체를 흐릿함이나 왜곡 없이 빠르게 포착할 수 있습니다. 이는 수평이나 수직으로 빠르게 장면을 주사하여 상을 포착하는 롤링 셔터 카메라와는 대조적입니다. 두 번째 옵션은, 일부 롤링 셔터 카메라의 “글로벌 리셋” 모드입니다. 노출 시작 시간 동안 플래시를 사용하여 동작을 정지한 다음 나머지 노출 시간 동안 빛을 차단하는 글로벌 리셋 모드를 사용할 수 있다면, 롤링 셔터 카메라도 고속 AOI 시스템을 위한 옵션이 될 수 있습니다. 그러나 이 경우, 롤링 셔터 카메라가 위에서 언급한 고해상도, 빠른 프레임 속도 및 고성능 인터페이스와 같은 나머지 모든 요구 사항을 충족해야 하며, AOI 시스템이 시야에서 주변 조명을 제어할 수 있어야 합니다. 이러한 요구 사항을 모두 충족하는 경우에만 롤링 셔터 카메라를 고려해 볼 수 있습니다. PCB AOI 검사기에 대해 JAI사의 Spark 시리즈와 함께 알아봤습니다. 사실 PCB 검사를 위한 AOI 자동 광학 검사기는 시스템 구성을 위한 환경이 정말 너무 다양하기 때문에 오늘 언급한 해상도 및 속도가 최적의 조건이 아닐 수도 있습니다. 중요한 것은 설계의 환경을 잘 이해하고 최적의 비전 컴포넌트 구성을 하는 것입니다. 화인스텍은 AOI 시스템 설계에 필수적인 비전 시스템을 충분한 컨설팅을 통해 알맞은 컴포넌트 구성을 제안해 드릴 수 있습니다. 카메라, 렌즈, 프레임 그래버 선정 등 종합 머신비전 솔루션을 원하신다면 화인스텍으로 문의 바랍니다.
2024-05-17short-wave infrared (SWIR)은 특정 물질 및 대기 입자에 있어 가시광 대역과는 차별화된 고유한 물리적 특성을 지니고 있습니다. 이에 따라 궤도 위성부터 고해상도 위성영상에 이르기까지 다양한 유형의 위성에 탑재되어 활용되어 왔습니다. 현재 SWIR 카메라 시장은 계속해서 성장하고 있습니다. 특히 인공 지능 및 딥러닝 기술과의 결합으로 인해 SWIR 이미징의 데이터 분석 및 응용 분야가 확장되고 있습니다. 이처럼 다양한 산업에 사용되어 온 SWIR이 어떤 특성을 가지고 있는지, 현재 머신비전 SWIR 카메라 어떻게 어플리케이션에 활용되고 있는지, 마지막으로 이러한 SWIR이 앞으로 어떻게 확장되어 사용되어질 것인지, 화인스텍과 함께 알아볼까요? SWIR 이란? 화인스텍 SWIR 백서 Infrared spectrum SWIR은 Short-Wave Infrared 파장을 뜻합니다. SWIR 파장은 일반적으로 900nm에서 1,700nm의 범위에 걸치며 인프라레드(적외선) 스펙트럼 중 중간 파장대에 해당합니다. 인프라레드(적외선) 영역에는 각각 SWIR, MWIR, 그리고 LWIR 대역 모두 포함되어 있으며 각각 파장대에 따라 단파적외선, 중파적외선, 장파적외선으로 나누어집니다. 또한 각각의 파장 범위 따라 고유한 특성이 있기 때문에 각각 다른 용도로 활용하고 있습니다. SWIR 대역은 긴 파장에 의해 특정 대기입자를 투과하는 특성을 가집니다. 따라서 연기, 악천후, 야간 장거리 등 가혹한 조건에서 표적 지정, 거리 측정 또는 이미지 획득에 유용하게 사용됩니다. 또한 SWIR 카메라를 사용하면 플라스틱, 유리, 세라믹 등의 불투명한 재료를 통과하여 내부 구조를 관찰하거나, 빛이 통과하는 재료의 화학적 성질을 분석하는 데 유용합니다. Q. SWIR 카메라의 이미징 획득, MWIR와 LWIR 뭐가 다를까? MWIR(Mid-Wave Infrared)와 LWIR(Long-Wave Infrared)은 사물 자체에서 방출되는 빛을 감지하여 이미징 합니다. 반면 SWIR은 물체가 반사하는 가시광과 유사한 파장의 광선을 통해서 이미징을 획득합니다. SWIR 카메라의 두 종류 센서: InGaAs / CQD sensor SWIR 카메라 센서는 InGaAs(Indium Gallium Arsenide) 센서와 CQD (Colloidal Quantum Dot) 센서 기술을 기반으로 합니다. InGaAs 센서는 인디움(Indium), 갈륨(Gallium), 비소(Arsenic) 등의 반도체 물질로 만들어진 센서입니다. CQD 센서는 Colloidal Quantum Dot 기술을 기반으로 하며, 이는 나노입자의 층을 사용하여 적외선을 감지하는 방식입니다. 화인스텍 SWIR 백서 swir 센서 특징 두 센서에 관한 구성 요소는 아래 포스팅에 자세히 나와 있습니다! InGaAs(Indium Gallium Arsenide) 센서와 CQD (Colloidal Quantum Dot) 센서 유형은 각각의 고유한 특성에 따라 산업 및 어플리케이션에 선택되어 사용됩니다. InGaAs 센서는 고감도와 낮은 노이즈를 필요로 하는 응용 분야에 적합하고, CQD 센서는 넓은 파장 범위와 상대적으로 저렴한 가격이 요구되는 경우에 유용합니다. 아래는 SWIR 카메라 제조사들의 SWIR 이미징을 통한 어플리케이션 이미지입니다. [ InGaAs Sensor 어플리케이션 이미지 ] 화인스텍 swir 백서 sentech swir camera application [ CQD Sensor 어플리케이션 이미지 ] 화인스텍 swir 백서 emberion swir camera application SWIR 카메라를 제조하는 대표적인 회사는 Sentech, Xenics, Emberion이 있습니다. SWIR 카메라 제조사들의 각각의 독특한 특징과 다이나믹 레인지를 확인해보세요! SENTECH 400-1,700 nm의 광범위한 대역폭과 높은 감도의 SWIR 카메라 InGaAs 광전자소자를 사용한 SenSWIR 센서 통합형 열전냉각 요소를 활용한 노이즈 감소 열 처리에 최적화된 설계 다양한 인터페이스 호환(GigE, Camera Link,USB) XENICS 900-1,700 nm의 파장대의 SWIR 카메라 300Hz의 높은 프레임 지원 25µm의 큰 픽셀의 InGaAs 센서를 탑재하여 저조도 환경에서도 검사 가능 표준 인터페이스 호환(Camera Link Base, USB3) EMBERION 400-2,000nm의 넓고 유연한 스펙트럼 범위 광범위한 다이내믹 범위 (HDR) 최대 400fps의 빠른 속도 노이즈에 최적화된 ROIC 다양한 인터페이스 호환(GigE, Camera Link) SWIR 적용 가능한 산업 및 최신 동향 SWIR 기술은 야간 레이저 검사, 자율주행 자동차를 위한 LiDAR센서 기술, 자동화된 산업 과정 통제, 국방 방위 등에 활용되어 왔습니다. 업계에서는 반도체 제조에서 금속 접점을 검사하거나 태양전지의 균열을 감지하며, 폐기물, 플라스틱, 작물 등에 SWIR 카메라 이미징을 활용하여 식별하는데 사용합니다. 이외에도 SWIR은 아래와 같이 식음료, 제조, 의류와 의료산업, 마지막으로 광산과 광통신 산업에서 SWIR 특징을 활용하여 다양한 비전 솔루션을 제공하고 있습니다. SWIR 카메라의 적용가능한 산업 SWIR 적용 어플리케이션 1. 식품 품질 관리 2. 제조 산업 3. 섬유 수분 감지 4. 의료 영상 5. 메탄가스 식별 6. 태양광 패널 검사 7. 광산 광물 8. 광통신 9. 자동차 산업 10. 스마트폰 산업 SWIR 카메라의 기술력은 여러 산업의 요구 사항을 바탕으로 급속도로 발전하고 있습니다. 더 넓은 밴드갭 조절이 가능한 소자 개발, FHD급 이상의 SWIR 이미지 센서 개발, 퀀텀닷-OLED, CMOS 결합을 통한 새로운 센서 개발 연구 등 앞으로 SWIR 카메라의 시장 영향력은 더욱 확대될 전망입니다. SWIR 카메라의 다양한 제품이 궁금하시다면 화인스텍 홈페이지를 통해 알아보세요!
2024-05-09AT가 최근 출시한 ECS Series는 고성능 고정밀 3D 스캐너 C6 시리즈의 한 라인이며 가격대비 고효율 성능으로 3D센서의 솔루션을 제공하는 제품입니다. AT사는 ECS를 출시함으로써, 기존에 고가의 3D 센서를 구매하기 어려웠던 고객들에게 합리적인 가격과 동시에 고급 3D 기술을 제공합니다. AT(Automation Technology)는 맞춤형 3D 특수 이미징 센서 기술을 전문으로 하는 회사입니다. Automation Technology는 지능형 적외선 카메라, 고정밀 3D센서 및 독특한 센서 솔루션을 제공해왔습니다. AT는 2022년 자체 센서 칩 설계와 새로운 WARP(Widely Advanced Rapid Profiling) 기술을 통해 빠른 3D 센서를 출시하여 고속 3D 스캐너 라인업을 갖추었으며, 세계 최초 스마트 IR 카메라인 열화상 카메라를 출시하여 자동화 및 모니터링을 위한 안정적인 솔루션을 제공해왔습니다. | AT C6-2040-ECS Series 특징과 기술사양 | ECS SERIES AT C6-2040-ECS Series 1. 가격 대비 성능 비율 다양한 산업에서 요구되는비용 효율적인 3D 센서 2. 통합 간편화를 위한 인터페이스 표준 사용 GigE Vision, GenlCam* 및 3rd party 소프트웨어 지원 3. 다양한 업종에 적용 가능 식품 산업, 물류 및 로봇 비전에 이상적 ECS Series 시리즈는 Eco Compact Sensor의 약자로 안정적인 성능과 함께 경제적인 비용으로 하이테크 3D 센서 기술을 구현하기 때문에 비용 효율성이 최대 장점입니다. 또한, 표준화된 GigE-Vision/GenICam 인터페이스로 소프트웨어를 빠르게 연결할 수 있어 신속한 머신 비전 애플리케이션을 구축할 수 있습니다. 즉, ECS Series는 품질에 제한을 두지 않는 동시에 비용과 효율성이 최우선인 프로젝트에 가장 이상적인 제품이라고 말 할 수 있습니다. *GenICam은 "Generic Interface for Cameras"의 약자로, 카메라 및 비전 시스템에서 사용되는 표준 인터페이스입니다. - AT C6-2040-ECS Series 기술사양 - Resource - AT 위의 기술 사양에서 보시는 것처럼 ECS 시리즈는 광삼각법 원리를 기반으로 작동하며 한번의 스캔으로 물체의 2,048개의 포인트를 출력하고 최대 43kHz의 높은 속도로 빠르고 정확한 데이터 수집을 제공합니다. ECS는 660nm 파장의 2M등급의 레이저를 지원하기 때문에 안정적입니다. 660nm 파장의 레이저는 가시광선의 대역에 속하기 때문에 다양한 재료에서 좋은 성능을 발휘합니다. ECS는 최대 속도가 43 kHz이기 때문에 빠르게 데이터를 획득할 수 있습니다. 이는 고속 생산 라인에서도 효과적으로 사용될 수 있습니다 그리고 2048개의 포인트는 세밀한 데이터 표현을 가능하게 하여, 복잡한 형상이나 표면 특성을 정확하게 분석합니다. 추가로 ECS는 CS6에서 제공되는 Multipart, Multipeak, Region search and Region tracking 기능을 제공합니다. 사용자는 이 기능들을 사용하여 데이터 분석을 편리하게 조작할 수 있습니다. MULTIPART 여러 데이터 세트의 동시 출력 이 기능은 픽셀 형식이나 알고리즘과 관계없이 최대 10개의 서로 다른 데이터 세트를 동시에 출력할 수 있습니다. 또한, 높이 데이터 외에도 반사율이나 산란과 같은 추가 데이터를 제공하여 테스트 대상을 사실적으로 표현하게 합니다. MULTIPEAK 반사 물질을 방해 없이 스캔 이 기능은 레이저 삼각측량을 사용하여 왜곡 없는 3D 프로필 데이터 스캔을 얻을 수 있습니다. 만약 반사율이 높은 테스트 표면에서 레이저 반사가 발생하는 경우 이를 구별하고 피크 데이터가 포함된 최대 4개의 프로파일을 별도로 출력할 수 있습니다. REGION SEARCH AND REGION TRACKING 레이저 라인의 안전한 감지 및 분류 이 기능은 레이저 라인을 안정적으로 찾아 결정하고 실시간으로 이를 감지하고 그에 따라 조정합니다. 이를 통해 전체 스캔 높이를 활용하여 스캔 속도를 높입니다. ECS 시리즈는 콤팩트한 디자인 덕분에 다양한 산업에 제약 없이 활용이 가능합니다. ECS 3D 스캐닝에 적합한 산업은 식품, 물류, 로봇 비전 산업입니다. 식품 산업에서는 포장의 총 높이, 부피를 측정하거나 품질을 위한 질감, 색상, 신성도 검사 등 외관검사를 진행할 수 있습니다. 또한, 포장물품의 불량 검사에도 적용할 수 있습니다. 물류 검사에서는 패키징의 크기 및 두께 측정, 위치 및 방향을 파악하거나 표면 검사에 사용할 수 있습니다. 마지막으로 로봇 비전에서는 부품의 방향 정보를 제공하여 로봇이 움직일 수 있도록 유도하거나 로봇이 부품을 정렬할 수 있도록 안내합니다. 이를 통해 입체적인 표면 검사를 진행할 수 있습니다. AT C6-2040-ECS에 관한 자세한 정보를 확인하고 싶으시다면 화인스텍 홈페이지에 있는 Data Sheet를 확인해보세요!
2024-02-19오늘은 전자제어장치 핀 커넥터 검사에 최적화된 Automation Technology사의 3D 스캐너 C6 Compact Sensor 시리즈에 대해 소개해 드리겠습니다. Automation Technology는 독일의 3D 이미징 솔루션 전문 기업으로 20년 이상의 3D 센서 개발 및 산업 적용 경험을 바탕으로하는 글로벌 기업입니다. https://www.automationtechnology.de/cms/en/ 전자제어시스템 커넥터 핀 검사 일반적으로 한 대의 자동차를 완성하기 위해서는 보통 70-100개 이상의 MCU 기반의 분산처리형 전자제어장치(ACU, ECU)가 들어간다고 합니다. 해당 전자제어장치는 전원변환장치, 모터제어장치, 배터리관리시스템, 차량제어장치, 충전 컨트롤러, 안전 및 보안 시스템 등 다양한 기능이 정확하게 작동될 수 있도록 해야 하기 때문에 한 치의 불량도 허용할 수 없는 완성도 높은 전자제어장치가 장착되어야 합니다. 특히나 더 많은 전자제어장치가 필요한 전기차 수요의 급증으로 많은 공급업체에서 전자제어장치 컨텍터 핀 검사의 요구 또한 확대되고 있습니다. 제어장치 핀 커넥터 부분 - Image resource from Bosch motorsport 컨넥터 리드라고도 불리는 핀은 모듈간의 연결을 담당하기 때문에 규격에 맞는 완벽한 생산이 요구되고, 동시에 생산 라인에서 불량 검사는 필수입니다. 그렇다면 이러한 전자제어장치 커넥터 핀의 불량 유형은 어떤 것들이 있을까요? 핀의 불량은 크게 △ 핀 휨 △ 핀 잘림 △ 핀 과삽입 △ 핀 미삽입 △ 피치 등이 있습니다. Automation Technology사의 3D 스캐너 시리즈 Compact Sensor C6는 제어장치 커넥터 핀 검사에 최적화된 모델로 출시한 제품으로 일체형 커넥터부터, Pressfit을 사용한 커넥터까지 다양한 핀 검사를 빠르고 정확하게 수행하는 모델입니다. Automation Technology 3D Compat Sensor를 활용한 핀 커넥터 검사 Automation Technology 3D Compat Sensor를 통한 커넥터 핀 검사는 음영 지역을 최소화 할 수 있는 자체 기술이 있으며, 커넥터 핀의 유무 검사, 핀 단차, 휨 등의 불량 검사에 탁월한 성능을 보여줍니다. " Pre-Calibrated Compact 3D Sensor " C6 시리즈는 소형 사이즈 모델임에도 제품을 구성하는 기술들이 집약적으로 포함되어 있으며, 생산 시 요구되는 모든 캘리브레이션 작업을 진행 후 제작하기 때문에 추가적인 캘리브레이션 작업이 필요하지 않다는 점이 큰 특징입니다. " 공정 TACT TIME을 효과적으로 단축시키는 Multi Region 기술 " Automation Technology 3D Compact Sensor C6의 또 하나의 큰 장점은 바로 공정 시간(Tact Time)을 효과적으로 단축시킬 수 있다는 점입니다. Multi Region이라는 독자적 기술을 통해 측정하려는 영역을 지정하여 검사를 진행하고, 불필요한 영역을 제거하여 프레임레이트(fps)를 증가시키는 기술입니다. 대량으로 전자제어장치 핀 커넥터를 검사하는 라인에서 실제 검사 속도를 비교해본 결과, 불 필요한 영역을 제거했을 때 2배 가까운 빠른 공정 시간 단축이 될 수 있다는 점을 확인했습니다. " Advanced Triangulation Algorithms " Automation Technology 3D Compact Sensor C6 카메라는 보다 높은 품질의 3D 데이터를 얻기 위해 4개의 알고리즘을 사용하여 최적의 Peak값 위치를 설정할 수 있습니다. AT사의 Compact Sensor C6 시리즈는 다양한 커넥터 핀 검사 및 모든 어플리케이션에 적용 가능하도록 라인업이 구성되어 있습니다. 좀 더 자세한 사항은 화인스텍 홈페이지에서 확인 가능합니다. http://fainstec.com/main/product_view.asp?p_idx=5582
2023-09-221. Fast Boot 설정 방법 Windows에서 설정 방법 시작 메뉴에서 '전원 및 절전 설정'을 검색해 실행합니다. '추가 전원 설정'을 클릭합니다. '전원 단추 작동 설정'을 클릭합니다. '현재 사용할 수 없는 설정 변경'을 클릭합니다. '빠른 시작 켜기(권장)'을 체크 해제하고 '변경 내용 저장'을 클릭합니다. Bios에서 Fast Boot 설정 방법 ※Bios 진입 및 설정은 메인보드마다 차이가 있기 때문에 참고만 부탁드립니다. 윈도우 진입 전, F2 또는 DEL를 클릭하여 Bios에 진입합니다. (메인보드 제조사 마다 차이가 있음) Boot 메뉴에서 Fast Boot을 Disable로 설정고 Save 후 재부팅 합니다. 3. 전원 관리 설정 윈도우 검색창에 '전원 관리 옵션 선택'을 검색해 실행합니다. 현재 설정을 확인합니다. [고성능]으로 설정되어 있지 않다면, '추가 전원 관리 옵션 표시'를 펼쳐줍니다. [고성능]으로 설정을 진행합니다. '고성능'의 라디오버튼을 클릭하고 '설정 변경'을 클릭하면 옵션 변경이 진행됩니다. '설정 변경'을 클릭하면 아래와 같은 창이 나타납니다. 디스플레이 끄기 설정을 [해당 없음]으로 선택합니다. 추가적인 옵션을 변경하려면 '고급 전원 관리 옵션 설정 변경'을 클릭합니다. 현재 전원 옵션이 [고성능]으로 설정되어 있음을 확인 할 수 있습니다. 추가적인 설정이 필요한 부분에서 설정을 진행하면 됩니다. 기본값을 복원하려면 '전원 관리 옵션 기본값 복원'을 클릭해 복원을 진행하면 됩니다. 2. Windows Defender 방화벽 설정 변경 윈도우 검색창에 'Windows Defender 방화벽'을 검색해 실행합니다. 'Windows Defender 방화벽을 통해 앱 또는 기능 허용'을 클릭합니다.
2023-09-151. 개요 Automation Technology 의 Compact Sensor 제품을 사용하는 방법은 아래 그림과 같이 간단하게 도식화 할 수 있습니다. 본 문서는 각 과정에서 카메라의 파라미터를 어떻게 설정해야 하는지를 설명합니다. 그림 1. Compact Sensor 를 이용한 데이터 취득 흐름 2. 영역 설정(AOI) Compact Sensor 에는 CMOS 센서가 탑재되어 있습니다. 일반 Area 카메라처럼 AOI 의 크기를 낮출수록 출력 속도가 빨라집니다. 따라서 불필요한 영역을 AOI 로 제외해 출력속도를 높이는 것이 일반적입니다. 그림 2. Calibrartion Target 을 스캔하는 모습 먼저, 스캔하고자 하는 물체를 스테이지에 올려놓고 2D 영상을 취득합니다. 2D 영상 취득을 위해서는 아래와 같이 파라미터를 변경합니다. 위와 같이 설정하면 전체 해상도 기준으로 영상을 취득하게 됩니다. 그림 3. 전체 해상도로 취득 된 데이터 취득 된 화면에서 필요한 영역만큼 마우스로 Drag & Drop 하여 AOI 영역으로 설정합니다. 그림 4. 필요한 부분만 AOI 영역으로 지정 그림 5. AOI 가 설정 된 데이터 출력 위 그림과 같이 설정하면 변경 된 AOI 정보를 아래의 파라미터에서 확인할 수 있습니다. 그림 6. AOI 가 적용된 파라미터 목록 마지막으로 아래의 파라미터를 설정하여 프레임 속도를 높입니다. 1 을 입력하면 AOI 크기에 맞는 값이 자동으로 계산되어 집니다. 3. 영상 비율 AOI 영역 설정이 완료되면, 영상 비율이 1:1이 맞는지 확인하는 작업이 필요합니다. 즉, X축 분해능과 Y축 분해능을 맞춰야 한다는 의미입니다. 모션 스테이지를 사용하는 경우 엔코더(Encoder) 신호를 카메라에 입력하면 쉽게 설정이 가능하지만, 그렇지 않은 경우에는 영상을 보면서 대략적으로 맞춰야 합니다. 먼저, 데이터 취득을 3D 모드로 변경합니다. N 값은 취득할 세로 라인수 만큼 입력합니다. 3.1 엔코더(Encoder) 신호를 받는 경우 카메라는 엔코더 신호의 Rising, Falling Edge 에서 트리거로 인식되며, 엔코더의 A 상만 받는 경우와 A 상, B 상 모두 받는 경우에 따라 'N'값 계산이 달라집니다. ※ 주의사항 1. 아래에서 설명하는 계산 식은 이상적인 방식이며, 정확하게 비율이 맞지 않을 수 있습니다. 원근감 때문에 시료와의 거리에 따라 dx가 달라지기 때문입니다. 따라서 Divider 값 계산 후 Motion 속도 또는 Divider 의 조정이 필요합니다. ※ 주의사항 2. Trigger Overrun 은 카메라의 속도보다 빠른 속도로 엔코더 신호가 입력될 때 발생합니다. 해당 파라미터는 Overrun 이 발생하면 true, 발생하지 않으면 false 를 표시합니다. Overrun 발생 시 카메라의 속도를 높여야 하며, AOI 크기를 더 이상 낮추지 못해 속도를 높이지 못하는 경우에는 Overrun 을 감안하고 데이터를 취득할 수 있습니다. ① A 상만 받는 경우. 이 경우에는 카메라는 엔코더 펄스 당 2번 트리거로 인식됩니다. 예시) Encoder Pitch 2.5um, dx 18.6um 인 경우. 2.5um/2 = 1.25um, dx/1.25um = 14.88 ≒ 15 (정수형) ② A상, B 상 모두 받는 경우. 이 경우에는 카메라는 엔코더 펄스 당 4번 트리거로 인식됩니다. 예시) Encoder Pitch 2.5um, dx 18.6 um 인 경우. 2.5um/4 = 0.625um, dx/0.625um = 29.76 ≒ 30 (정수형) 3.2 엔코더(Encoder) 신호를 받지 않는 경우 엔코더 신호를 받지 않는 경우에는 획득한 데이터를 보면서 모션 속도 또는 카메라의 속도를 조절하여 비율을 맞춰야 합니다. 일반적으로 모션 속도는 고정되어 있으니 카메라의 속도를 조정하여 비율을 맞춰야 합니다. 비율이 맞지 않으면 N 값을 늘리거나 줄여서 속도를 변경할 수 있습니다. 만약, AOI 크기 때문에 더 이상 N 값을 줄일 수 없다면 AOI 크기를 더욱 낮춰야 합니다. 그림 7. 비율이 맞지 않는 모습. 모션 속도보다 카메라 속도가 빠른 경우. 그림 8. 카메라 속도를 낮추어 비율을 맞춘 모습. 4. 알고리즘 선택 3D 알고리즘에는 TRSH / MAX / COG / FIR PEAK 4가지가 있습니다. 반사가 심한 재질의 경우 FIR PEAK 알고리즘이 사용되며, 일반적인 경우에는 COG 알고리즘을 사용합니다. 물론 이 두 알고리즘으로 정확한 데이터 확보가 되지 않는다면, TRSH 및 MAX 데이터도 취득해 봐야 합니다. 5. 데이터 최적화 광삼각법 3D 어플리케이션은 반사된 빛을 처리하기 때문에 난반사에 영향을 많이 받습니다. 즉, 3D 데이터를 깔끔하게 얻기 위해 최적화 작업이 필요합니다. 3D 데이터의 방해가 되는 요소로는 반사 빛이 너무 강하거나 노출 시간이 긴 경우, 시료의 재질, 질감 등이 있습니다. 아래 목록은 밝기 억제와 노이즈 제거에 도움이 되는 파라미터입니다. 각 파라미터의 권장 값은 없으며, 상황에 따라 적절한 파라미터 조정이 필요합니다. ① Multi Slope Saturation Threshold (HDR) HDR 파라미터는 어두운 부분에는 영향을 주지 않고, 포화되는 부분에만 밝기를 억제하는 기능으로 매우 유용합니다. 보통 60% 기준으로, 너무 밝은 부분이 있으면 점차적으로 줄여서 설정합니다. ② Exposure Time Exposure Time은 프레임 전체의 밝기에 영향을 줍니다. 출력 속도에 영향을 주지 않도록 Frame Interval보다 짧게 설정하며, 이 값도 점차적으로 조정하며 설정합니다. ③ AOI Threshold AOI Threshold를 높이면 난반사 지점의 불필요한 데이터를 제외시킬 수 있습니다. 하지만 불필요한 데이터가 필요한 데이터와 비슷한 레벨에 위치한다면 제외시킬 수 없습니다. 이 파라미터는 기본값 기준으로 점차적으로 증가시켜 불필요한 데이터가 없어지는지 확인하며 설정합니다. ④ Light Brightness 레이저 밝기의 세기를 조정합니다. 밝기가 너무 세면 반사 정도가 심해 불필요한 데이터가 취득될 수 있습니다. 이를 방지하기 위해 100%에서 점차적으로 줄여가며 데이터의 변화를 확인합니다. 6. 데이터 채널 데이터 채널인 DC0~DC2를 선택하여 2D 이미지와 3D 데이터 출력이 가능합니다. 선택된 카메라 모드에 따라 출력되는 DC0~DC2의 데이터가 달라지므로, 필요한 채널을 확인해야 합니다. (카메라 모드 및 FIR 설정에 따라 출력되는 데이터 채널 내용은 카메라 매뉴얼의 ‘The Data Channel Assignment DC0, DC1 and DC2’ 항목을 참고해주세요.) 카메라 모드를 3D 알고리즘으로 선택하면 16bit 데이터로 출력됩니다. 만약, COG 또는 FIR PEAK로 선택하면 DC2는 Subpixel이 적용된 16bit 데이터가 출력되며, 이 데이터를 calibration 적용하여 metric 데이터 및 point cloud로 변환하여 사용할 수 있습니다.
2022-10-271. 기능 소개 • AOI-Search 모드의 동적 버전. • 3D 실시간 이미지 취득 중에도 동작 • 경사면이 있는 물체 스캔 시 유용한 기능 • AOI OffsetY 값이 실시간으로 변경된다. • 경사면이 잇는 물체를 스캔하기 위해서는 넓은 영역의 AOI가 필요 • 2D Image 모드에서는 동작 불가 • 3D 모드에서만 사용 가능. • 실시간 적용 가능하며 P,I,D는 기본 값을 권장 (PID Controller에 관한 이론적인 내용은 링크 참고) 알고리즘(Algorithm) • Min(Minimum) • 레이저 라인이 AOI의 최소 위치에 배치. • Range • 레이저 라인의 최소, 최대 위치가 감지되고 평균 값으로 AOI 내에 배치. • Mean • 레이저 라인의 유효한 선이 감지되어 AOI 내에 배치. Column Evaluation Mask • AOI 너비가 센서 너비보다 작은 경우, 속도 증가를 위해 설정이 필요. • 가로 방향에 대한 Mask 설정. 2. 적용 과정 3DExplorer AOI-Tracking • AOI-Tracking 파라미터 설정. • AOI-Tracking 결과.
2022-10-27임베디드 비전 구성품은 수많은 어플리케이션에 통합되고 있습니다. 이러한 모든 어플리케이션의 공통점은 더 많은 기능을 컴팩트하게 통합해야 한다는 것입니다. Teledyne FLIR는 이러한 시스템을 신속하게 프로토타입화 할 수 있는 TX2용 Quartet™ Embedded 솔루션을 도입했습니다. 이 커스텀 캐리어 보드를 사용하면 전체 대역폭에서 최대 4대의 USB3 머신 비전 카메라를 쉽게 통합할 수 있습니다. 이 보드는 NVidia Jetson 딥러닝 하드웨어 가속기가 포함되어 있으며, Teledyne FLIR의 Spinnaker® SDK가 사전 설치되어 있습니다. 검사, 모바일 로봇, 교통 시스템 및 다양한 유형의 무인 차량과 같은 시스템을 현장에서 구현하는 것은 큰 장점이 될 수 있습니다. 그림 1: 4가지 어플리케이션에 적용된 프로토타입 이 글에서는 Quartet 보드로 무엇을 할 수 있는지 강조하기 위해 동시에 4개의 어플리케이션을 실행하는 ITS(교통 시스템)를 개발하는 단계를 소개해드리겠습니다. 그 중 3개는 딥 러닝을 사용합니다. 어플리케이션1: 딥 러닝을 이용한 번호판 인식 어플리케이션2: 딥 러닝을 이용한 차량 유형 분류 어플리케이션3: 딥 러닝을 이용한 차량 색상 분류 어플리케이션4: 앞 유리창 투과(빛 반사 상황) 구매 목록: 하드웨어 및 소프트웨어 구성품 1. 프로세싱을 위한 SOM(System on Module) TX2용 Teledyne FLIR Quartet 캐리어 보드에는 다음과 같이 구성되어있습니다. - 전용 USB3 컨트롤러가 있는 TF38 커넥터 4개 - Nvidia Jetson TX2 모듈 -Teledyne FLIR의 강력하고 사용하기 쉬운 Spinnaker SDK가 사전 설치되어 Teledyne FLIR Blackfly S 보드 레벨 카메라와의 플러그 앤 플레이 호환성 보장 - Nvidia Jetson 딥 러닝 하드웨어 가속기는 단일 컴팩트 보드에서 완전한 의사 결정 시스템을 가능하게 함 그림 2: Blackfly S board level, FPC cable, TX2가 포함된 Quartet 임베디드 솔루션 2. 카메라 및 케이블 - Teledyne FLIR Blackfly S USB3 보드 레벨 카메라 3대: 최신 CMOS 센서가 적용되어 있고, 케이스 버전과 동일하게 풍부한 기능을 지원하며 Quartet과의 호환성이 높음 - 커스텀 카메라 1대: Sony IMX250MZR 편광 센서가 탑재된 Blackfly S USB3 보드 레벨 카메라 - 케이블: TF38 FPC 케이블로 전력 및 데이터를 단일 케이블로 전송하여 공간 절약 그림 3: FPC 케이블이 연결된 Blackfly S 보드 레벨 카메라 3. 조명 : 번호판의 모션 블러를 방지하기 위해 충분한 광량을 제공하는 LED 조명 3.1 - 어플리케이션1 딥 러닝을 이용한 번호판 인식 개발 시간: 견고하고 빠른 실행을 위해 2-3주 소요 학습 이미지: LPDNet 사용 번호판 인식을 위해 Nvidia의 기성품인 LPDNet(License Plate Detection) 딥 러닝 모델을 사용하여 번호판의 위치를 ??감지했습니다. 그리고 문자와 숫자를 인식하기 위해 Tesseract 오픈 소스 OCR 엔진을 사용 했고 카메라는 Sony IMX267 센서가 탑재된 Blackfly S 보드 레벨 8.9MP 컬러 카메라(BFS-U3-88S6C-BD)를 사용 중입니다. 성능 및 속도를 높이기 위해 번호판 감지에 대한 관심 영역(ROI)을 제한하고, 견고성을 향상시키기 위해 추적(Tracking)을 적용했습니다. 해당 번호판의 문자와 번호판에 바운딩 박스가 표시됩니다.. 그림 4: 번호판의 문자 및 번호판에 바운딩 박스가 표시되는 영상 3.2 - 어플리케이션2 딥 러닝을 이용한 차량 유형 분류 개발 시간: 이미지 수집 및 어노테이션(Annotation)을 포함하여 최대 12시간 학습 이미지: ~300 차량 유형 분류를 위해 전이 학습(Transfer learning)을 사용하여 SUV, 세단 및 트럭과 같은 세 가지 장난감 자동차에 대해 자체 딥 러닝 객체 감지 모델을 학습했습니다. 다양한 거리와 각도에서 촬영한 약 300개의 트레이닝 이미지를 수집했고 카메라는 Sony IMX250 센서가 탑재된 Blackfly S 보드 레벨 5MP 컬러 카메라(BFS-U3-51S5C-BD2)를 사용 중 입니다. 장난감 자동차의 바운딩 박스에 어노테이션을 추가하는데 약 3시간이 소요됐습니다. 자체 SSD MobileNet 객체 감지 모델을 트레이닝하기 위해 전이 학습을 수행했으며, Nvidia GTX1080 Ti GPU에서 반나절 정도 소요됐습니다. GPU 하드웨어 가속기를 통해 Jetson TX2 모듈은 딥 러닝 추론을 효율적으로 수행하고 해당 차량 유형과 함께 자동차에 바운딩 박스를 출력할 수 있습니다. 그림 5: 바운딩 박스와 사전 설정된 차량 유형, 식별된 신뢰도 점수가 표시되는 영상 3.3 - 어플리케이션3 딥 러닝을 이용한 색상 분류 개발 시간: 색상 분류, 통합 및 테스트를 위해 ‘차량 유형 어플리케이션’ 모델을 재사용하여 2일 추가 소요 학습 이미지: ‘차량 유형 어플리케이션’과 동일한 300개 이미지 재사용 차량 색상 분류를 위해 위와 동일한 딥 러닝 객체 감지 모델을 실행하여 차량을 감지하고, 바운딩 박스에 대한 이미지 분석을 통해 색상을 분류했습니다. 해당 차량 색상과 함께 자동차에 바운딩 박스가 표시됩니다. 카메라는 Sony IMX252 센서가 탑재된 Blackfly S 보드 레벨 3MP 컬러 카메라(BFS-U3-32S4C-BD2)를 사용 중 입니다. 그림 6: 바운딩 박스 및 미리 설정된 색상 유형이 식별된 영상 3.4 - 어플리케이션4 앞 유리창 투과(빛 반사 상황) 앞 유리를 통해 HOV차선을 모니터링하고 안전 벨트 착용 여부를 확인하고 심지어 운전 중 휴대폰 사용 여부까지 확인하는 등 교통 관련 어플리케이션에 빛 반사 제거 기능은 매우 중요합니다. 이를 위해 Blackfly S USB3 보드 레벨 카메라와 5MP Sony IMX250MZR 편광 센서를 결합하여 커스텀 카메라를 만들었습니다. 이 보드 레벨 편광 카메라는 표준 제품이 아니지만, Teledyne FLIR에서는 다양한 센서를 쉽게 교체하여 커스텀 카메라 옵션 제공이 가능하여 빛 반사 제거 기능을 보여주는 커스텀 카메라 옵션을 제공하였습니다. 고정된 장난감 자동차의 빛 반사 감소를 보여주기 위해 쿼드 모드(Quad mode), 빛 반사 감소 모드와 같은 다양한 "편광 알고리즘" 옵션을 제공하는 Teledyne FLIR의 SpinView GUI를 통해 카메라 이미지를 간단히 스트리밍했습니다. 그림 7: Spinnaker SDK는 쿼드 모드, 빛 반사 감소 모드와 같은 다양한 “편광 알고리즘” 옵션을 제공하여 고정된 장난감 자동차의 빛 반사 감소를 보여줍니다. 쿼드 모드는 4개의 서로 다른 편광 각도에 해당하는 이미지를 보여줍니다. 전반적인 시스템 최적화 4개의 각 프로토타입은 독립적으로는 잘 작동하지만, 모든 딥 러닝 모델이 동시에 실행될 때 전반적인 성능이 상당히 좋지 않다는 것을 알았습니다. Nvidia의 TensorRT SDK는 Jetson TX2 모듈과 같은 Nvidia 하드웨어용 딥 러닝 추론 옵티마이저(Inference optimizer) 및 런타임을 제공합니다. 이 TensorRT SDK를 사용하여 딥 러닝 모델을 최적화하여 성능이 약 10배 향상되었습니다. 그리고 모든 어플리케이션이 실행 중일 때 발열이 심해 TX2 모듈에 방열판을 부착했습니다. 결과적으로 차량 유형 식별에서 14fps, 차량 색상 분류에서 9fps, 자동 번호판 인식에서 4fps 그리고 편광 카메라에서 8fps까지 4가지 어플리케이션을 모두 실행할 때 좋은 프레임 속도를 달성했습니다. Quartet Embedded Solution 및 Blackfly S 보드 레벨 카메라의 사용 용이성과 신뢰성 덕분에 비교적 짧은 시간 내에 프로토타입 개발을 완료하였습니다. Spinnaker SDK가 사전 설치된 TX2 모듈은 TF38 연결을 통해 전체 USB3 대역폭에서 안정적으로 스트리밍할 수 있는 모든 Blackfly S 보드 레벨 카메라와의 플러그 앤 플레이 호환성을 보장합니다. Nvidia는 TX2 모듈에서 개발 및 최적화를 용이하게 하는 많은 툴을 제공합니다. Quartet은 이제 flir.com은 물론 flir.com 사무실과 글로벌 대리점들을 통해 구매하실 수 있습니다. 제품 링크 : Blackfly S 보드 레벨 카메라 : http://www.fainstec.com/main/search.asp?schStr=BD2 Blackfly S 편광 카메라 케이스 버전 : http://www.fainstec.com/main/search.asp?schStr=51S5P-C Quartet보드: http://www.fainstec.com/main/search.asp?cate=%EB%B3%B4%EB%93%9C&o_idx=125&schStr=Quartet
2022-09-16깊이 측정을 위한 커스텀 임베디드 스테레오 시스템 깊이 측정 시스템 개발을 위한 3D 센서 옵션에는 다양한 옵션들이 있는데요, 카메라가 있는 스테레오 비전, 라이다 및 TOF센서가 대표적입니다. 그리고 각 옵션에는 장단점이 있습니다. 그중 스테레오 비전 시스템은 일반적으로 비용이 저렴하고 실외에서 사용하기에도 충분히 견고하며 고해상도 컬러 포인트 클라우드를 제공합니다. 오늘날 시장에서 사용할 수 있는 다양한 기성 스테레오 시스템이 존재하지만, 정확도, FOV, 해상도 등과 같은 요인에 따라 시스템 엔지니어가 특정 어플리케이션 분야의 요구 사항을 해결하기 위해 커스텀 시스템을 구축해야 하는 경우도 있습니다. 먼저 스테레오 비전 시스템의 주요 파트를 설명한 다음 기성 하드웨어 부품 및 오픈소스 소프트웨어를 사용하여 커스텀 스테레오 카메라를 만드는 방법에 대해 설명 하도록 하겠습니다. 커스텀 시스템의 구성은 임베디드에 초점을 맞추기 때문에 호스트 PC 없이도 실시간으로 모든 장면의 Depth Map을 계산할 수 있습니다. 스테레오 비전 개요 스테레오 비전은 두개의 다른 시점에서 촬영한 두 이미지의 정보를 비교하여 디지털 이미지에서 3D 정보를 추출하는 것입니다. 두 이미지 평면에서 물체의 상대적 위치는 카메라에서 물체까지의 거리 즉 깊이에 대한 정보를 제공해줍니다. Figure 1 – 스테레오 비전 시스템 개요 스테레오 비전 시스템의 개요는 위 이미지와 같으며 다음과 같은 주요 단계로 구성됩니다. 1. 캘리브레이션 – 카메라 캘리브레이션의 경우 두가지 의미가 있습니다. Instrinsic(내부적인) 캘리브레이션의 경우는 이미지 중심, 초점 거리 및 왜곡 파라미터를 말하며, Extrinsic(외부적인) 캘리브레이션은 카메라의 실제 위치 등을 말합니다. 컴퓨터 비전 프로그램에서 특히 깊이와 같은 이미지의 메트릭 정보가 필요한 경우 캘리브레이션 단계는 매우 중요합니다. 캘리브레이션 단계에 대해서는 아래 캘리브레이션 섹션에서 자세히 설명 드리겠습니다. 2. 렉티피케이션 – 스테레오 렉티피케이션은 이미지 평면을 양쪽 카메라의 중심 사이의 선과 평행한 공통 평면으로 조정하는 프로세스를 말합니다. 렉티피케이션 이후 해당 포인트가 평행하게 놓여 있게 되므로 매칭에 소요되는 시간이 줄어들기 때문에 꼭 필요한 과정으로 인식되고 있습니다. 이 단계는 커스텀 시스템을 구축하기 위해 제공된 코드로 실행 가능합니다. Figure 2 – Stereo Rectification 예시 3. 스테레오 매칭 – 왼쪽과 오른쪽 이미지 사이에 픽셀을 일치시켜주는 과정을 스테레오 매칭이라고 하며, Disparity image(불균형한 이미지)를 생성하게 됩니다. SGM(Semi-Global Matching) 알고리즘은 커스텀 시스템을 구축하기 위해 제공되는 코드에 사용됩니다. 4. Triangulation(삼각측량) – 삼각 측량은 두 이미지에 투영 된 3D 공간의 점을 결정하는 과정을 말합니다. Disparity image(불균형한 이미지)는 3D 포인트 클라우드로 변환됩니다. 설계 예제 스테레오 시스템의 설계 예제를 살펴보겠습니다. 다음은 빠르게 움직이는 물체가 있는 동적 환경인 모바일 로봇 어플리케이션에 대한 요구 사항입니다. ROI 크기는 2m, 카메라에서 목표물까지의 거리는 3m, 원하는 정확도는 1cm입니다. 깊이 오차는 다음과 같은 요인에 따라 ΔZ=Z²/Bf * Δd에 의해 주어집니다: Z = 범위 B = Baseline(기준선) F = focal length(픽셀 단위의 초점 거리로, 카메라 시야 각 및 이미지 해상도와 관련 있습니다) 처음에 언급한 요구 사항을 충족할 수 있는 다양한 설계 옵션들이 있는데, 원하는 FOV와 WD에 따라 특정 센서에 대한 렌즈의 초점 거리를 정할 수 있습니다. Baseline(기준선)으로 위의 공식을 사용하여 3m에서 예상 깊이 오차를 계산하여 요구되는 정확도를 충족하는지 확인할 수 있습니다. Figure 3 – 예제 어플리케이션에 대한 스테레오 시스템 설계 옵션 위 이미지는 Baseline(기준선)이 긴 저해상도 카메라 또는 Baseline이 짧은 고해상도 카메라 이렇게 두가지 옵션에 대한 설명입니다. 첫번째 옵션은 전체적으로 크기가 더 큰 카메라이지만 복잡한 계산의 필요성이 적고 두번째의 경우는 크기는 더 컴팩트 하지만 복잡한 계산의 필요성이 높습니다. 예제 어플리케이션에서는 컴팩트 한 크기가 모바일 로봇 어플리케이션에 더 적합하기 때문에 두번째 옵션을 선택했으며, 요구되는 프로세스를 처리 할 수 있는 강력한 GPU가 탑재된 TX2 용 Quartet Embedded Solution을 사용할 수 있습니다. 하드웨어 요구 사항 Figure 4 – 커스텀 임베디드 스테레오 시스템의 앞면과 뒷면 이 예에서는 IMX273 Sony Pregius 글로벌 셔터 센서를 사용하여 두 대의 Blackfly S 1.6MP 보드 레벨 카메라를 12cm Baseline(기준선)를 가진 3D 프린트된 프레임에 장착합니다. 두 카메라 모두 동일한 6mm S-마운트 렌즈를 장착했습니다. 카메라는 FPC 케이블을 사용하여 TX2 커스텀 캐리어 보드용 Quartet Embedded Solution에 연결됩니다. 왼쪽과 오른쪽 카메라를 동기화하여 동시에 이미지를 캡처하기 위해 두 카메라를 연결하는 동기화 케이블도 연결합니다. 위 이미지의 하드웨어 구성품은 다음과 같습니다 : Quartet Carrier with TX2 Module 8GB – 1ea BFS-U3-16S2C-BD2(카메라) – 2ea S-Mount & IR filter – 2ea 6mm S-Mount lens(렌즈) – 2ea 15cm FPC 케이블 – 2ea NVIDIA Jetson TX2/TX2 4GB/TX2i Active Heat Sink(방열판) – 1ea 동기화 케이블 – 1ea 카메라 부착용 프레임 – 1ea 두 렌즈 모두 어플리케이션이 요구하는 범위에 카메라 초점이 맞도록 조정해야 합니다. 초점을 맞춘 후 초점을 고정하기 위해 각 렌즈의 나사를 조여줍니다. (Figure 5 참고) Figure 5 – 렌즈 나사를 보여주는 스테레오 시스템의 측면도 소프트웨어 요구 사항 a. Spinnaker Teledyne FLIR Spinnaker SDK는 TX2용 Quartet Embedded Solution에 사전 설치되어 제공됩니다. 카메라와 통신하기 위해선 Spinnaker가 필요합니다. b. CUDA를 지원하는 OpenCV 4.5.2 스테레오 매칭 알고리즘 중 하나인 SGM을 사용하기 위해선 OpenCV 4.5.1 버전 또는 그 이상의 버전이 필요합니다. 코드를 포함하고 있는 첨부된 zip 파일을 다운로드 후 압축을 풀어줍니다. 리눅스 터미널에서 아래와 같이 OpenCV를 설치하는 스크립트 인 OpenCVInstaller.sh를 실행합니다. cd ~/StereoDepth chmod +x OpenCVInstaller.sh ./OpenCVInstaller.sh 설치 관리자를 통해 관리자 암호를 설정 후 OpenCV 4.5.2 설치가 시작됩니다. OpenCV를 다운로드하고 빌드하는데 몇 시간이 걸릴 수도 있습니다. 캘리브레이션 스테레오 이미지를 불러와 캘리브레이션 하는 코드는 “Calibration” 폴더에서 확인할 수 있습니다. SpinView GUI를 사용하여 좌우 카메라의 일련 번호를 확인합니다. 우측 카메라는 마스터, 좌측 카메라는 슬레이브로 설정해 줍니다. 마스터 및 슬레이브 카메라의 일련 번호를 grabStereoImage.cpp 파일의 60번째와 61번째 줄에 복사해줍니다. 리눅스 터미널에서 다음 명령어를 사용하여 실행 파일을 빌드합니다. cd ~/StereoDepth/Calibration mkdir build mkdir -p images/{left, right} cd build cmake .. make 첨부된 채커보드 패턴을 인쇄하여 평평한 표면에 부착 후 캘리브레이션 타켓으로 사용할 수 있습니다. 캘리브레이션을 하는 동안 최상의 결과를 얻으려면 SpinView에서 Exposure Auto는 off로 설정하고 아래 그림과 같이 채커보드 패던이 선명하고 흰색 부분이 과하게 노출되지 않도록 노출을 조정해줍니다. 캘리브레이션 이미지가 수집된 후 SpinView에서 게인 및 노출을 자동으로 설정할 수 있습니다. Figure 6 – SpinView GUI 설정 이미지 수집을 시작하기 위해 아래 명령어를 입력해줍니다. ./grabStereoImages 코드에 따르면 이미지 수집은 약 초당 1프레임의 속도로 진행됩니다. 왼쪽의 이미지는 images/left 폴더에 저장되고 오른쪽의 이미지는 images/right 폴더에 저장됩니다. 타겟을 움직여 이미지의 구석 부분까지도 잘 보이게 촬영해줍니다. 타겟을 회전 시켜 가까이서, 그리고 또 멀리서도 찍어줍니다. 기본적으로 프로그램은 100쌍의 이미지를 캡처하지만 아래 명령어를 사용하여 변경도 가능합니다. ./grabStereoImages 20 위의 명령어를 사용하면 20쌍의 이미지만 수집됩니다. 이전 폴더에 저장된 모든 이미지를 덮어 쓰는 점은 참고하셔야 됩니다. 아래 이미지는 일부 캘리브레이션 이미지 샘플입니다. Figure 7 – 샘플 캘리브레이션 이미지 이미지 수집 후 다음 명령어를 통해 캘리브레이션 Pyhton 코드를 실행합니다. cd ~/StereoDepth/Calibration python cameraCalibration.py 위 명령어로 스테레오 시스템의 내부 및 외부 파라미터가 포함된 "intrinsics.yml"및 "extrinsics.yml"이라는 2개의 파일이 생성됩니다. 기본적으로 30mm 정사각형 크기의 채커보드를 가정하여 만든 코드이지만 필요한 경우 편집이 가능합니다. 캘리브레이션이 끝나면 캘리브레이션이 얼마나 잘 수행 되었는지를 나타내는 RMS 오류가 표시됩니다. 캘리브레이션이 잘 된 경우 RMS 오류는 일반적으로 0.5 픽셀 미만입니다. Real-time Depth Map 실시간으로 차이(disparity)를 계산하는 코드는 “Depth” 폴더 내에 있습니다. 카메라의 일련 번호를 복사하여 live_disparity.cpp의 230과 231번째 줄에 붙여 넣습니다. 리눅스 터미널에서 다음 명령어를 사용하여 실행파일을 빌드합니다. cd ~/StereoDepth/Depth mkdir build cd build cmake .. make 캘리브레이션 단계에서 얻은 "intrinsics.yml" 및 "extrinsics.yml" 파일을 이 폴더에 복사합니다. 실시간으로 Depth Map 데모를 실행하려면 다음 명령어를 입력합니다. ./live_disparity 왼쪽 카메라 이미지(Raw 이미지)와 Depth Map(최종 output)이 표시됩니다. 아래 이미지는 몇가지 예제 output을 보여주고 있습니다. 카메라로부터의 거리는 Depth Map의 오른쪽에 표시된 범례에 따라 색상으로 구분됩니다. Depth Map의 검은색 영역은 해당 영역에서 차이(disparity)점이 있는 데이터가 없다는 것을 의미합니다. NVIDIA Jetson TX2 GPU로 1440 x 1080의 해상도에서 최대 초당 5프레임, 720 x 540의 해상도에선 최대 초당 13프레임 속도로 실행할 수 있습니다. 특정 지점의 깊이 데이터는 Depth Map에서 해당 지점을 클릭하여 아래 이미지와 오른쪽 하단 이미지와 같이 깊이가 표시되는 것을 확인할 수 있습니다. Figure 8 – 왼쪽 카메라 이미지 및 해당 Depth Map 샘플 / 하단의 Depth Map에서는 특정 지점의 깊이를 보여줍니다. 요약 스테레오 비전을 사용하여 깊이 측정 시스템을 개발하면 실외에서도 잘 작동이 가능하며, 고해상도 Depth Map을 제공하고, 저렴한 기성품들로 매우 쉽게 접근할 수 있다는 장점이 있습니다. 시장에는 이미 요구 조건이 정해진 기성 스테레오 시스템이 많이 있습니다. 커스텀 임베디드 스테레오 시스템을 개발해야하는 경우 이 글에서 설명 드린 내용처럼 비교적 간단하게 작업하실 수 있습니다.
2022-09-07전체(0)