총 6 건
Bin Picking Studio 가장 다양한 용도로 활용할 수 있는 로봇 지능 소프트웨어 ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ 작동방식 ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ 로봇 선택 포토네오는 다양한 회사의 프로젝트를 위해 지속적으로 로봇 데이터베이스를 개발했습니다. 이를 통해 포토네오는 다양한 브랜드에서 많은 수의 로봇 모델을 지원해왔으며 목록에 원하는 로봇이 없는 경우에도 소통을 통하여 문제를 해결해왔습니다. 이로인해 다양한 로봇이 Bin Picking Studio에 통합되어 활용되었습니다. 그리퍼 업로드 그리핑 도구의 CAD 모델을 업로드하며 그리퍼 모델이 가상 환경에서 도구 포인트 구성에 사용됩니다. 개체 업로드 Bin Picking 그리핑 포인트 계획을 시작할 때는 선택하려는 제품의 CAD 모델만 있으면 됩니다. Bin Picking Studio에 업로드하면 가상 환경에서 즉시 작업을 시작할 수 있습니다 Set up gripping & tool points Bin Picking 설정은 그리퍼가 물체를 잡는 위치와 방법을 선택하는 것으로 시작됩니다. 간단한 시각적 공정 덕분에 복잡한 수학이 필요하지 않으며 Bin Picking Studio는 이 작업을 원활하게 지원합니다. 환경 로드 환경로드 단계에서는 Bin Picking Studio에 피킹이 이루어지는 위치를 알려줍니다. 피킹 셀의 CAD 모델을 로드하여 가능한 가장 쉬운 방법으로 작업을 다시 수행합니다. 업로드 직후 Studio는 작업에 사용할 수 있는 3D 시각화 정보를 제공합니다. 품 위치 파악 설정 Bin Picking Studio는 부품 위치를 파악하는 알고리즘을 셋팅하기 위한 내장 엔진이 구현 되어있습니다. CAD 매칭 방식을 기반으로 한 이 알고리즘은 빠른 속도와 견고성에 중점을 둔 빈 피킹에 적합하도록 개발되었습니다. 카메라에 대한 로봇 보정 Photoneo의 Bin Picking Studio는 특별하게 준비해야 하는 보정 시트가 필요하지 않습니다. 구 모양의 원형 물체 하나로 가시적인 안내 프로그램에 따라 스캐너와 로봇을 보정하고 동기화합니다. 이로 인해 보정 전체에 걸쳐 검증하고 평가할 수 있는 시각적 피드백을 즉시 받습니다. 대화형 디버깅 마지막으로 가상 환경 내에서의 최첨단 디버깅 툴을 활용하세요. 이를 통해 솔루션이 얼마나 잘 준비되었는지 확인할 수 있습니다. 20분 만에 로봇 지능 설정 피킹 프로젝트를 위한 완벽한 솔루션 Bin Picking Studio는 PhoXi 스캐너라인으로 대표되는 강력한 3D 비전 하드웨어와 피킹의 셋팅을 위한 통합 소프트웨어의의 결합입니다. 4개의 공급업체에서 찾아야 할 것을 우리는 올인원 피킹 솔루션으로 하나의 패키지로 제공합니다. Bin Picking Studio 이점
2024.05.31Photoneo의 PhoXi 3D 스캐너는 고해상도에 정확도가 매우 높은 정지 장면 스캐닝이 필요할 때 사용하는 스캐너입니다. PhoXi 3D 구조화된 광선 투사 접근 방식은 원하는 부분을 신속하고 정확하게 포인트 클라우드 형태의 출력으로 제공합니다. 견고한 스캐너는 고해상도 스캔 품질을 보장하므로 열악한 환경에서 최고의 스캐너 역할을 수행합니다. PhoXi 3D 스캐너는 최고의 해상도/속도 비율 덕분에 Vision Systems Design Innovators Awards Program에서 상을 받았습니다. The-Next-Generation-of-PhoXi-3D-Scanner-is-here ? 까다로운 머신 비전 작업에 적합한 산업용 3D 스캐너 Photoneo Phoxi Photoneo PhoXi 3D 스캐너 적용 가능한 어플리케이션 PhoXi 제품군의 각 스캐너(XS-XL 모델)는 스캔된 물체의 크기, 스캔 볼륨 및 기타 측면에 따라 다양한 응용 분야에 적합합니다. 아래 어플레케이션 3D 모델링을 통해 PhoXi를 직접 체험해보세요! 가장 작은 부품 검사 PhoXi 3D 스캐너 XS는 161~205mm의 스캔 범위 내에서 작은 물체를 높은 정밀도로 스캔할 수 있도록 설계되었습니다. 높은 정확도와 세부 수준을 제공하는 XS 모델은 물체와 재질 검사에 가장 적합한 선택입니다. 큰 물체 검사 PhoXi 3D 스캐너 XL은 1680~3780mm의 스캔 범위 내에서 매우 큰 물체를 스캔하는 데 적합합니다. 광택, 반사 또는 검정색 표면이 겹쳐져 있는 다양한 상자 종류가 적재된 화물 운반대 하역과 같은 여러 응용 분야에서 사용할 수 있습니다. 정확한 유기물 인식 PhoXi 3D 스캐너는 식품 업계에서 과일, 야채 또는 생선과 같은 “살아있는” 물체를 스캔할 때 사용할 수 있습니다. Photoneo AI 기반 솔루션 AnyPick은 변형되는 표면, 다양한 모양 및 상이한 크기의 물체를 인식할 수 있습니다. 가장 복잡한 물체도 인식 노이즈 필터링에 대한 고급 알고리즘 덕분에 PhoXi 3D 스캐너는 반짝이거나 반사되는 재질에서도 (톱니바퀴와 같은 금속 물체) 스캔하고 검사할 수 있습니다. 의료 산업 PhoXi 3D 스캐너는 인체 스캔과 같은 의료 산업에도 적용가능한 어플리케이션입니다. 상이한 표면을 한번에 스캔 PhoXi 3D 스캐너는 표면이 서로 다른 다양한 종류의 물체가 있는 복잡한 장면도 스캔 한 번으로 모든 포인트 클라우드를 확보할 수 있습니다. SPECIFICATIONS Photoneo PhoXi technical parameters Photoneo의 PhoXi 3D에 관한 기술 사양이 궁금하시다면 화인스텍 홈페이지를 통해 알아보세요!
2024.05.22PCB는 산업의 기본 중의 기본입니다. 전자 제품 산업, 의료 산업, 자동차 산업, 통신 산업, 항공 우주 산업, 자동화 제어 산업, 소비재 산업(전자제품, 가전제품, 운송수단, 의료기기, 스마트폰 등)까지 우리 눈에 보이는 대부분의 곳에는 항상 존재한다고 볼 수 있습니다. Printed Circuit Board 그렇다면 PCB는 무엇일까요? 거의 모든 산업에서 누구나 알고 있는 PCB는 “Printed Circuit Board”의 약자로, 전자 제품에서 전기적 연결을 만드는 데 사용되는 회로기판입니다. 즉, 서로 다른 다양한 전자 부품들이 서로 연결되어 우리가 원하는 목적의 동작을 완성하는 필수적인 부품입니다. - 다양한 PCB 종류 - 기술과 트렌드의 발전에 따라 PCB(Printed Circuit Board)의 종류도 다양해졌습니다. PCB는 전자제품의 기능, 역할, 디자인에 큰 영향을 미칩니다. 설계 방식에 따라 단면 PCB (Single-Sided PCB), 양면 PCB (Double-Sided PCB), 다층 PCB (Multilayer PCB)로 분류되며, 재료에 따라 유연한 특성을 가진 플랙시블 PCB (Flexible PCB)와 혼합된 특성을 가진 하이브리드 PCB (Rigid-Flexible PCB) 등으로 나눌 수 있습니다. 단면 PCB (Single-Sided PCB), 양면 PCB (Double-Sided PCB), 다층 PCB (Multilayer PCB) FPCB (Flexible PCB) PCB의 품질 보장은 전자제품의 성능과 신뢰성을 유지하는 데 필수적입니다. 현재 품질 보증, 고객 만족도 향상, 비용 절감, 규정 준수 등 여러 측면에서 PCB 생산 검사(전공정, 후공정 포함) 시장 또한 엄청난 성장세를 만들어가고 있습니다. PCB 검사는 생산된 PCB의 품질을 보장하기 위해 전공정과 후공정으로 크게 나뉘며, 각 단계에서 시각검사, 전기적 검사, AOI 검사 등 다양한 방법을 사용합니다. PCB 검사 과정 1. 전공정 검사 (Pre-Process Inspection) PCB 제조 과정 중 불량률을 초기에 최소화하기 위해 제작 단계해서 실시하는 검사 2. 후공정 검사(Post-Process Inspection) PCB 최종 제품의 품질을 확인하고 출하 전에 결함을 발견하고 수정하는 검사 PCB 검사 종류 - PCB 검사의 핵심은 바로 비전시스템, 자동 광학 검사 AOI - 초기 단계에서 발견하지 못한 오류는 높은 수리 비용, 제품 수명 주기, 시스템 고장 등으로 이어질 가능성이 큽니다. 따라서 PCB 제조 프로세스의 효율성을 높이는 핵심 요소 중 하나인 자동 광학 검사(AOI, Automated Optical Inspection) 시스템을 사용하여 제조 초기 단계 및 최종 출하 단계에서 단락, 부품 누락, 마운팅 오류, 솔더 조인트 품질 등과 같은 문제점을 빠르고 정확하게 식별합니다. AOI 자동 광학 검사기는 말 그대로 광학기기(Vision System) 시스템입니다. 빠르고 정확한 PCB 검사를 위해서는 적합한 광학계 선정과 그에 맞는 알고리즘 셋팅이 진행되어야 합니다. AOI에 사용되는 비전 시스템 중 카메라에 대해 어떤 기준으로 선정하는 것이 좋을지 JAI사의 Spark 시리즈와 함께 알아보겠습니다. [ AOI 시스템 구축 시, 고려해야 할 카메라의 기준 ] 고해상도, 빠른 속도, 고성능 인터페이스, 올바른 셔터방식 AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 고해상도 PCB를 구성하는 부품의 크기가 점점 작아지고 마우트되는 칩들 또한 초소형의 것들이 많기 때문에 AOI 검사기가 정확하게 결함 감지 및 오류를 최소화하기 위해서는 이러한 세부 사항들을 명확하게 볼 수 있어야 합니다. 일반적으로 500만 화소급 이상의 카메라 기본이었던 AOI 검사기는 최근에는 2,000만 화소 이상의 카메라가 요구되기도 합니다. 고해상도 카메라는 초미세한 부분까지도 확인할 수 있는 대안이 될 수 있습니다. 또한 고도화된 규칙 기반의 AOI 시스템은 물론 인공지능 기반 시스템을 사용하여 적절한 학습 데이터를 제공함으로써 더 정확하고, 지능적인 결론을 내릴 수 있도록 고해상도 카메라는 AOI 시스템에 중요한 고려 사항이 될 수 있습니다. AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 빠른 속도 고해상도 이미지 구현으로 인해 시스템의 처리 속도가 느려지고, 생산량에 영향을 준다면 선정된 카메라가 우리에게 맞는 것인지 검토 해봐야 합니다. 더욱 정교하고 복잡해진 설계라고 해서 PCB 생산량을 줄일 필요는 없습니다. 이는 AOI 검사의 ‘속도’가 곧 생산량의 긍정적인 영향을 끼친다고 바로 해석할 수 있습니다. JAI 는 이러한 AOI 시스템 설계자들의 고민을 잘 해석했고, 해상도와 속도 사이에서 원하는 균형을 찾도록 하는 카메라를 생산했습니다. JAI의 Spark 시리즈의 SP-5000-CXP4가 바로 그 균형입니다. Spark시리즈 SP-5000M-CXP4 5 메가픽셀 에어리어 카메라 2,000만 화소 이상의 해상도가 여전히 요구되는 동시에 고속의 이미지 처리량을 유지하고 싶은 시스템 설계자분들의 목소리도 JAI는 겸손히 듣고 그에 맞는 균형적인 제품을 개발했습니다. 2,600만 화소 카메라, Spark 시리즈 SP-25000-CXP4A가 그 답입니다. SP-25000-CXP4A는 최대 150fps(8비트)로 실행할 수 있으며, 5120 x 5120 픽셀을 제공하여 고해상도와 높은 처리량을 동시에 충족할 수 있습니다. 또한, 프레임 속도를 사용하여 현재 처리량을 유지하면서 PCBA당 여러 이미지를 활용하여 더 나은 결함 평가를 제공할 수 있는 고급 알고리즘을 지원합니다. park 시리즈 SP-25000C-CXP4A 26 메가픽셀 에어리어 스캔 카메라 AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 고성능 인터페이스 앞에서 설명한 바와 같이, 속도와 해상도 두 가지 목표를 동시에 만족하려면 카메라에 두 가지가 필요합니다. 즉, ‘빠른 센서’와 생성되는 모든 이미지 데이터를 처리할 수 있는 ‘고대역폭 인터페이스’가 필요합니다. 다시 말해, 고해상도의 이미지를 빠른 프레임 속도(fps)로 전송할 수 있는 고성능 인터페이스여야 합니다. 시스템의 해상도와 관계없이 처리량을 극대화하는 것이 경쟁력 있는 핵심 요건이라면 고성능 인터페이스를 갖춘 카메라를 찾고자 할 것입니다. 단일 인터페이스에서 4개의 병렬 레인으로 구성할 수 있는 CoaXPress 표준 인터페이스 최신 버전(v2.0) - JAI 예를 들어, CoaXPress 표준 인터페이스 최신 버전(v2.0)은 이제 케이블당 최대 12.5Gbps를 지원할 수 있으며, 단일 인터페이스에서 4개의 병렬 레인으로 구성할 수 있습니다. 결과적으로 50Gbps 대역폭은 2,600만 화소의 8비트 이미지를 카메라에서 프로세서로 최대 150fps로 전송할 수 있는 충분한 성능을 제공합니다. 물론 고대역폭 카메라는 그 성능을 100% 발휘할 수 있도록 하는 적절한 프레임그래버 선정도 매우 중요합니다. Euresys는 이미지 및 비디오 캡처용 구성부품, 프레임 그래버, FPGA IP 코어, 이미지 처리 소프트웨어를 설계 및 공급하는 기업입니다. 그러나, 일부 AOI 시스템은 전문화된 유형의 결함 감지에 중점을 둘 수 있으며 고객을 유치하기 위해 처리량을 지나치게 강조할 필요가 없을 수도 있습니다. 이러한 시스템의 경우 최대 6.8Gbps로 작동하는 카메라 링크 인터페이스로도 충분한 대역폭이 될 수 있습니다. AOI 시스템 구축 시, 고려해야 할 카메라의 기준 - 올바른 셔터방식 AOI 시스템에서의 “높은 처리량”은 영상 시스템의 시야를 통해 빠르게 움직이는 보드의 이미지를 캡처하는 것을 의미합니다. 이를 위해 고려해야 할 두 가지 유형의 카메라 셔터 방식이 있습니다. 첫째, 글로벌 셔터 카메라입니다. 이러한 카메라는 피사체의 전체 장면을 동시에 노출하는 방식으로 이미지를 캡처합니다. 즉, 충분히 빠른 프레임 속도와 노출 설정(셔터 속도)만 있다면, 움직이는 물체를 흐릿함이나 왜곡 없이 빠르게 포착할 수 있습니다. 이는 수평이나 수직으로 빠르게 장면을 주사하여 상을 포착하는 롤링 셔터 카메라와는 대조적입니다. 두 번째 옵션은, 일부 롤링 셔터 카메라의 “글로벌 리셋” 모드입니다. 노출 시작 시간 동안 플래시를 사용하여 동작을 정지한 다음 나머지 노출 시간 동안 빛을 차단하는 글로벌 리셋 모드를 사용할 수 있다면, 롤링 셔터 카메라도 고속 AOI 시스템을 위한 옵션이 될 수 있습니다. 그러나 이 경우, 롤링 셔터 카메라가 위에서 언급한 고해상도, 빠른 프레임 속도 및 고성능 인터페이스와 같은 나머지 모든 요구 사항을 충족해야 하며, AOI 시스템이 시야에서 주변 조명을 제어할 수 있어야 합니다. 이러한 요구 사항을 모두 충족하는 경우에만 롤링 셔터 카메라를 고려해 볼 수 있습니다. PCB AOI 검사기에 대해 JAI사의 Spark 시리즈와 함께 알아봤습니다. 사실 PCB 검사를 위한 AOI 자동 광학 검사기는 시스템 구성을 위한 환경이 정말 너무 다양하기 때문에 오늘 언급한 해상도 및 속도가 최적의 조건이 아닐 수도 있습니다. 중요한 것은 설계의 환경을 잘 이해하고 최적의 비전 컴포넌트 구성을 하는 것입니다. 화인스텍은 AOI 시스템 설계에 필수적인 비전 시스템을 충분한 컨설팅을 통해 알맞은 컴포넌트 구성을 제안해 드릴 수 있습니다. 카메라, 렌즈, 프레임 그래버 선정 등 종합 머신비전 솔루션을 원하신다면 화인스텍으로 문의 바랍니다.
2024.05.17안녕하세요, 여러분! 화인스텍이 지난 3월 27(수) - 29(금)까지 서울 코엑스에서 개최됐던 ‘2024 스마트공장·자동화산업전(Smart Factory·Automation World 2024) 전시회를 무사히 마무리했습니다! 국내유일무이한 스마트팩토리 자동화 전시회인 SFAW에서 화인스텍은 다양한 자동화 산업 기반 시설의 효율성을 높이는 방향성을 제공하기 위한 목표를 갖고 차세대 기술력을 갖춘 제품으로 전시회 부스를 구성했습니다. 화인스텍 부스 메인 SFAW 전시회 화인스텍 부스 특히, 이번 전시회는 화인스텍과의 공식 해외 머신비전 파트너사들와 함께 협력하여 Industry 4.0, 공장 자동화, 인공지능 등 미래 기술에 적용 가능한 종합 머신비전 솔루션을 소개했기 때문에 더욱 특별한 시간이었습니다. 전시회 동안 로봇, 물류 산업에 필수인 3D 피킹 어플리케이션, 자율주행에 최적화된 초고속 데이터 전송이 가능한 GVIF 카메라, ITS 및 우주항공 산업에 적용 가능한 SWIR 솔루션 등이 뜨거운 관심을 받았는데요, 그 생생했던 현장을 사진을 통해 만나보세요! 3D 피킹 어플리케이션을 위한 솔루션 Instant Meshing with MotionCam-3D-Color MotionCam-3D Color + Bin Picking Studio 3D modeling in motion Euresys 보드 완전 동기화 멀티 보드간의 완벽한 동기화를 위한 C2C Link SONY 센서가 적용된 SWIR 카메라 웨이퍼 두께 710µm 투과 및 비투과 시연 Emberion SWIR 카메라 Emberion VS20 VIS 초고속 데이터 전송이 가능한 LVDS 규격의 GVIF 카메라 - 2024 머신비전 기술 세미나 - 화인스텍은 SFAW 2024 전시회에서 진행하는 세미나에도 참여했습니다. 기술부 이동국 대리가 '2D 검사의 어려움을 해결하는 Photometric 솔루션’ 주제로 스크래치 검사를 가능하게 하는 혁신적인 포토메트릭 기술을 소개했는데요, 이 세미나를 통해 제조업체의 품질 관리를 더욱 강화하고 모색하는 의미 있는 시간이었습니다. 화인스텍 2024 머신비전 세미나 화인스텍은 내년 2025 스마트공장·자동화산업전에 다시 참가할 예정입니다. 내년에는 어떤 기술과 주제로 여러분께 찾아올지 많은 기대 부탁드립니다!
2024.04.081. 2024 머신비전과 딥러닝 규모와 시장 방향 최근 AI 기술이 발전함에 따라 제조업계에서의 머신비전도 새로운 솔루션의 전환이 시작되어 가고 있습니다. Bizwit Research & Consulting LLP의 보고서에 따르면 세계의 딥러닝 시장은 2022~2029년에는 33.5% 이상의 성장률을 보일 것이라고 전했습니다. 딥러닝은 인간의 두뇌를 이루는 생물학적 신경망을 모방해 만든 컴퓨팅 시스템으로 대량의 정보를 수집, 분석 및 해석하여 데이터를 처리하여 다양한 산업과 업무에서 정확성, 신뢰성, 비용 절감, 생산성 등의 향상에 기여합니다. 정교한 작업이 가능한 AI 딥러닝은 소매업, 의료, 자동차, 농업, 보안, 로봇, 항공우주, 제조산업에서 다양한 솔루션을 제공합니다. 제조 산업에서 AI 기술은 2022년에서 2023년까지의 연 평균 47.8%의 성장성을 지속하고 있습니다. (자료 제공=VMR) 위 이미지에서 시장조사기관 VMR(Verified Market Research)이 최근 발표한 ‘글로벌 빅 데이터 시장’ 연구 보고서에서 제공한 자료에서 보이는 것처럼 제조업계에서 딥러닝 도입으로 인한 자동화는 이제는 선택이 아니라 필수입니다. 따라서, 머신비전 업계에서도 검사 자동화에 있어서는 룰(rule) 기반에서 딥러닝 기반을 통한 솔루션으로 부각되면서 딥러닝 기반 시스템으로 빠르게 전환되어 가고 있습니다. 2. 룰 기반에서 딥 러닝(Deep Learning) 시스템의 새로운 전환 | 룰 기반(Rule Based Learning) 시스템 VS 딥 러닝(Deep Learning) 기반 시스템 딥 러닝(Deep Learning) 이전의 머신비전은 주로 ‘룰 베이스(Rule base)’ 기반으로, 양품과 불량품 데이터를 각각 대량으로 확보한 뒤 머신비전 카메라로 촬영한 제품 사진과 비교해 양품과 불량품을 검사했습니다. 그러나 룰 기반은 기존 DB 기준을 넘어서는 불량에 대해 제대로 인식하지 못하는 미검 상황이 다수 발생합니다. 룰 베이스는 DB 안에서 이뤄지는 시스템이라면 딥 러닝(Deep Learning) 기반의 시스템은 양품과 불량품의 특징에 관한 데이터를 다층적으로 학습하여 DB에 등록되지 않은 데이터라도 미리 추출한 특징으로 기반으로 하여 합리적으로 불량 여부를 판단할 수 있는 기능을 제공합니다. 동시에 추가로 수집된 데이터를 스스로 학습하여 정확성과 생산성을 스스로 향상시킵니다. 현재 머신비전 분야는 ML·DL 등을 포함한 기술과 빅데이터 및 5G 같은 다양한 ICT 기술이 접목되면서 검사 정확도를 높이고 있으며, 공정 효율 개선에도 실질적인 도움을 주고 있습니다. Business Research insight의 머신비전 시장의 딥 러닝 보고서에 따르면 2022부터 2028년까지의 머신 비전 딥 러닝 시장 규모는 연평균 54.4%의 성장률(CAGR)을 나타낼 것이라고 예상했습니다. 이러한 추세에 따라 제조업계에서는 딥 러닝(Deep Learning)을 활용하여 높은 해상도, 실시간 처리, 효율적인 학습 알고리즘을 통해 새로운 유형의 불량 탐지의 정확성을 높여 산업 내에서 경쟁력을 유지하고 신기술에 대한 요구를 해결할 수 있는 기대감이 점점 더 커지고 있습니다. 3. 딥러닝과 머신비전의 융합 활용 사례 딥러닝은 인간의 두뇌를 이루는 생물학적 신경망을 모방해 만든 컴퓨팅 시스템입니다. 머신비전업계에서 딥러닝은 CNN*(컨볼루션 신경망)과 딥 피드 포워드*(deep, feed-forward) 방식의 인공 신경망으로, 이미지를 분석하는 데 가장 널리 적용되고 있습니다. 컨볼루션 신경망(CNN)은 부품 분류, 검출, 결함 감지 등을 효과적으로 수행하기 때문에 제조업에서는 이 기술을 활용하여 자동적이고 정확한 제품 검사, 결함 감지, 및 품질 향상을 위한 머신 비전 시스템을 구축할 수 있습니다. *CNN(컨볼루션 신경망)은 주로 이미지 인식 및 패턴 인식에 사용되는 딥러닝의 한 유형으로 이미지 처리 작업에 특화되어 있다. *딥 피드 포워드(deep feedforward)는 깊이(depth)가 깊다는 딥과 정보가 한 방향으로만 흐르는(feed-forward)라는 뜻의 구조로 이 신경망이 여러 층으로 구성되어 있고 정보가 깊다는 의미. 그리고 더 나아가 딥 러닝 기술을 활용하여 이미지 분석 및 검사 분야에서 혁신적인 솔루션을 제공하는 기업들이 존재합니다. 그 예로 Eurerys가 딥 러닝 기술로 실시간으로 부품을 분류하고 결함을 탐지하는 기술을 제조 업계에 제공함으로써 생산 효율성을 향상하고 품질 표준을 유지하는 데 기여해왔습니다. | 딥 러닝과 머신 비전의 융합 적용사례: Euresys – Open eVision 라이브러리 “머신비전 산업에서 대표적인 이미지 분석 라이브러리” Euresys는 이미지 및 비디오 수집 구성 요소, 프레임 그래버, FPGA IP 코어 및 이미지 처리 소프트웨어를 설계하고 제공하는 선도적이고 혁신적인 하이테크 기업입니다 Euresys는 Open eVision은 머신 비전 검사 애플리케이션을 독립적인 이미지로 처리하고 분석하는 라이브러리입니다. - 프레임 그래버, GigE 비전 및 USB3 비전 카메라를 포함한 모든 이미지 소스 호환 - Deep Learning 및 3D 같은 최신 기술 지원 - 정확한 서브 픽셀 측정 및 보정 - 64-bit libraries for C++ and .NET (C#, VB.NET, C++/CLI) under Windows (x86-64) - Linux(x86-64 또는 ARMv8-A)용 64비트 라이브러리 Open eVision 기술은 딥 러닝 기술을 활용하여 안정적이면서도 변화하는 환경에 대응하여 다양한 조건이나 요구에 유연하게 대처하는 머신 비전 검사를 제공합니다. 특히 딥 러닝 기술을 활용한 라이브러리인 Deep Learning Bundle은 새로운 보조 세분화 도구를 통하여 픽셀 단위의 완벽한 주석을 얻는 빠르고 효율적인 방법을 제시합니다. 이는 보조 세분화 도구를 통해 이미지를 작은 부분으로 분할하여 각 부분의 특성을 분석한 후에 이미지의 각 픽셀에 주석을 달아 물체나 특징을 픽셀 수준에서 정확하게 식별하고 기록하여 작업을 신속하고 효율적으로 동작하는 방법을 제공한다는 의미입니다. Euresys의 Deep Learning Bundle은 특히 머신 비전 애플리케이션의 이미지 분석을 위해 맞춤화, 매개변수에 최적화된 기술입니다. 또한, Deep Learning Bundle은 데이터 증강(Data Augmentation) 기능을 활용하여 딥 러닝 신경망을 학시키는 방식으로 작동합니다. 다시 말해, 프로그램 가능한 한계 내에서 기존의 기준 이미지를 수정(예: 이동, 회전, 확대)하여 추가로 기준 이미지를 생성하는 '데이터 증강'을 구현합니다. 이로써 Deep Learning Bundle은 클래스 당 겨우 100개의 학습 이미지로도 효과적으로 작동할 수 있습니다. 데이터 증강(Data Augmentation) 따라서, Deep Learning Bundle은 Open eVision 라이브러리의 핵심 부분으로 데이터 증강과 보조 세분화 도구를 통해 이미지 주석을 신속하고 정확하게 수행하여 기술적 효율성과 성능을 향상시켜 머신 비전 검사 분야에서 안정적이고 유연한 솔루션을 제공합니다. 특히, Deep Learning Bundle은 분류(EasyClassify), 분할(EasySegment), 로컬라이제이션(EasyLocate)과 같은 다양한 딥 러닝 솔루션을 통해 Open eVision 라이브러리의 핵심 부분으로서 기술적인 효율성과 성능을 높이고 있습니다. | Deep Learning Bundle이 제공하는 세가지 특징 및 적용사례 Deep Learning Bundle은 Open eVision 라이브러리의 일부이며 딥 러닝 라이브러리는 딥 러닝이 솔루션을 제공하는 세 가지 특정 기능, 즉 분류(EasyClassify), 분할(EasySegment), 로컬라이제이션(EasyLocate)에 대응하는 소프트웨어 도구로 구성되어 있습니다. 1) Euresys Deep Learning Bundle의 분류 라이브러리: EasyClassify EasyClassify는 이미지 분류를 위한 Deep Learning의 분류 도구로, 불량 감지 및 제품 인식과 같은 작업에 사용됩니다. 이 도구는 소프트웨어 사용자가 초기에 머신비전 시스템을 통해 취득한 이미지에 라벨링 작업을 하면 그 후 EasyClassify가 딥 러닝 기술을 활용하여 주어진 이미지가 특정 클래스에 속할 확률을 계산하고, 이를 클래스로 할당합니다. 즉, 이미지가 학된 각 클래스에 속할 가능성을 확률로 제시해 줍니다. 사용자는 어떤 부품이 양호하고 어떤 부품이 불량하며 어떤 부품이 어떤 클래스에 속하는지만 알려주면 됩니다. 이 학습 프로세스 후에 EasyClassify 라이브러리가 이미지를 분류합니다. EasyClassify는 결함을 명확하게 규정하기 어려울 때 기존 머신 비전보다 더 성능이 뛰어납니다. 예를 들면, 다양한 스케일 및 위치에서 복잡한 모양과 텍스처에 따라 분류가 달라지는 경우가 여기에 해당합니다. 2) Euresys Deep Learning Bundle의 분할 라이브러리: EasySegment EasySegment은 개체 및 결함을 쉽게 분할할 수 있도록 설계된 Deep Learning Bundle의 분할 도구입니다. 이를 활용하여 결함이 포함된 부품을 식별하고 그 결함이 이미지의 어떤 위치에 있는지 정확하게 구분합니다. Euresys-EasySegment EasySegment는 이미지의 정상 및 비정상 결함을 감지하고, 결함이 없는 “우수한” 이미지만을 학습하는 무감독(비지도 학습) 모드와 결함 이미지를 분할하고 더 나은 분할과 "결함 감지"를 위해 결함 모델도 학습하는 감독(지도 학습) 모드가 존재합니다. EasySegment의 무감독(비지도 학습)과 감독(지도 학습) 적용 사례: 무감독 모드를 활용한 샘플 데이터 세트: 패브릭 결함 감지 무감독(비지도 학습) 모드: “패브릭” 샘플 데이터 세트는 어떻게 EasySegment의 무감독 모드를 사용하여 소수의 양호한 샘플만 학습하고 어떤 종류의 결함이 예상되는지 알려주지 않은 상태로 패브릭에서 결함을 감지 및 분할할 수 있는지를 보여줍니다. 감독 모드를 활용한 샘플 데이터 세트: 커피 이물질 감지 및 분할 감독(지도 학습) 모드: “커피” 샘플 데이터 세트는 어떻게 EasySegment의 감독 모드를 사용하여 이물질의 색상과 질감이 커피와 매우 유사한 경우에도생산 라인에서 이물질을 효율적으로 감지 및 분할할 수 있는지를 보여줍니다. 정리하자면, EasySegment의 무감독 모드는 양호한 샘플의 이미지만 학습하기 때문에, 결함의 유형을 알고 있지 않은 경우나, 결함 샘플이 준비되지 않는 경우에도 검사를 수행할 수 있습니다. 반면, EasySegment 감독 모드는 무감독 모드보다 더 나은 정확도를 달성하고 더 복잡한 결함을 분할할 수 있습니다. 또한 EasySegment를 무감독 모드로 돌려서 얻은 결과를 확인하고, 그 결과를 실제 데이터와 비교해서 필요한 부분을 가져와서 감독 모드를 위해 필요한 주석을 더 쉽게 달거나 편리하게 활용할 수 있습니다. 3) Euresys Deep Learning Bundle의 현지화 및 분류 라이브러리: EasyLocate EasyLocate는 딥 러닝 번들의 일부로, 사물의 위치를 찾아내고 식별하는 도구입니다. 주로 이미지에서 물체, 제품 또는 결함을 찾아내고 그것들을 구분하는 데 사용됩니다. 특히 EasyLocate는 이미지에 겹쳐 있는 물체를 식별할 수 있는 능력을 갖추고 있어, 해당 물체들의 개별적인 개수를 계산하는 데에도 활용될 수 있습니다. EasyLocate는 축 정렬 바운딩 박스와, 관심점 총 두 가지 방법을 사용하여 사물의 위치를 찾아낼 수 있습니다. 축 정렬 바운딩 박스를 이용한 샘플 데이터 첫 번째로는 “축 정렬 바운딩 박스” 방법으로 다양한 개체 및 크기에 정확한 주석 및 위치를 지정합니다. 이미지 속에서 찾은 각 개체(또는 결함)를 둘러싼 축 정렬 바운딩 박스를 만든 후 각각의 틀에 어떤 종류의 물체나 결함인지에 관한 클래스 레이블을 각 바운딩 박스에 할당합니다 위의 샘플 데이터처럼 "전자 부품" 데이터 세트는 EasyLocate 바운딩 박스가 열악한 조명 조건에서도 비닐봉지 안에 대량으로 보관된 다양한 종류의 전자 부품을 안정적으로 감지하고 계산할 수 있는 방법을 보여줍니다. 관심점을 이용한 샘플 데이터 두 번째는 관심점 방법으로 크기가 유사한 개체에 대한 빠른 단일 포인트로 주석 및 위치를 지정합니다. 즉, 이미지 속에서 크기가 비슷한 물체들을 예측하고 각 위치에 클래스 레이블을 할당하여 신속하게 하나의 지점으로 표시합니다. 단, 이 방법은 이미지의 모든 개체(또는 결함)의 크기가 비슷해야 합니다. 왼쪽의 샘플 데이터에서 보여지는 것처럼 “세라믹 커패시터 데이터 시트”는 EasyLocate 관심점이 서로 겹치거나 접촉하는 많은 세라믹 커패시터를 안정적으로 감지하고 정확하게 계산할 수 있는 방법을 보여줍니다. EasyLocate 관심점을 사용하면 한 번의 클릭으로 개체에 주석을 추가할 수 있으므로 주석 처리가 더 빨라집니다. 현재 Euresys의 Deep Learning Bundle의 EasyClassify / EasySegment / EasyLocate 툴은 표식 검사나 LED 검사가 필요한 전자제품 제조 산업에서 활용하고 있으며 일반 제조 산업용에서도 존재 여부 검사, 표면 분석, 어셈블리 검사, 레이블 인쇄 기계의 코드 품질 검증 등에 머신 비전 솔루션을 제공하고 있습니다. 앞으로 자동화 산업에서 성공적인 어플리케이션 구현에 있어 이미지 데이터 관리의 중요성은 더욱 강조될 것 입니다. 4. 딥 러닝 머신비전 솔루션, 제조산업의 자동화를 혁신하다 | Conclusion 머신 비전은 많은 이점을 제공하지만 이미지 품질에 영향을 미치는 일관되지 않은 조명 조건 및 실시간 처리에 대한 강력한 계산 능력과 같은 도전에 직면하고 있습니다. 또한 다양한 장치와의 상호 운용성 및 통합을 보장하기 위한 계속된 개발이 필요합니다. 따라서 인공 지능과 머신 비전의 융합은 머신 비전 업계에서 운영 효율성에서 중요한 전환을 의미합니다. 이차전지 제조과정에서는 2.5D 알고리즘과 LED 광학계 조명을 적용하여 영상처리 및 전처리 알고리즘이 강조되고 있습니다. 제조 산업이 계속해서 디지털 혁신을 수용함에 따라 비전 검사에서 딥 러닝의 역할이 진화하고 있습니다. 이러한 발전으로 제품 품질, 운영 효율성, 그리고 전반적인 경쟁력이 향상될 것으로 예상됩니다. 머신 비전을 적용한 다양한 솔루션은 산업 자동화와 스마트 제조 분야에서 주요 요소로 인식되어 제품 품질 향상과 생산 공정 효율화에 기여하고 있습니다. 뿐만 아니라 이차전지, 제약, 의료, 바이오 분야에서도 딥 러닝을 활용한 머신 비전 솔루션이 도입되고 있습니다. 마지막으로 식품 검사 및 분류를 위한 머신 비전은 특히 두드러지게 늘어나고 있습니다. 특히 패키징 공정에서는 딥 러닝을 기반으로 한 솔루션을 활용하여 제품 결합 여부를 확인하고 제품 누출을 방지하며 배송 지연을 예방할 수 있습니다. 물류 자동화의 핵심 기술인 AGV(무인운송로봇) 및 AMR(자율이동로봇)과 같은 로봇에도 머신 비전 솔루션이 도입되어, 로봇이 물건을 감지하고 이동하는 데 도움이 됩니다. 그러므로 머신 비전 자동화에 대한 딥 러닝 기술의 활용은 로봇 공학, 자율 주행 차량, 그리고 스마트 제조 분야에서 계속해서 증가할 것으로 전망됩니다. Euresys의 Deep Learning Bundle에 관한 자세한 내용을 알고 싶으시다면 화인스텍 홈페이지에서 확인해보시기를 바랍니다! 참고 자료: 유레시스 홈페이지 지티티코리아(https://www.gttkorea.com) 인더스트리뉴(https://www.industrynews.co.kr/news/articleView.html?idxno=49846)
2024.01.08옵토튠(Optotune)은 스위스 기업으로, 광학 솔루션을 제공하는 회사입니다. 주로 튜닝 가능한 렌즈 및 광학 시스템을 개발하여 다양한 산업 및 응용 분야에 전자적 혹은 기계적으로 렌즈의 형태를 조절할 수 있는 혁신적인 기술을 제공하여 여러 산업의 광학 시스템의 성능을 최적화하는 것을 목표로 하고 있습니다. Optotune사 제품 개발의 목적성은 뚜렸합니다. "Working Distance가 계속 변화하는 환경에서 어떻게 지속적으로 초점을 맞출수 있을까?" WD가 서로 다른 물체에 포커스를 맞춰야 한다면? Optotune의 렌즈는 전자적으로 초점 튜닝이 가능한 렌즈입니다. 이 렌즈는 컨트롤 신호에 따라 렌즈의 곡률을 조절함으로써 초점 거리를 조절할 수 있습니다. Optotune Tunable Lens 옵토튠 가변 초점 렌즈의 원리는 우리의 눈이 초점을 변경하는 원리와 같다고 보시면 됩니다. 일반적인 머신비전 렌즈(고정 초점)는 초점을 맞추기 위해 위, 아래로 WD 변경을 통해 초점을 조정합니다. 혹은 유리 등의 고체를 활용하여 초점을 맞춥니다. 옵토튠 렌즈는 사람의 눈 처럼 렌즈 자체의 형태를 변경하여 초점을 조정합니다. 오목과 볼록 모두 가능한 형식의 형상 분리 렌즈가 큰 특징입니다. 유동체(Liquid)와 분리막(Membrane)으로 이루어진 용기를 활용하여 렌즈의 곡률을 조절합니다. 이는 단순 카메라의 초점 기능을 넘어서는 물류 레이저 가공 및 마킹 메디컬 분야 자동차 산업 레이저 스캐팅 및 3D 인쇄 등 다양한 분야에서 활용될 수 있습니다. 높이가 다른 택배 상자의 바코드 라벨 초점을 빠르고 쉽게 읽어낼 수 있습니다. Optotune 렌즈 곡률 조절을 통한 레이저 초점 조절 Optotune 렌즈 초점 조절을 활용한 레이저 마킹 및 3D 어플리케이션 옵토튠의 가변 초점 렌즈는 대상의 크기, 초점 능력, 파장 범위(400-2500nm) 등의 다양한 조건에 따른 제품 군이 나누어져 있습니다. KEY FEATURES Response time of few milliseconds Low dispersion (Abbe# V>100) Lifetime > 1 billion cycles High repeatability <0.1 dpt Optotune Electrically tunable lenses products specifications Optotune 가변 초점 렌즈의 더 자세한 정보는 홈페이지를 통해 확인해보세요. http://www.fainstec.com/main/product.asp?cate=%EB%A0%8C%EC%A6%88&o_idx=119
2023.11.28