에지 AI

콘텐츠

상위

에지 컴퓨팅

에지 AI 및 머신 러닝

머신 러닝 학습 방법

임베디드 머신 러닝

ML 소프트웨어

TensorFlow

TensorFlow Lite

PyTorch와 ExecuTorch

에지 AI와 ML 하드웨어

요구 사항

NPU

TPU

Edge Impulse

AI를 통한 감지

머신 러닝이 적용된 비전 센서

머신 러닝이 적용된 동작 센서

에지 AI

에지 컴퓨팅이란, 말 그대로 네트워크 에지에 있는 데이터 소스의 물리적 위치 또는 근처에서 이루어지는 컴퓨팅을 의미하며, 멀리 떨어진 데이터 센터에 상주하는 클라우드 컴퓨팅과는 다릅니다. 스마트 홈 어시스턴트(Alexa 또는 Siri) 등의 제품에 에지 AI가 탑재되어 있습니다. "헤이 알렉사"라고 말하면 에지 AI가 그 문구를 인식하여 스마트 홈 어시스턴트를 깨웁니다.

에지 컴퓨팅

컴퓨팅 서비스에 대한 수요가 날로 증가함에 따라, 대규모의 중앙 집중식 데이터 센터로부터 벗어나려는 움직임은 의외로 느껴질 수 있습니다. 하지만 데이터 소스와 더 가까운 곳에서 컴퓨팅을 하면 개인정보 보호에 대한 걱정을 줄일 수 있습니다. 이전에는 주변 장치와 단말의 영역이었던 네트워크 에지에서 이제는 고급 처리 기능이 구현되고 있습니다.

실시간 처리가 늘어나면서 에지 컴퓨팅의 필요성이 더욱 증가하고 있습니다. 에지 컴퓨팅은 이미 여러분의 주위에서 사용되고 있을 수도 있습니다.

  • 스마트 홈 어시스턴트(Alexa, Google, Siri 등)는 에지 컴퓨팅의 한 형태인 '호출 명령어' 감지를 사용합니다. 이러한 경우, 장치는 빠르게 응답하고 사용자의 개인 정보를 보호해야 하므로 에지 컴퓨팅이 필요합니다.
  • 운전자가 차선을 벗어날 때 알림을 제공하는 등의 기능에 중점을 둔 첨단 운전자 지원 시스템(ADAS)에서는 클라우드에 갔다 와야 하는 처리 시간을 기다리거나 네트워크의 응답 지연 위험을 감수할 수 없습니다.
  • 환자 모니터링(예: 혈당 모니터)은 환자 근처에서 사용됩니다. 데이터는 해당 환자의 스마트폰(또는 로컬 장치)으로만 전송할 수 있으며, 이를 통해 건강 데이터를 보호하여 인터넷에 노출될 가능성을 줄일 수 있습니다.
  • 예지보전 모델은 산업용 모터의 진동 변화에 대한 이상을 감지하여 모터가 고장나는 시점을 예측합니다. 이상 징후가 감지되면 경고가 발생하고 이후 클라우드로 전송하겠지만, 그 외의 시간에 소프트웨어는 에지에서 데이터를 분석하고 있으므로 네트워크 혼잡을 줄일 수 있습니다.

에지 컴퓨팅과 클라우드 컴퓨팅의 차이점은 무엇인가요? 답변 보기

클라우드 컴퓨팅은 보통 데이터 센터(일반적으로 생성되는 데이터가 처리되는 곳에서 멀리 떨어져 있음) 내에 상주하는 일련의 서비스를 의미합니다. 클라우드 컴퓨팅 워크로드는 중앙 처리 장치(CPU) 또는 그래픽 처리 장치(GPU)가 구동되는 서버에서 처리됩니다.

에지 컴퓨팅은 생성되는 데이터와 가까운 곳에 위치한 서비스를 의미합니다. 에지 컴퓨팅 워크로드는 보통 마이크로 컨트롤러 또는 싱글 보드 컴퓨터(SBC)에서 처리됩니다.

Schematic drawing of a stack of Raspberry Pi Computer Boards with stand offs

단일 기판 컴퓨터(SBC)는 에지에서 탁월한 처리 성능을 제공할 수 있지만, 설계자는 가장 적합한 솔루션을 선택하여 적용하는 방법을 알아야 합니다.

자세히

Image of Related Content Card Efinity IDE, Trion FPGA, and Quantum ASIC

Efinix의 Quantum 지원 FPGA를 사용하여 AI, ML 및 이미지 처리 에지 컴퓨팅 구현에서 전력, 성능, 면적 이득을 실현하세요.

자세히

Image of Related Content Card CR3111-3000 split-core current sense transformer

설계자는 복잡한 다축 가속도계 대신 간단한 센서를 선택하여 인공 지능을 위한 데이터 수집을 간소화할 수 있습니다.

자세히

Close up of Smart Home Hub

Let’s take a look at the installation and setup process of ‎Home Assistant on a cost and power-effective x86 single-board computer (SBC)

자세히

에지 AI 및 머신 러닝

인공지능(AI)과 머신 러닝(ML)의 가장 포괄적인 의미는 컴퓨터 알고리즘과 통계 모델을 사용하여 직접적인 명시적 지시 없이 작업 성능을 향상시키는 것입니다. 이 기능을 통해 개발자가 모든 동작을 정의하지 않아도 명시적으로 정의된 기존 프로그래밍에 변화를 가져와, 인터넷 콘텐츠 추천, 음성 인식, 의료 및 자율 주행 자동차에 이르기까지 거의 모든 분야에서 새로운 용도로 활용되고 있습니다.

일상 생활에서 점점 더 많은 시스템이 어느 정도 수준의 ML 상호작용을 사용하게 되면서, 엔지니어와 개발자가 사용자 상호작용의 미래를 이해하기 위해서는 이러한 세계를 이해하는 것이 매우 중요해졌습니다.

인공지능(AI)은 광범위한 분야이며, 특히 머신 러닝(ML)은 에지에서 가장 많은 기회가 있을 것으로 예상되는 분야입니다. 머신 러닝은 통계 알고리즘을 기반으로 패턴 매칭을 수행하는 프로세스입니다.

신경망 사용은 머신 러닝의 일반적인 학습 방법 중 하나이며, 아래 그림은 이러한 모델의 노드와 가중치를 나타냅니다.

딥러닝은 신경망에 여러 개의 숨겨진 레이어가 있는 특수한 유형의 머신 러닝입니다.

머신 러닝 모델이란 무엇인가요? 답변 보기

머신 러닝 모델이란 학습 데이터에서 발견된 패턴을 기반으로 입력 데이터를 인식하고 분류하도록 설정된 소프트웨어 프로그램입니다. ML 모델은 학습 데이터를 사용하여 데이터에서 발견되는 패턴을 추출한 다음, 이러한 패턴을 사용하여 향후 결과를 예측하고 더 정확한 모델로 다듬을 수 있습니다.

머신 러닝 학습 방법

제대로 잘 작동되는 ML 모델이 탄생하려면 학습의 과정이 필요합니다. 모델을 학습시키는 데 사용할 수 있는 여러 가지 학습 방법이 있습니다.

  • 지도 - 레이블과 태그가 지정된 샘플 데이터를 기반으로 하는 학습 유형으로, 마치 가정 교사가 숙제를 교정해 주는 것처럼, 출력은 알고 있는 값이어서 올바른지 여부를 확인할 수 있습니다. 이 유형의 훈련은 통상적으로 분류 작업이나 데이터 회귀와 같은 응용 분야에서 사용됩니다. 지도 학습은 매우 유용하고 정확도가 높지만, 태그가 지정된 데이터 세트에 따라 그 학습이 상당히 좌우되며 새로운 입력은 처리하지 못할 수도 있습니다.
  • 비지도 - 출력이 정해진 레이블된 학습 데이터 대신 학습 알고리즘을 사용하여, 레이블이 없는 데이터 세트에서 데이터 클러스터를 연구, 분석 및 발견합니다. 통상적으로 비지도 학습은 대규모 데이터 세트를 연구하고 데이터 포인트 간의 관계를 찾아야 하는 응용 프로그램에서 사용됩니다.
  • 준지도 - 지도와 비지도 학습이 혼합된 형태입니다. 학습 데이터 세트에는 태그가 지정된 데이터와 태그가 지정되지 않은 데이터가 모두 포함되어 있습니다. 준지도 학습은 다른 방법보다 더 넓은 범위의 입력 데이터를 처리할 수 있지만, 지도 학습이나 비지도 학습보다 더 복잡할 수 있으며 레이블이 지정되지 않은 데이터의 품질이 최종 모델의 정확도에 영향을 미칠 수 있습니다.
  • 인간의 피드백을 통한 강화 학습(RLHF) - 명확하게 정의할 수 있는 행동, 성과 지표, 그리고 채점 및 개선이 가능한 결과를 함께 사용할 필요가 있는 학습 유형입니다. 규칙 집합과 취할 수 있는 행동을 정의함으로써, 강화 학습은 목표 조건을 달성하기 위한 다양한 행동 방침을 평가하기 위해 지속적으로 반복할 수 있습니다.

임베디드 머신 러닝

임베디드 ML은 다음과 같은 모델의 실행에 중점을 둔 머신 러닝의 하위 분야입니다.

  • 낮은 지연 시간(서버를 기다리거나 서버 도달에 걸리는 네트워크 지연 시간을 해결하지 않아도 됨)
  • 낮은 대역폭(네트워크를 통해 고해상도 데이터를 반환하지 않음)
  • 저전력(W가 아닌 mW)

임베디드 ML 모델은 서버나 개인용 컴퓨터와 같은 대규모 데이터 처리 하드웨어에 의존하는 대신 마이크로 컨트롤러, FPGA, DSP와 같은 소형 저전력 소자에 배포될 수 있습니다.

임베디드 ML 응용 프로그램에 대한 모델 학습은 서버 또는 컴퓨터에서 수행할 수 있습니다. 이는 모든 데이터를 입력하여 결과 모델을 생성하는 과정입니다.

임베디드 ML 모델이 생성되고 나면, 임베디드 시스템에서 실행시킬 수 있습니다. 임베디드 ML의 일반적인 응용 프로그램에는 호출 명령어를 인식하고 활성화, 사람인지 사물인지 식별, 또는 센서의 데이터 스트림에 기반하여 이상 징후 탐지 등이 있습니다.

에지 AI(또는 임베디드 ML)의 이점은 무엇인가요? 답변 보기

  • 낮은 지연 시간: 멀리 떨어진 서버나 네트워크 지연 시간을 기다릴 필요가 없습니다.
  • 낮은 데이터 대역폭: 네트워크를 통해 대용량의 고해상도 데이터를 전송하거나 반환하지 않습니다.
  • 개인정보 보호: 사전 필터링된 센서 출력에 따라 에지 장치에서 의사 결정을 내리므로 인터넷을 통해 데이터를 전파할 필요가 없습니다.
  • 낮은 전력 소비: 임베디드 ML은 와트가 아닌 밀리와트 단위로 전력을 사용하므로, 배터리로 구동되는 모바일 장치에 적합합니다.
  • 작은 데이터 풋프린트: 임베디드 ML은 수십 킬로바이트의 소량 플래시 메모리에 적합하도록 설계되었습니다.
  • 경제적이고 저렴한 장치: 임베디드 ML은 32비트 MCU에서 로컬 연산이 가능하며, 전체 시스템 가격이 50달러 미만인 경우가 많습니다.
Image of Related Content Edge AI software architecture

에지 AI 소프트웨어 아키텍처는 개발자가 파이썬과 C++ 같은 전혀 다른 언어로 완벽하게 응용 프로그램을 개발할 수 있도록 해줍니다.

자세히

Image of Related Content EK-RA8M1 eval board

Renesas RA8M1 마이크로 컨트롤러의 Arm Helium MVE SIMD 확장을 통해 강력한 AI 및 ML을 빠르고 효율적으로 제공할 수 있습니다.

자세히

Screen Shot of What is Edge AI? Machine Learning + IoT video

The term “Edge AI” might be the new buzzword, much like “Internet of Things” was in 2016/2017. To understand this growing new trend, we need to provide a solid definition of what constitutes “Artificial Intelligence on the Edge.”

자세히

Image of Related Content NN modeling

에지에서의 기계 학습 구현이 NXP의 i.MX RT1170 크로스오버 MCU 및 관련 기판 및 소프트웨어 도구를 통해 크게 간소화되었습니다.

자세히

Image of Related Content Card Smart Home Scenes

머신 러닝을 통해 스마트 홈 장치와 더욱 원활하게 상호작용할 수 있는 스마트 홈 씬을 실현할 수 있습니다.

자세히

ML 소프트웨어

TensorFlow

TensorFlow는 머신 러닝 모델을 구축, 학습 및 배포하기 위한 무료 오픈 소스 소프트웨어 라이브러리입니다. 2011년 Google에서 Google Brain 프로젝트를 위해 처음 개발했으며, 2015년에 일반에 공개되었고 2019년에 업데이트된 최신 버전인 TensorFlow 2.0이 출시되었습니다.

TensorFlow는 머신 러닝 학습과 심층 신경망 추론에 있어 가장 인기 있고 널리 사용되는 프레임워크입니다. 많은 개발자가 Python API 라이브러리를 통해 TensorFlow와 상호 작용하지만, TensorFlow는 Java, JavaScript 및 C++ 프로그래밍 언어와도 호환됩니다. 타사 패키지를 사용하면 옵션이 더 늘어나서 MATLAB, R, Haskell, Rust 등의 거의 모든 언어를 사용할 수 있습니다.

TensorFlow Lite

TensorFlow Lite는 소규모 작업을 위해 설계된 TensorFlow의 하위 라인으로, 임베디드 시스템, 모바일 장치, 에지 컴퓨팅 장치와 같이 하드웨어가 제한되고 전력이 한정된 장치가 여기에 포함됩니다. 개발자는 TensorFlow에서 기존 ML 모델을 학습, 생성 또는 수정한 다음, 모바일 장치에서 실행할 수 있는 TensorFlow Lite를 사용하여 더 작고 효율적인 소프트웨어 패키지로 변환할 수 있습니다.

그러나 마이크로 컨트롤러 플랫폼에 배포된 후에는, 로컬에서 수행하기에는 너무 많은 컴퓨팅 성능과 시간이 필요하기 때문에 장치에서 ML 모델에 대한 추가 학습이 이루어지지 않는 것이 일반적입니다. 즉, 통상적으로 새로운 데이터 소스 없이 오프라인에서 완전히 학습이 완료된 모델입니다. 이러한 제한적인 접근 방식으로 인해, 단일 작업을 수행하는 응용 분야에 적합하나 광범위한 데이터 정렬이 필요합니다.

TensorFlow와 TensorFlow Lite의 차이점은 무엇인가요? 답변 보기

TensorFlow에는 더 큰 규모의 컴퓨팅 하드웨어와 완전한 범용 운영 체제(GPOS)가 필요하며,

TensorFlow Lite는 임베디드 시스템, 모바일 장치 및 에지 컴퓨팅 장치에서 ML 모델을 실행하는 데 최적화되어 있습니다.

GPOS를 운영하는 Raspberry Pi 4와 같은 싱글 보드 컴퓨터(SBC)는 적절한 크기의 SBC에서 전체 TensorFlow를 실행할 수 있지만, 일반적으로 전력 소비가 10w ~ 20W로 MCU나 DSP보다 훨씬 높습니다.

일반적으로 모델 학습은 TensorFlow에서 수행되며, 경량 임베디드 시스템에서 모델을 실행하려면 TensorFlow Lite에서 실행되도록 변환됩니다.

PyTorch와 ExecuTorch

에지의 하드웨어 플랫폼에서 ML 모델을 실행할 필요성이 증가함에 따라, PyTorch는 스마트폰, 웨어러블 장치 및 임베디드 플랫폼에서 머신 러닝 모델을 실행할 수 있는 완전한 엔드 투 엔드 소프트웨어 툴인 ExecuTorch를 개발하였습니다. 모델링부터 변환 및 배포까지 일반 PyTorch와 동일한 툴체인 및 SDK를 사용할 수 있는 ExecuTorch는 다양한 CPU, NPU 및 DSP 플랫폼과도 호환됩니다.

ExecuTorch는 PyTorch 2.0으로 제작되어 사용자 친화적이며, 스마트폰 애플리케이션에 대한 안드로이드 지원을 포함하여 다양한 장치에서 지원됩니다.

PyTorch Edge, ExecuTorch, PyTorch Mobile의 차이점은 무엇인가요? 답변 보기

PyTorch Edge는 에지에서 ML 모델을 실행하는 개념입니다. PyTorch Mobile은 이를 구현한 레거시 툴셋이며, ExecuTorch는 에지에서 PyTorch 모델을 실행하기 위한 최신 툴셋입니다.

PyTorch Mobile은 PyTorch를 모바일 장치, 특히 iOS, Android 및 Linux 기반의 모바일 장치로 옮기려는 초기 시도였으나, 애플리케이션 시작 시 정적 메모리 공간을 요구하는 제약이 있었습니다. 반면 ExecuTorch는 필요할 때에만 메모리를 할당하는 동적 메모리를 사용하며, 이는 메모리가 제한된 환경에서는 매우 중요한 조치입니다.

PyTorch에서 TensorFlow 모델을 실행할 수 있나요(또는 그 반대도 가능)? 답변 보기

TensorFlow와 PyTorch는 유사한 소프트웨어 환경이긴 하지만, 현재 서로 직접적으로 상호 호환되지는 않습니다. 각 시스템에서 사용하는 학습 방법과 모델 파일 출력이 다르므로, 특정 모델을 다른 에코시스템에서 사용하기는 어렵습니다.

하지만 다행히도 이 둘 간에 쉽게 전환할 수 있는 방법이 있습니다. ONNX 또는 오픈 신경망 교환은 ML 에코시스템 간에 학습 모델 파일을 변환할 수 있는 툴이 있는 오픈 소스 ML 소프트웨어 시스템입니다.

ONNX는 ML 에코시스템 간의 중간 단계 역할을 수행하므로, 개발자는 다양한 ML 학습 방법으로 작업하고 다양한 방법에서 모델을 최적화할 수 있습니다.

Image of Related Content Syntiant TinyML

Syntiant의 TinyML (Tiny Machine Learning, 초소형 머신 러닝) 개발 보드는 저전력 음성, AED(Acoustic Event Detection, 음향 사건 인지) 및 센서 머신 러닝 애플리케이션 구축을 위한 플랫폼입니다.

자세히

Image of Related Content Keyword spotting is an interesting use case for tinyML

STM32 마이크로 컨트롤러에서 머신 러닝 응용 제품을 빠르게 시작하고 탐구하세요.

자세히

Screenshot of the TensorFlow Lite object detection video

In this tutorial, I’ll walk you through the process of installing TensorFlow Lite on a Raspberry Pi and using it to perform object detection with a pre-trained Single Shot MultiBox Detector (SSD) model.

자세히

Screenshot of the of the TensorFlow Lite Microcontroller kit

Machine learning has come to the 'edge' - small microcontrollers that can run a very miniature version of TensorFlow Lite to do ML computations. But you don't need super complex hardware to start developing your own TensorFlow models! We've curated a simple kit to dip your toes into machine learning waters.

자세히

에지 AI와 ML 하드웨어

마이크로 컨트롤러용 TensorFlow Lite는 마이크로 컨트롤러 규모의 응용 프로그램을 위해 설계된 머신 러닝 소프트웨어 플랫폼입니다. 운영 체제나 C/C++ 라이브러리 또는 동적 메모리 할당이 필요치 않아, 마이크로 컨트롤러용 TensorFlow Lite는 표준 프로그래밍 옵션보다 작지만 훨씬 더 강력해질 수 있습니다.

마이크로 컨트롤러에서 에지 AI를 사용하는 이유는 무엇인가요? 답변 보기

마이크로 컨트롤러는 전 세계 수십억 개의 장치에서 사용되는 작고 유연한 저전력, 저비용의 옵션으로, 전체 컴퓨터 시스템이 필요하지 않은 경우에 유용합니다. 마이크로 컨트롤러는 로컬에서 의사 결정을 내리고 수신 데이터를 처리하는 기능인 머신 러닝 분야에서 특히 주목받고 있습니다. 로컬에서 데이터를 처리하면 최종 사용자의 개인정보를 보호할 수 있다는 추가적인 이점이 있습니다. 예를 들어, 현관 초인종의 비디오 데이터를 클라우드에 업로드하지 않고도 누가 현관문으로 접근하고 있는지 확인하고 싶을 수도 있습니다.

요구 사항

마이크로 컨트롤러용 TensorFlow Lite는 C++17 프로그래밍 언어로 개발되었으며, 작동을 위해서는 32비트 마이크로 컨트롤러 플랫폼이 필요합니다.

마이크로 컨트롤러용 TensorFlow의 소프트웨어 코어 작업은 최소 16KB의 메모리로 ARM Cortex M 플랫폼에서 실행할 수 있으며, 널리 사용되는 EPS32 플랫폼에도 포팅되어 있습니다. 적합한 Arduino 플랫폼으로 작업하는 것을 선호하는 경우, 마이크로 컨트롤러용 TensorFlow Lite 프레임워크용 Arduino 소프트웨어 라이브러리도 있습니다.

마이크로 컨트롤러용 TensorFlow Lite 사용 시 제약 사항은 무엇인가요? 답변 보기

마이크로 컨트롤러용 TensorFlow Lite는 가장 작은 하드웨어 요구 사항에서도 작동할 수 있는 강력한 머신 러닝 플랫폼이긴 하지만, 다음과 같은 여러 제약 사항으로 인해 개발에 어려움이 있을 수 있습니다.

  • 공식 지원되는 장치가 소수로 제한됩니다(통상적으로 고성능 32비트 플랫폼).
  • TensorFlow Lite와 마찬가지로 마이크로 컨트롤러에 대한 온디바이스 교육은 지원되지 않습니다.
  • Basic TensorFlow 연산의 일부 하위 집합만 지원됩니다.
  • 메모리 관리를 위해 저수준 C++ 애플리케이션 프로그래밍 인터페이스(API)가 필요할 수 있습니다.

기타 임베디드 시스템

Raspberry Pi 플랫폼과 같이 임베디드 Linux 또는 SBC를 실행할 수 있는 더 강력한 하드웨어 시스템에서 ML 모델을 배포하면 TensorFlow Lite 플랫폼도 실행할 수 있습니다.

하드웨어 가속기

칩 수준에서는, 머신 러닝의 연산 및 사용되는 신경망을 지원하기 위해 특정 프로세서에 더 많은 전용 연산 논리가 추가되고 있습니다.

NPU

신경망 처리 장치(NPU)는 신경망에 기반한 머신 러닝 및 인공 지능 응용 프로그램의 처리를 가속화하도록 설계된 특수 IC입니다.

신경망은 정보를 처리하고 전달하는 뉴런이라고 하는 많은 층과 노드가 상호 연결된 인간의 뇌를 기반으로 하는 구조입니다.

TPU

텐서 처리 장치(TPU)는 신경망 기반 시스템의 원활한 처리를 위해 2015년에 Google에서 개발한 특별 IC이나, NPU와는 달리 신경망 기반 시스템 아키텍처를 사용하여 처리하는 것이 아니라 행렬 곱셈과 합성곱 연산을 빠르게 처리함으로써 처리를 수행합니다.

TPU는 적은 에너지 사용으로 수학 행렬 연산을 처리하는 데 고도로 최적화되어 있어 TensorFlow 및 ExecuTorch와 같은 연산을 사용하는 ML 모델을 학습하는 데 이상적입니다.

1세대 TPU 하드웨어는 전원 공급 및 냉각과 관련하여 충족되어야 할 사항이 있어 주로 데이터 센터 애플리케이션에만 사용되나 최신 세대의 TPU는 에지 기반 애플리케이션을 위해 설계되었습니다.

에지 AI에서 CPU와 GPU가 더 많이 사용되지 않는 이유는 무엇인가요? 답변 보기

기존의 중앙 처리 장치(CPU)는 범용 연산에는 적합하지만 신경망의 모든 연산을 효율적으로 처리하는 데는 최적화되어 있지 않습니다. 그래픽 처리 장치(GPU)는 머신 러닝 및 인공 지능 응용 프로그램에도 매우 유용하지만, 에너지 사용량과 필요한 하드웨어의 오버헤드가 크기 때문에 에지에서는 사용이 제한됩니다.

입문 수준 제품

Arduino® Nano 33 BLE Sense Rev2

NINA-B306, nRF52840 Arduino Nano 33 BLE Sense Rev2(헤더 포함) - ARM® Cortex®-M4F MCU 32-비트 평가 기판 - 내장형

자세히

중간 수준 제품

FRDM DEVELOPMENT BOARD FOR MCX

N9xx MCX N ARM® Cortex®-M33 MCU 32비트 내장형 평가 기판

자세히

Wio Terminal: ATSAMD51 Core​

ATSAMD51 Wio ARM® Cortex®-M4F MCU 32-비트 평가 기판 - 내장형

자세히

XIAO ESP32-S3 Senes​

- OV2640 2.4GHz 평가 기판

자세히

Raspberry Pi 4 Model B ​

단일 기판 컴퓨터 1.5GHz 4 코어 2GB RAM Broadcom BCM2711 ARM Cortex-A72

자세히

고급 수준 제품

MAX78000EVKIT#

MAX78000 - ARM® Cortex®-M4 MCU 32-비트 평가 기판 - 내장형

자세히

STM32F746G-DISCO

STM32 F7 Discovery STM32F7 ARM® Cortex®-M7 MCU 32-비트 평가 기판 - 내장형

자세히

전문가 수준 제품

Jetson Nano Dev Kit​

Maxwell NVIDIA Jetson Nano 개발 키트 - ARM® Cortex®-A57 MPU 평가 기판 - 내장형

자세히

Himax WE-I Plus EVB Endpoint AI Development Board

HX6537-A Himax - ARC-EM9D DSP 평가 기판 - 내장형

자세히

추가 제품

TensorFlow 개발 기판

FPGA 기판

Image of Related Content Raspberry Pi 4

요약 이 프로젝트에서는 Machinechat의 JEDI One IoT 데이터 관리 소프트웨어를 사용하여 라즈베리 파이 4에 IoT MQTT 브로커를 설치합니다.

자세히

Image of Related Content The Titanium FPGA Ti180

Efinix FPGA와 관련 개발 기판을 사용하여 설계자는 AI/ML 이미징 응용 분야를 빠르게 개발하고 배포할 수 있습니다.

자세히

Image of Related Content Card Ti180 M484-based reference design

Efinix FPGA와 관련 개발 기판을 사용하여 설계자는 AI/ML 이미징 응용 분야를 빠르게 개발하고 배포할 수 있습니다.

자세히

Image of Related Content Card Implementing an inference model for edge AI

특수 IP와 소프트웨어를 사용하여 FPGA 경험이 없는 개발자가 FPGA 기반 에지 AI를 빠르게 배포할 수 있습니다.

자세히

Image of Related Content Card Xilinx Versal AI Core series VCK190 evaluation kit

유연한 프로그래밍이 가능한 패브릭과 함께 높은 계산 효율성의 ASIC급 AI 컴퓨팅 엔진을 사용하여 AI 추론의 어려운 문제를 해결합니다.

자세히

 

Edge Impulse

Edge Impulse는 소프트웨어 개발자가 실제 데이터를 취득하여 가져오고, ML 모델을 구축, 학습 및 테스트한 다음 에지 컴퓨팅 장치에서 효율적으로 실행할 수 있는 클라우드 기반의 통합 개발 환경(IDE)입니다.

Edge Impulse와 TensorFlow 머신 러닝 소프트웨어의 차이점. Edge Impulse의 경우 모델 개발 프로세스가 사용자의 관여가 없는 반면 TensorFlow 개발의 경우에는 훨씬 더 관여가 많은 프로세스입니다.

Edge Impulse의 장점

Edge Impulse 프레임워크의 경우 오디오(마이크)에서부터 이미지(카메라), 센서 데이터(진동 센서)에 이르는 모든 데이터의 작업이 가능하며 그외에도 다음과 같은 데이터 작업이 가능합니다.

  • 물체 인식 및 이미지 감지(사람 감지 등)
  • 오디오 감지를 통한 '호출 명령어'(스마트 홈 어시스턴트)
  • 이상 징후 감지(예방보전)
  • 활동/패턴 인식(프로세스 간소화)

Edge Impulse를 사용해야 하는 이유는 무엇인가요? 답변 보기

Edge Impulse는 ML 트레이닝 소프트웨어(현재 대부분 TensorFlow)로 수행해야 하는 작업의 부담을 덜어줄 수 있습니다. Edge Impulse는 모델 학습을 위해 데이터를 태그하고 업로드할 수 있는 웹 기반 인터페이스를 제공합니다.

Edge Impulse는 ML 트레이닝 소프트웨어 사용이 처음인 사용자 또는 ML 개발자가 아닌 사용자를 위해 설계되었지만, TensorFlow Python 프레임워크와 호환되므로 전문가 수준의 사용자도 충분히 활용할 수 있습니다. 에지 AI 모델 생성 시 코딩의 장벽이 상당 부분 허물어지므로, 코드 실행을 위해 어떤 Python 라이브러리를 포함해야 하는지가 아니라 올바른 데이터 제공/알맞은 모델 학습에 더 집중할 수 있습니다.

대부분의 개발자와 사용자를 위한 무료 사용 티어가 있지만, 프로젝트 수와 각 프로젝트에서 사용할 수 있는 처리 능력에는 제한이 있습니다 전문 개발자의 경우 유료 티어를 이용할 수 있으며, Edge Impulse에 문의하여 요금을 조정받을 수 있습니다.

Image of Related Content FireBeetle board

Edge Impulse는 에지 디바이스(edge device)에서의 머신 러닝을 개발하기 위한 선도적 개발 플랫폼 중 하나입니다.

자세히

Image of Related Content Card Edge AI software architecture

에지 AI 소프트웨어 아키텍처는 개발자가 파이썬과 C++ 같은 전혀 다른 언어로 완벽하게 응용 프로그램을 개발할 수 있도록 해줍니다.

자세히

Lego Brick Finder with OpenMV and Edge Impulse

In this tutorial, Shawn shows you how OpenMV and Edge Impulse trained for image recognition can be used to create Lego® brick finder.

자세히

Getting Started with the OpenMV Cam: Machine Vision with MicroPython

In this tutorial, Shawn shows you how to get started with the OpenMV H7 camera module, which uses MicroPython to perform a variety of machine vision tasks

자세히

Car Parking Detection System Using Edge Impulse

In this example project, we have built an object detection model to detect the number of cars in a parking lot and deploy it on a Raspberry Pi 4.

자세히

Image of Nordic Semiconductor logo

Image of Nordic Semiconductor's Thingy:53 IoT Prototyping Platform

Nordic Semiconductor의 Nordic Thingy:53은 통합된 동작, 소리, 빛 및 환경 센서를 활용하여 개념 증명 및 프로토타입을 구축하는 데 도움이 됩니다.

Image of Silicon Labs Logo

Image of Silicon Labs' MG24 Development Kit

Silicon Labs의 MG24 개발 키트는 고성능 2.4GHz RF 및 낮은 전류 소비를 제공합니다.

호환되는 Edge Impulse 기판의 전체 목록:

https://docs.edgeimpulse.com/docs/edge-ai-targets/fully-supported-development-boards

AI를 통한 감지

머신 러닝 모델을 실행하려면 임베디드 시스템이 필요하지만, AI를 활용하는 전자 부품으로 출시되는 제품도 계속 늘어날 전망입니다. 이를테면 머신 러닝 센서라고도 하는 AI 지원 센서가 그 예에 해당됩니다.

머신 러닝 센서의 기능

대부분의 센서에서 머신 러닝 모델을 추가한다고 해서 응용 프로그램의 효율성이 더욱 향상되는 것은 아니지만, ML 학습을 통해 훨씬 더 효율적인 방식으로 작동할 수 있는 몇 가지 유형의 센서가 있습니다.

  • 프레임 내 물체와 사람을 추적하는 머신 러닝 모델이 사용되는 카메라 센서
  • IMU, 가속도계 및 활동 프로필을 감지하는 동작 센서

머신 러닝이 적용된 비전 센서

신경망을 사용하여 계산 알고리즘을 제공함으로써, 카메라 센서의 시야에 들어오는 물체와 사람을 감지하고 추적할 수 있습니다.

Image of Related Content Card OpenMV H7 camera module

OpenMV H7 카메라 모듈을 활용하면 머신 러닝 알고리즘과 데이터 세트를 사용하여 물체를 감지하고 이미지를 처리할 수 있습니다.

자세히

Image of Related Content Card NXP Semiconductor’s i.MX RT106F processors

특수 프로세서 및 소프트웨어 라이브러리를 통해, 더 간단하고 안전한 안면 기반 인증 대체품을 제작할 수 있습니다.

자세히

Image of Related Content Card OpenMV development environment

OpenMV 카메라에 대한 소개.

자세히

Introducing the Arduino Nicla Vision Board for Professional Machine-Vision Applications​

This article focuses on the main features and specifications of the Arduino Nicla Vision, a compact industrial-grade board that has the potential to drive professional machine-vision applications.

자세히

AI Vision Modules - Electronics with Becky Stern

AI vision boards allow you to incorporate features like face, person, and object recognition into your projects.

자세히

Getting Started with the OpenMV Cam: Machine Vision with MicroPython​

In this tutorial, Shawn shows you how to get started with the OpenMV H7 camera module, which uses MicroPython to perform a variety of machine vision tasks.

자세히

AI 비전 센서

OPENMV4 CAM H7

OV7725, STM32H743 - 이미지 센서 평가 기판 - 센서

자세히

Nicla Vision​

LSM6DSOX, MP34DT05, VL53L1CBV0FY/1 - 이미지 센서 평가 기판 - 센서

자세히

머신 러닝이 적용된 동작 센서

머신 러닝 플랫폼이 통합된 동작 센서는 센서와 같은 패키지에서 실시간으로 데이터를 추적하고 처리할 수 있어 전력 소비와 처리 시간이 줄어듭니다. 이러한 유형의 센서에는 대부분 작은 계산 논리 기반 의사 결정 트리가 있거나, 필터 또는 트리거 임계값을 미리 정의할 수 있는 기능이 있습니다. 입력 값이 정한 수준에 도달했을 때 정해진 작업을 수행합니다. 이 외에도 패키지에 완전한 DSP 장치가 내장되어 있어, 기본 CPU 없이도 여러 ML 알고리즘을 실행하여 전력과 시간을 절약할 수 있는 동작 센서도 있습니다.

Use a Smart Sensor’s Built-In Machine Learning Core to Optimize “Always-On” Motion Tracking​

저전력 상시 작동 동작 추적을 위해 통합 머신 러닝 코어가 탑재된 스마트 센서를 사용하여 복잡한 이동 시퀀스를 감지합니다.

자세히

Do You Really Need All That Raw Sensor Data? No! There’s a Better Way​

스마트 센서를 사용하여 데이터 세트를 줄여 애플리케이션이 미가공 측정보다 관심 있는 이벤트에 더 집중할 수 있게 합니다.

자세히

Image of Related Content PIR sensors

Microchip ATtiny1627 Curiosity Nano 및 PIR 센서를 통한 동작 감지에 대해 간단히 살펴보고 이를 활용하세요.

자세히

Image of Related Content Card Advanced IMUs such as Bosch Sensortec's BMI088 integrate sensors

뛰어난 내구성이 보장되는 견고한 산업용 IMU는 산업용 장치의 강력한 성능, 안정성 및 수명에 대해 증가하는 요구 사항을 충족합니다.

자세히

Cat.Ai – Potentially Genius | DigiKey​

n this episode, Tomorrow Lab collaborates Cornel Pizara from Analog Devices to create a product using the MAX78000— a new breed of AI Micro built to enable neural networks to execute at ultra-low power.

자세히