Thu. Sep 29th, 2022

과학자들은 뉴로모픽 컴퓨팅을 사용하여 로봇은 배포 후 새로운 개체를 학습합니다.

우선, 뉴로모픽 컴퓨팅은 인간 두뇌의 신경 아키텍처를 복제하여 자연 세계의 불확실성을 처리할 수 있는 알고리즘을 만듭니다.

Intel Labs는 해당 분야에서 가장 잘 알려진 아키텍처 중 하나를 개발했습니다. 루시 뉴로모픽 칩.

인사, 휴머노이드

받은 편지함에서 가장 좋아하는 AI 스토리를 매주 검토하려면 오늘 뉴스레터를 구독하세요.

Loihi는 “스파이킹” 신경망(SNN)을 통해 서로 정보를 보내는 약 130,000개의 인공 뉴런으로 구성됩니다.이 칩은 이미 다양한 시스템에 전력을 공급하고 있습니다.스마트 인공 피부부터 화약 냄새를 인식하는 전자 ‘코’까지.

이번 주 Intel Labs에서 또 다른 응용 프로그램을 발표했습니다.연구 단위가 힘을 합친다 이탈리아 공과 대학 및 뮌헨 공과 대학과 협력하여 Loihi는 로봇 공학의 지속적인 학습을 위한 새로운 방식으로 배포됩니다.

대화식 학습

이 접근 방식은 의료 및 제조를 위한 미래의 로봇 조수와 같이 제약이 없는 환경과 상호 작용하는 시스템을 대상으로 합니다.

이러한 시나리오에서 기존의 심층 신경망은 신중하게 준비된 대량의 훈련 데이터와 마주한 새로운 객체에 대한 신중한 재훈련이 필요하기 때문에 객체 학습에 어려움을 겪을 수 있습니다. 새로운 뉴로모픽 접근법은 이러한 한계를 극복하는 것을 목표로 합니다.

연구원들은 먼저 Loihi에서 SNN을 구현했습니다.이 건축물 단층 플라스틱 시냅스에 대한 학습을 ​​현지화합니다. 또한 필요에 따라 새 뉴런을 추가하여 객체의 다양한 보기를 해석합니다.

따라서 학습 프로세스는 사용자와 상호 작용하면서 자율적으로 전개됩니다.

뉴로모픽 시뮬레이션

팀은 시뮬레이션된 3D 환경에서 방법을 테스트했습니다. 이 설정에서, 로봇은 눈 역할을 하는 이벤트 기반 카메라를 움직여 사물을 능동적으로 감지한다.

카메라의 센서는 “미세 운동”이라고 불리는 작은 시선의 눈 움직임에서 영감을 받은 방식으로 물체를 “본다”. 보고 있는 객체가 새로운 것이라면 SNN 표현을 학습하거나 업데이트합니다. 객체가 알려지면 네트워크는 이를 인식하고 사용자에게 피드백을 제공합니다.

시뮬레이션된 설정에서 로봇은 눈(이벤트 기반 카메라 또는 동적 비전 센서)을 움직여 물체를 능동적으로 인식하여