피지컬 AI 데이터셋 (그리퍼 타입 양손, 양팔, 휴머노이드 로봇, manipulation task)

본 데이터셋은 양팔 휴머노이드 로봇(Gripper 타입)을 활용한 다양한 조작(Manipulation) 작업을 고정밀 텔레오퍼레이션으로 수행하여 수집한 데이터입니다. 물체의 파지(Pick), 이동(Place), 정렬(Align) 등 정교한 조작이 필요한 시나리오를 포함하고 있으며, 영상, 로봇 관절값(Joint Position), 제어 명령(Control Command) 등 학습에 필요한 모든 멀티모달 데이터가 동기화되어 있습니다. 본 데이터셋은 로봇의 모방 학습(Imitation Learning) 및 행동 지능 개발을 위한 Ground Truth로 활용하기에 최적화되어 있으며 단순 시연 영상을 넘어, 로봇이 실제 환경과 상호작용하는 물리적 정보가 포함된 고품질 학습 자원입니다. 또한 고객사의 개발 환경 및 파이프라인에 맞춰 영상 포맷, 로그 데이터 구조 등을 커스터마이징하여 제공 가능합니다.

활용 사례 및 분야

본 데이터셋은 단순한 동작 반복을 넘어, 시각 정보와 제어 명령 간의 상관관계를 학습해야 하는 고난도 로봇 연구에 최적화되어 있습니다. 또한 인공적으로 생성된 데이터(Synthetic Data)가 아닌, 실제 물리 환경에서 수집된 리얼 월드(Real-world) 데이터입니다.

  • 제조 및 서비스 자동화 개발: 가전 조작, 물류 패키징, 식음료(F&B) 서비스 등 비정형 환경에서의 서비스 로봇 상용화 테스트.
  • 로봇 파운데이션 모델(Robot Foundation Model) 연구: 영상(Vision)과 행동(Action)이 결합된 멀티모달 데이터를 활용하여, 범용적인 로봇 행동 지능을 학습시키는 VLA(Vision-Language-Action) 모델 구축에 활용.
  • 고정밀 모방 학습(Imitation Learning): Behavior Cloning(BC) 또는 Inverse Reinforcement Learning(IRL) 알고리즘을 통해 숙련된 작업자의 노하우를 로봇에 전이.
  • 양팔 협동 제어(Bi-manual Manipulation): 한 손으로 물체를 잡고 다른 손으로 조작하는 등, 두 팔 간의 정교한 협응이 요구되는 복합 태스크(Assembly, Folding, Sorting) 연구.

데이터셋 스펙

구분 상세 내용
데이터 타입

Multi-modal Synchronized Data

  1. Visual: RGB / RGB-D 영상 (3인칭 및 1인칭 시점)
  2. Proprioception: 로봇 관절 각도(Joint Positions), 각속도(Velocities), 엔드 이펙터 상태(End-effector Pose & State)
  3. Action: 오퍼레이터 제어 입력값 (Control Commands, Delta Pose)
수집 방식

Human-Teleoperated Direct Collection

  1. 숙련된 오퍼레이터가 텔레오퍼레이션 기어(VR 컨트롤러 또는 마스터 암)를 착용하고 직접 시연하여 수집
  2. 시뮬레이션 생성이 아닌 100% 실제 물리 환경 기반 데이터
파일 포맷

Standard Robotics Format

  1. Video: MP4 (H.264/H.265 Codec)
  2. Log Data: HDF5 (Robotics Learning 표준), JSON, CSV 중 선택 가능
  3. Metadata: 태스크 설명, 성공/실패 여부, 타임스탬프 포함
판매 가능 수량

제한 없음

 

 


샘플데이터 요청

샘플데이터 요청
개인정보 수집 및 이용 동의(필수)
개인정보 수집 및 이용 동의(선택)
광고성 정보 수신 동의(선택)