computervision 15

YOLOv8 으로 RealTime Object Segmentation 수행하기

YOLOv8 을 이용하여 간단하게 RGB Webcam의 Realtime Segmentation을 수행해보았습니다.기존의 boundary box를 쳐주는 YOLO 는 많이 익숙하실 것이라 생각이 듭니다.Segmentation은 그에 더해 인식된 Object가 실제로 존재하는 영역에 대해서 구분하게 됩니다. 일단 물체의 경계를 구분한다는 것 자체가 굉장히 의미가 있는 것 같습니다.물체와 배경의 차이를 모델이 정확히 인지한다는 것입니다. 속도는 GeForce RTX 2080 Ti 에서 yolov8n-seg.pt 모델을 사용한 결과약 150fps 정도의 추론 속도가 나왔습니다.Segmentation인데도 속도가 어마어마한 것 같습니다.저는 예전에 가상환경을 만들어두었기에해당 가상환경에서 yolov8을 구동시켰습..

[논문 리뷰] BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown Objects

Unknown object에 대해 3D Pose Estimation 과 Object SLAM 기술이 동시에 가능한BundleSDF에 대해서 살짝 찍먹해보았는데요.CVPR 2023 에서 발표된 논문입니다.저도 완전히 이해하진 못했지만 간단하게 Input과 Output의 흐름과 사용된 방식들을 이해해보려고 했습니다. 생각보다 아직은 적용하기에는 무리가 있어보였습니다. 물론 제 실력은 훨씬 열등하지만...  그래도 아래 링크를 눌러 확인해보시면 그 기술은 굉장하다는 생각이 들었습니다. BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown ObjectsWe present a near real-time method for 6-DoF tracking ..

ROS2 UR3e + Intel RealSense 임시 결합 하기

ROS2 humble에서 기존에 존재하는 workspace 내부에realsense2 를 빌드하겠습니다. ROS2 MoveIt2 이용하여 UR3e Pick and Place 수행하기이전 글에서 real UR3e 모델에 대해서 ROS2 Moveit2를 이용하여 Path Planning까지 수행해보았는데요, ROS2 humble에서 UR3e 작동 및 MoveIt2 Path Planning 연구원에서 정말 좋은 경험을 많이 하는 것 같습니다. 언제cobang.tistory.com  ROS2에서 realsense 용 별도 패키지를 설치하실 분은 아래 링크 과정을 따르시기 바랍니다.저는 이미 UR 로봇을 빌드한 패키지가 있고,이 위에서 Realsense D435를 작동시키려 하기 때문에 여러 과정들이 생략되어있습니..

Python3 에서 Intel RealSense Camera Intrinsic Matrix 얻기

Camera Intrinsic Matrix? Camera Intrinsic Matrix는 카메라의 내부 매개변수를 나타내는 행렬로,컴퓨터 비전에서 카메라의 기하학적 및 광학적 특성을 정의하는 데 사용됩니다.이 행렬은 카메라가 3차원 세계를 2차원 이미지로 어떻게 투영하는지에 대한 정보를 제공합니다. Depth Camera의 Camera Intrinsic Matrix 는 다음과 같은 형태를 가집니다.여기서,( f_x, f_y ): 카메라의 초점 거리(focal length).  f_x 와  f_y는 각각 x축과 y축 방향의 카메라 렌즈의 초점 거리를 나타냅니다. 이 값들은 픽셀 단위로 표현되며, 카메라 렌즈의 확대 능력을 나타냅니다.( c_x, c_y ): 주점(principal point). 이는 카메라..

CenterPose 환경 구성 및 shoes 예제 수행

Object Pose Optimization 방식 중 하나인 CenterPose 예제 구동을 위해 환경 구성 및 구현을 수행하는 글입니다.CenterPose는 Category에 존재하는 Monocular RGB Input Source 만으로도Object의 3D Object Bounding Box를 Output으로 도출할 수 있습니다. 2022년 ICRA에 등재된 논문이고 해당 논문에 대한 소개는 아래 글을 참조하시기 바랍니다. [논문 리뷰] CenterPose - Single-Stage Keypoint-Based Category-Level Object Pose Estimation from an RGB Image (2022 ICRA)최근 Object Pose Estimation 에 관해 연구를 하게 되어 ..

[논문 리뷰] CenterPose - Single-Stage Keypoint-Based Category-Level Object Pose Estimation from an RGB Image (2022 ICRA)

최근 Object Pose Estimation 에 관해 연구를 하게 되어 작성하는 글입니다.2022년 Nvidia Lab과 Georgia Institute of Technology 에서 ICRA에 게제한 논문이며,CAD 모델 없이 Monocular RGB input 만으로 Category Object의 Pose Estimation을 성공적으로 수행한 논문입니다.약칭은 CenterPose입니다.  LIN, Yunzhi, et al. Single-stage keypoint-based category-level object pose estimation from an RGB image. In: 2022 International Conference on Robotics and Automation (ICRA). I..

728x90
반응형