본 연구에서는 global localizer와 pose divergence manager를 통합하여 보다 robust한 global localization 시스템을 제안했습니다.
이는 4족 보행 로봇과 같이 pose divergence에 취약한 로봇에 효과적이며 특히 로봇이 넘어지는 시나리오에서 포즈를 정확하게 추정하는 결과를 보였습니다. 여러 센서의 결합으로 다양한 오도메트리 알고리즘을 선택할 수 있으며 실험에서도 몇 가지 알고리즘이 비교되었습니다. 다만 견고한 포즈 추정을 강점으로 내세운 것에 비해 결과 다소 부족한 점이 있습니다.. 아래는 몇 가지 제안 사항입니다.

  1. Pose divergence 지역을 추가로 명시하면 더 좋은 결과를 보일 수 있습니다. 또한 Fig. 3, 4 둘 중 하나, 혹은 두 경우 모두 GT, odometry algorithm, ours + odometry algorithm 3가지 조합으로 시각화할 수 있습니다.
  2. 제안된 방법이 fast-lio2보다 r2live에 더 효과적인 것에 대한 설명이 필요합니다. r2live의 경우 fast-lio2의 경우 보다 divergence 상황이 많은가요?
  3. 제안된 방법이 얼마나 정확하게 divergence 탐지할 수 있나요? CENet의 큰 오차로 인한 잘못된 판단이 어느 정도까지 커버가 되는지 궁금합니다.

전반적으로 개념 및 관련 연구 등이 잘 정리되어 있습니다.

This work proposed a more robust global localization system by integrating a global localizer and a pose divergence manager. This is effective for robots that are vulnerable to pose divergence, such as quadruped robots, and results have been shown to accurately estimate pose, especially in scenarios where the robot falls. Multiple sensors can be combined to select different odometry algorithms, and several algorithms have been compared in experiments.

However, the results are insufficient compared to the claims of robust pose estimation for divergence as a strength.

Here are some comments and suggestions:

  1. Additional marking of pose divergence regions may show better results. Furthermore, one or both of figs. 3 and 4 can be visualized as a combination of GT, odometry algorithm, and ours + odometry algorithms
  2. Need an explanation of why the proposed method works better for r2live than fast-lio2. Is there more divergence situations for r2live than for fast-lio2?
  3. How accurately can the proposed method detect divergence? I'm curious to what extent it covers false positives due to large errors in CENet.

Overall, the paper is a good resource for ideas and related research.