영상 파일을 처리하다 보니 용량도 크고 파일 하나에 다뤄야 할 분할 갯수도 많아져서 이런저런 버그가 종종 보인다. 그동안은 자세히 파고들지 않고 일단 동작하면 된다고 지나쳤다.
방금도 이상한 로그가 보여서 이거 뭐냐고 물어봤더니 내부 구조 설명을 뭔가 복잡해 보이게 늘어놓는다. 이번에는 이상하다 싶어서 내용을 파고들어 보니 연속적으로 넘어오는 자료를 받아서 처리할 때 끝점을 어떻게 판단하고 그에 따른 평균치 계산을 어떻게 할지의 문제였다.
이런저런 궁리를 하면서 제안을 던져봤지만 1) 성능을 살려야 한다. 2) GPU 성능을 다 쓰려면 뭉쳐서 넘겨야 한다 3) 기존 구현이 이미 그 방향이었다--는 순서로 격파당했다. 사실 GPU 성능 어쩌고 부분은 과감하게 무시할 수도 있긴 한데, 그래도 여전히 끝점 검출은 필요한 상황이라 더 파고들 여지가 없다.
연속적인 처리라고 하면 SAX 처리가 가장 먼저 생각나서 검색도 해보고 제미니 웹을 열어서 궁리도 더 해봤지만 현실적으로 지금의 구조 안에서 아주 깔끔한 뭘 더 생각할 수가 없었다.
이번에도 제안을 수용하고 또 넘어가야 할 것 같다. 다음엔 인간적이고 실제로도 해결이 되는 방법을 내놓을 수 있으면 좋겠다.