대규모 언어 모델(LLM)의 등장으로 자연어 처리(NLP)는 데이터 집약적인 패러다임으로 전환되었다. 스토리지 디스어그리게이션을 활용하는 LLM 학습 환경에서는 대규모 텍스트가 원격 스토리지로부터 네트워크를 경유하여 이동하며, 이 과정에서 네트워크 I/O가 추가되어 오버헤드를 유발한다. 이러한 I/O 레이턴시는 LLM 학습 파이프라인의 잠재적 병목이 될 수 있다. 이를 해결하기 위해 본 연구에서는 BPE 토큰화를 스토리지 서버로 오프로딩하는 경량 NDP(Near-Data Processing) 프레임워크를 제안한다. 이 설계에서 원본 데이터와 토큰화된 데이터는 사용자 공간 프로세스 간 공유 메모리로 교환되며, 평가 결과 제안 방식은 NVMe-oF/TCP 네트워크 트래픽을 최대 52% 감소시키고 End-to-End 경로의 I/O 시간을 약 25% 단축했다.