Edge Application에서의 Latency

지연(Latency)이란 요청이 시작된 시점부터 응답이 완료되기까지 걸리는 시간 지연을 의미한다.
특히 실시간 Application에서는 Latency가 Edge System의 핵심 성능 지표라고 할 수 있다.
자율주행차나 원격 의료, AR/VR과 같이 실시간성이 중요한 Application의 경우,
최대한 작은 Latency로 서비스를 제공하는 것이 필수적이다.
Latency와 관련된 주요 Metrics는 다음이 있다.
| 왕복 시간 (RTT) | 신호가 출발지에서 목적지로 갔다가 다시 돌아오는 데 걸리는 총 시간 | - 전파 지연, 전송 지연, 처리 지연을 모두 포함 - 네트워크 전체 반응 속도 측정 지표 - 엣지 게이트웨이와 원격 클라우드 서버 간 RTT는 50~200ms 범위일 수 있음 |
|
| 단방향 지연 (One-Way Latency) |
데이터 패킷이 한 방향(출발지→목적지)으로 전송되는 데 걸리는 시간 | - 실시간 응용(음성, 영상, 제어 루프 등)에 매우 중요 - RTT의 절반 수준으로 간주됨 - 영상 통화나 로봇 제어에서 1ms 단위의 지연도 서비스 품질에 큰 영향 |
|
| 지터 (Jitter, 지연 변동성) |
패킷 도착 시간의 불규칙한 변동 폭 | - 네트워크 안정성을 평가하는 지표 - 스트리밍, VoIP, 로봇 제어에서 품질(QoE) 저하 원인 - 패킷 지연이 5ms~50ms 사이로 변동할 경우 사용자 경험 악화 |
|
| 지연 예산 (Latency Budget) |
애플리케이션이 목표 성능을 달성하기 위해 허용 가능한 총 지연 한도 | - 각 계층(장치·엣지·클라우드)의 허용 지연을 정의 - 설계 시 시스템 전체 목표 지연 한계 설정 - 드론 제어 시스템의 전체 지연 예산: 20ms 이내 |
|
Edge Application에서의 Bandwidth

그 다음으로 중요한 지표가 Bandwidth이다.
Edge 환경은 제한된 업링크/다운링크(특히 무선·모바일 환경)로 운영된다.
이를 위해서는 효율적인 대역폭 관리가 적절한 데이터 전송을 보장하고 Congestion을 방지하는 핵심 요소가 된다.
Bandwidth(대역폭)는 일정 시간 동안 네트워크를 통해 전송할 수 있는 데이터의 최대 용량을 의미하며,
네트워크의 최대 데이터 전송 속도를 나타낸다.
실제 Edge Application에서의 Key Challenge는 다음을 예로 들 수 있다.
- 업링크 제한: 고해상도 센서 데이터(예: 비디오, LiDAR)는 링크 포화 가능성
- 간헐적 연결성: 네트워크 불안정 또는 일시적 오프라인 상황
- 비용 제약: 위성·셀룰러 백홀은 비용이 높으며 최소화 필요
그렇다면 어떻게 bandwidth를 최적화할 수 있을까?
| 엣지 데이터 전처리 (Data Preprocessing at the Edge) |
전송 전에 데이터를 필터링, 요약, 압축하여 불필요한 데이터 전송 최소화 |
엣지 카메라가 객체 탐지만 수행하고 메타데이터만 클라우드로 전송 |
| 이벤트 기반 전송 (Event-Driven Transmission) |
특정 이벤트나 조건이 발생했을 때만 데이터를 전송 | 진동 센서가 이상 감지 시만 데이터 송신 |
| 데이터 일괄 처리 및 스케줄링 (Data Batching & Scheduling) |
비피크 시간대 또는 일정에 따라 데이터를 한꺼번에 전송 |
소매점 엣지 서버가 영업 종료 후 로그 데이터 전송 |
| QoS 우선순위 (Quality of Service Prioritization) |
중요 서비스나 장치에 대역폭을 우선 할당하여 지연 방지 |
응급 경보 데이터를 일반 로그보다 먼저 전송 |
| 적응형 비트레이트/샘플링 (Adaptive Bitrate & Sampling) |
네트워크 상태에 따라 자동으로 해상도·샘플링 속도 조정 |
비디오 스트리밍이 연결 불안정 시 비트레이트를 자동으로 낮춤 |
| 로컬 캐싱 및 스토어-앤드-포워드 (Local Caching & Store-and-Forward) |
네트워크 장애 시 데이터를 로컬에 임시 저장하고 복구 후 재전송 | 엣지 게이트웨이가 네트워크 장애 시 텔레메트리 데이터를 버퍼링 |
Edge Network에서의 대역폭 관리 방법
- 엣지 로드 밸런서 (Edge Load Balancers):
- 트래픽을 엣지 노드나 클라우드 엔드포인트 간에 지능적으로 분산
- 단일 노드 또는 링크 병목 방지
- 고가용성, 장애 복구, 대역폭 활용 극대화
- 예: 소매점 분석용 엣지 클러스터가 매장과 지역 데이터센터 간 워크로드를 분산
- 콘텐츠 전송 최적화 (Content Delivery Optimization):
- 로컬 캐싱, 프리페칭, 압축을 통해 중복 데이터 전송 최소화
- 대역폭 절감 및 응답 속도 향상
- 예: 엣지 서버가 스마트 교실·키오스크용 콘텐츠를 로컬에 캐시하여 재사용
- 프로토콜 튜닝 (Protocol Tuning):
- 기존 HTTP 대신 엣지 환경에 최적화된 저대역폭 프로토콜 사용
- MQTT: IoT 및 텔레메트리용 효율적 Publish/Subscribe 모델
- CoAP: 제약된 노드/네트워크용 경량 프로토콜
- QUIC: 암호화 기반 빠른 연결 프로토콜로 왕복시간(RTT) 단축
- 예: 배송 로봇이 MQTT를 통해 이동 명령 및 상태를 셀룰러망으로 전송
'Cloud & Edge 인프라 > Cloud & Edge Computing' 카테고리의 다른 글
| Edge의 Data Privacy를 보호하는 Federated Learning (0) | 2025.10.10 |
|---|---|
| Edge Cloud Computing의 Usecase와 Challenge (0) | 2025.10.10 |
| Edge에서 컨테이너와 쿠버네티스의 역할 (0) | 2025.10.10 |
| Cloud Edge Computing의 의미 (0) | 2025.10.10 |
| Edge Computing이란? (0) | 2025.10.09 |