대용량 트래픽 경험?

less than 1 minute read

대용량 트래픽을 고려하면서 코딩을 하라는 소리는 존나 웃긴소리다

대용량 트래픽을 처리하려면 프레임웤을 만들어야지

요새는 쓰레드 고려하면서 웹개발 하라는 소리 안 하는 것처럼

회사 차원에서 프레임웤을 만들면 될 일이다

경험이 무지 많은 사람들이 모여야 하는 일이 아니다.

옛날에는 쓰레드

진짜 고대에는 쓰레드를 생성해서 웹개발을 했겠지?
그리고 어느정도 프레임웤이 발달한 다음붙터는
개인적으로 쓰레드를 생성해서 쓰지 말라는 얘기가 나왔다

쓰레드는 원래 존나 헷갈려서 하다보면 실수를 할 수 밖에 없다

그러니 실수를 안 하려면 프레임웤을 만들어놓고
거기 맞춰서 코딩을 해야한다고

코루틴도 성능도 문제지만
실수방지용 프레임웤중 하나라고 봐야할까
코루틴은 쓰레드에 비해 실수 가능성이 많이 적으니

요새 화두는 대용량트래픽

이건 사실 쓰레드보다 더 쉽다
굉장한 노하우나 실력이라고 하기에는
보안코딩처럼 그냥 방법론 몇 가지만 지키면 되는 문제다
내가 6개월만 시간 들이면 자주실수하는 패턴정의 + AI로 대용량트래픽 발생시 문제점은 자동으로 파악할 수도 있을걸?

여기서 나오는 키워드는

  • Transaction - 트랜잭션 걸렸을 때 여러 트래픽이

  • 비동기 - webflux가 이제 조금 쓸만해졌지만 아직 꽤 후짐

  • CQRS - 이게 프레임웤이 아직 비주류라서 쓸만하지 않음

DR(Disaster Recovery)

이번 카카오 때문에 갑자기 관심사가 된…
서버 다중화

  • Active-Active

  • Active-Standby

  • MultiCloud

    • DNS Routing

뭐 등등 모르겠다. 이것저것 하면 되겠지

이것도 대단한 기술은 아니다. 조금 시간이 걸릴 뿐..

카카오는 왜 시간을 들이지 않은걸까

~~

그러고 보니… 아직도 이렇게 무식하게 처리하는 일이 많은걸 보면…

좋은건가?