전체 글

좋은 영향력을 전파하기 위해 노력하는 엔지니어 리오입니다.
· 일상
글쓰기 뉴비 시절의 나 초기에 글을 잘 쓰는 것에 대한 중요성을 잘 알지 못했던 나는 글쓰는 노하우들을 기르고 단련하기 보다는 그저 누군가 내 글을 더 많이 봐주기를 원했고 글을 통해 내가 열심히 학습하여 성장하는지 알아주기를 원했었다. 이러한 태도는 나에게는 글쓰기가 부담감으로 점점 다가왔고 더 높은 수준의 주제와 심도 있는 내용으로 글을 쓰는 것에 집착하다보니 높은 진입 장벽으로인해 한글자를 작성하는 것 조차 버거웠다. 이렇게 글을 쓰는 것을 미루다보니 글을 제출해야되는 매 순간순간이 촉박했고 그렇게 글의 완성도는 점점 떨어져 갔다. 그래도 다른 분들에게 이야기를 들으면서 좀 나아질 것 같다는 생각에 글또에서 다양한 개발자분과 분석가 분들을 만나기 시작했고 다양한 경험들과 좋은 조언들을 들을 수 있었..
· CS
마이크로 서비스 아키텍처(MSA)가 대체 뭐길래? "마이크로 서비스 아키텍처를 구축해야 되요", "서버를 분리해야한다", "프로젝트 크기가 방대하여 개발이 오래 걸려요" 등 다양한 말로 같은 뜻을 개발자들은 말한다. "마이크로 서비스 아키텍처를 구축해야되요!" 라고 하지만 PO나 기획자에게는 쌓여있는 기획들이 있을 것이고 CS를 담당하고 있는 직원들에게는 운영하는데 필요한 기능들을 기다리고 있을 것이고 데이터 분석가들에게는 분석하는데에 필요한 이벤트나 로그들이 기다리고 있을 것이다. 그래도 이유없는 주장은 없을 것이라는 생각에 일정을 물어보면 생각외로 긴 일정들을 요구하고 안정적으로 운영되고 있는 서비스의 버그나 장애가 발생할 수 있을 것이라고 이야기를 한다. 그런 이야기를 듣다보면 점점 마이크로 서비스..
· CS
백엔드 개발자가 가장 자주 하는 업무 중 하나를 꼽으라고 한다면 바로 "API 개발"이라고 이야기할 수 있을 것이다. 우리는 API들을 만들면서 API를 구현하는 비지니스 로직은 많이 공부하고 익혔었지만 API 자체에 대해서 잘 설계하는 것은 고려하지 못한 부분이 종종 있을 것이 있을 것이다. 아래와 같은 상황을 겪어 본적이 있는가? 일부 API는 단 하나의 용도로만 사용할 수 있는 방면, 어떤 API는 검색, 필터 등 유연하게 활용할 수 있다. 그리고 과거에 만들어진 어떤 API는 오랫동안 계속 사용하고 있지만 어떤 API는 최근에 만들었음에도 불구하고 약간의 변경이나 기능이 추가될 때 수정이 어려워 새로운 API를 만들거나 기존 API의 버전을 올려야 하는 상황이 발생한다. 서론이 길었지만 이글은 A..
· 일상
밋업이 열리게 된 계기 며칠 전 우아콘을 다녀오고나서 마이크로 프론트에 대한 세미나를 듣고 강의 내용들을 정리하여 동료들에게 공유했었는데 보기 드문 주제다 보니 백엔드, 프론트 팀 가리지 않고 매우 흥미를 가지고 이야기를 나눴었다. 그땐 좀 아쉬웠던 건 중 하나가 우아콘에서만 세션을 진행했었기에 나를 제외한 다른 분들은 강의를 듣지 못했고 내가 이해하지 못했던 부분에 대해 제대로 설명드리지 못한 것 같아 아쉬움이 많이 남았었다. 그러다 마침 우아콘에서 백엔드, 프론트에서 가장 인기가 많았던 주문 시스템의 MSA의 전환과 마이크로 프론트엔드 도입에 대해 주제로 온라인 세미나를 주최한다는 것을 프론트엔드 개발자 분을 통해 알게되었다. 방대한 모놀리식에 묶여있는 우리의 시스템은 당장은 마이크로 프론트를 도입하..
· 일상
GPT가 나오기 전에도 AI와 관련해서 많이 살펴보고 사용해 봤었지만 초기에는 만족감보다는 불편함이 더 컸기에 기술의 발전은 아직 한참 멀었다고 생각했었고 AI에 대해 회의적으로 생각했었다. 그래서 나는 그런 경험때문에 그런지 GPT가 나왔을 때에도 구글 검색과 책을 활용해 공부하고 업무를 했나갔다. 그러던 어느날 아는 지인 개발자분이 GPT로 개발하는데 활용했던 사진을 보여주고 주변에서 올리는 사진들을 보게 되면서 호기심이 생기기 시작했고 결국 gpt를 사용해보기로 마음을 먹었다. 사실같은 거짓 초기 GPT를 활용하면서 다들 같은 경험을 했었겠지만 초기 GPT는 거짓말을 하지 못했다. 그래서 모르는 것이 있어도 어떻게든 지어내어 사실처럼 이야기했었고 그런 이유때문에 많은 조롱과 비판들이 있었다. 하지만..
· 프로젝트
HTML 파싱 이전에 URL로 요청을 보내고 HTML까지 저장하는 데까지 마무리하고 다음은 저장한 HTML에서 특정 태그를 파싱하여 가져오는 것을 진행했다. 그과정에서 자바에서 제공해주는 joup라는 html parser를 활용하여 글자를 추출해오는데 여기서 가장 큰 걸림돌은 어떻게 해야 글내용만 추출해올 수 있을까? 였다. 모든 글이 각자 다른 플랫폼을 활용하고 있었고 각기 다른 컨텐츠 영역을 가지고 있었기 때문에 셀렉터나 아이디를 활용하여 글영역만 가져오기 쉽지 않았다. 전처리를 하기위한 선택지 플랫폼마다 글영역의 아이디를 저장하고 등록된 플랫폼만 글을 파싱하여 전처리한다. 데이터 품질을 신경쓰지 않고 모든 내용들을 파싱한다. 게시글에 자주 사용되는 태그를을 중심으로 파싱하여 전처리 한다. 머신러닝을..
ri5
리오의 개발일지