[Python] Pydantic으로 안전하고 효율적인 데이터 검증하기
·
Python
최신 기술 트렌드에 대한 높은 관심과 열정을 가지신 팀장님 덕분에 파이썬에서 Pydantic이라는 유용한 도구를 접하게 되었다. 새롭게 배운 기술에 대해 체계적으로 학습한 내용을 정리해보려고 한다. Pydantic이란?Python에서 데이터 유효성 검사(validation)과 데이터 설정(parsing)을 쉽게 처리하기 위한 라이브러리이다. Python의 데이터 클래스(dataclass)와 유사하게 작동하지만, 훨씬 더 강력한 기능을 제공하며, 주로 FastAPI와 같은 웹 프레임워크에서 입력 데이터를 검증하거나 데이터 모델을 정의하는 데 사용된다. Pydantic의 주요 특징1. 데이터 유효성 검사: 입력 데이터를 지정된 스키마에 맞게 검증하고, 유효하지 않은 데이터를 처리한다.예: 숫자 타입이어야 하..
[Python] async/await로 배우는 비동기 프로그래밍
·
Python
자바크스립트에서 사용했었던 async/await을 파이썬에서는 어떻게 사용하는지 알아보게 되었다.여러 글들을 읽고 간략하게 정리해보았다.더 많은 내용을 알고 싶으면 검색해서 다분들의 글을 보면 될 것 같다.. (더 자세하세 설명 잘 되어있음) 동기/비동기란?동기(synchronous): 작업이 끝날 때까지 기다린 후 다음 코드를 실행하는 방식. 순서를 보장하며 결과를 즉시 확인 가능.비동기(asynchronous): 작업이 끝나지 않아도 다음 코드를 실행하는 방식. 병렬 처리가 가능하며, 시간을 효율적으로 사용할 수 있음. async/await란?async/await는 Python 3.5 이상에서 사용할 수 있는 비동기 처리를 위한 키워드이다.비동기 코드를 작성할 때 async/await를 사용하면 코드..
[Python] 크롤링(crawling) 사용해보기: Velog 크롤링
·
Python
팀원들과 미니 프로젝트 진행하면서 크롤링이 필요하여 처음 사용해보게 되었다.brunch, naver blog, reddit, tistory, velog, X 를 각자 하나씩 맡아서 크롤링을 진행하기로 했는데 나는 velog를 선택했다.naver blog 크롤링을 먼저 끝내신분이 있어서 그 팀원의 코드를 사용해서 수정했다. 크롤링(crawling)이란? 웹 페이지의 정보를 자동으로 수집하고 저장하는 작업 먼저, 각 플랫폼마다 다르게 실행될수 있도록 crawling_service.py를 따로 만들어서 연결해주었다. from crawling_naver import get_blog_contentfrom crawling_brunch import get_brunch_contentfrom crawling_velog ..
[Python] FastAPI 사용해보기
·
Python
파이썬에서 REST API를 구현하기 위해 FastAPI를 사용해 간단히 테스트해 보았다. FastAPI란?   공식 사이트: https://fastapi.tiangolo.com/Python으로 작성된 현대적이고 고성능의 웹 프레임워크로, RESTful API를 빠르고 간단하게 개발할 수 있도록 설계되었다. Pydantic과 타입 힌트를 기반으로 자동 데이터 검증 및 문서화를 지원한다.  장점고성능(비동기 지원).간단한 사용법과 타입 기반 데이터 검증.Swagger UI로 자동 문서 생성.확장성과 유지보수 용이. FastAPI 테스트 과정공식문서를 참고하여 진행했다. (https://fastapi.tiangolo.com/#run-it) 이미지 분류를 처리하는 FastAPI 테스트1. 필요한 패키지를 설치..