본문 바로가기

Programming Language6

[Python] 삼항 연산자(Ternary Operator) 아래 내용들은 제가 혼자 학습하면서 정리한 내용들입니다. '부족한 내용' 혹은 '잘못된 내용'이 있을 수 있습니다. 댓글 남겨주시면 더욱 공부하고 수정하도록 하겠습니다. 감사합니다. 요즘 PyTorch를 공부하면서 device ‘CUDA’ 설정 때문에 삼항연산자를 자주 사용하게 된다. 다시 파이썬 공부를 시작하면서 좀 더 파이써닉한 코드를 짜려고 노력한 덕분인지 이제는 어느정도 List Comprehension 과 삼항연산자 사용이 자연스러워 진 것 같기도 하다. 1. 삼항 연산자(Ternary operators) 삼항 연산자는 if ~ else로 이어지는 조건문 연산을 조금 더 간결하게 표현하기 위한 코드 형태이다. 대부분의 언어에서 삼항연산자를 사용할 수 있다. 파이썬도 삼항연산자를 지원하지만 형태가.. 2023. 1. 25.
[Python] List : Pop, Del, Remove, Slicing 속도 비교 아래 내용들은 제가 혼자 학습하면서 정리한 내용들입니다. '부족한 내용' 혹은 '잘못된 내용'이 있을 수 있습니다. 댓글 남겨주시면 더욱 공부하고 수정하도록 하겠습니다. 감사합니다. Python 리스트 요소 삭제 속도 비교 리스트에서 특정 위치의 요소를 삭제할때 사용하는 대표적인 네가지 기능인 slicing, pop, del, remove의 처리 속도를 비교해보았다. 속도를 비교하게 된 계기는 프로그래머스에서 문제를 풀다가 효율성 테스트에서 계속 막혀서 성능 개선을 위해서였다. 결론부터 말하자면 이런 내용을 몰랐을때 나는 Slicing 방법으로 리스트를 처리했었는데, del을 사용하니 속도가 많이 개선되었고 효율성 테스트를 통과할 수 있었다!! 성능을 비교하는 것이 주 목적이기에 각각의 사용법에 대한 것.. 2023. 1. 19.
[Python] 자료구조 : Hash 아래 내용들은 제가 혼자 학습하면서 정리한 내용들입니다. '부족한 내용' 혹은 '잘못된 내용'이 있을 수 있습니다. 댓글 남겨주시면 더욱 공부하고 수정하도록 하겠습니다. 감사합니다. Hash(해시) 자료구조에 대한 공부! 코딩 테스트 등에서 출제 빈도가 높다고 해서 따로 한번 정리해 보았다. Hash? 대표적인 자료 구조 중 하나로써, Key & Value로 구성되어있어 데이터 검색과 삽입, 추출 등의 작업에서 빠른 속도로 작업을 완수할 수 있다. 해시를 쓰지않고 리스트와 같은 자료형을 사용할 경우 전체 자료구조를 검색하기때문에 효율성이 떨어진다. 파이썬에서는 Dictionary 자료구조가 Hash 형태로 구현되어 있다. Hash 사용하기 해시가 빠르다는건 알겠다. 그렇다면 언제 사용하면 좋을까? 1. .. 2022. 12. 27.
[Python] map, zip, filter, enumerate 정리 Built-in Functions 파이썬에는 이미 만들어진 많은 내장함수들이 존재하지만 오늘은 map, zip, filter, enumerate를 공부하고 정리해보려고 한다. 나도 여기저기서 자주 보았고, 사용도 해봤지만 할때마다 기억이 잘 안나서 이번 기회에 제대로 정리해두려고 한다. 1. map map(function, iterable, *iterables) map은 입력된 iterable에 function이 적용된 iterator를 반환한다. function에는 내장함수, 람다함수, method 등을 사용할 수 있다. data = list(range(10)) data [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] 1.1 Python 내장함수 사용 str() 함수 활용하여 data의 내용을 .. 2022. 12. 9.
[Web Crawling] Requests 와 URLLIB 아래 내용들은 제가 혼자 학습하면서 정리한 내용들입니다. '부족한 내용' 혹은 '잘못된 내용'이 있을 수 있습니다. 댓글 남겨주시면 더욱 공부하고 수정하도록 하겠습니다. 감사합니다. 먼저 웹 크롤링을 시작하기에 앞서 HTTP 요청 및 URL 작업을 위한 모듈에 대해 알아보자 Python에서는 대표적으로 'requests' 와 'urllib' 라는 두 모듈이 있다. Requests requests 모듈은 Python에서 HTTP 요청을 보낼 수 있는 모듈이다. URL과 Parameter를 통해 요청을 보내고 응답(Response)를 받는다. Response 객체 요청(request)을 보내면 응답(response)를 받는데, 이 응답은 Python의 객체로 받게 된다. response에는 여러가지 정보와 .. 2022. 12. 9.
[Web Crawling] 웹 크롤링 개요 아래 내용들은 제가 혼자 학습하면서 정리한 내용들입니다. '부족한 내용' 혹은 '잘못된 내용'이 있을 수 있습니다. 댓글 남겨주시면 더욱 공부하고 수정하도록 하겠습니다. 감사합니다. 웹 크롤링에 대한 정리를 해보려 한다. 웹에서 데이터를 수집하는 방법으로는 대표적으로 다음과 같은 방법이 있다. - 웹 스크래핑(웹 크롤링)을 통한 수집 - 공공데이터 포털 등에서 제공하는 CSV, EXCEL 파일 - 네이버, 카카오 등에서 제공하는 API 서비스 웹 크롤러(Web Crawler) "웹 크롤러" 는 웹 상에 있는 웹 문서나 이미지 등의 콘텐츠들을 자동으로 수집하는 프로그램의 일종이다. 웹 크롤링 작업을 통해 얻은 다양한 데이터들을 정리하여 데이터베이스에 저장하거나, 파일로 만들어서 사용할 수 있게 된다. 웹 .. 2022. 12. 9.