본문 바로가기

728x90

머신러닝

(18)
[Machine Learning] Kaggle_데이터셋 분석_미 초소형 기업 밀도 예측 서론 이번 시간에는 현재 진행중인 미국 내 통계사의 산업통계 데이터를 통해 2022년 이후의 카운티 별(county) 초소형 기업(Microbusiness) 현황에 대해 간단한 분석을 해보고, 필자 나름대로의 데이터 전처리를 진행하려 합니다. *county : 자치주, 자치군 등 영미권의 행정 구역을 뜻합니다. (예컨대 미 주소에서 체로키 카운티, 달라스 카운티 등이 존재) 데이터셋의 목표이자 컴피티션의 목표는 북미 통계청에서 제공한 census 통계자료를 확인해보고, 이를 feature로 판단하여 train 세트에서 확인한 후 미래의 기업밀도를 예측하는 것입니다. # 목표 설정 # 북미의 지역구 별 초소형 기업의 밀도 분석 # 타겟(종속변수) : microbuisiness_density # 피쳐 : 밀..
[Machine Learning] Kaggle_데이터셋 분석_Video_Games_Sales.1 서론 이번 시간에는, 필자의 자유 주제로 kaggle에 분석용 데이터(Datasets)에 공유되어 있는 Video Game Sales를 활용해서, 여러가지 분석을 진행해보고자 합니다! 데이터셋 자체에 특별한 목표는 없지만, 일정한 흐름들은 있는데요. 바로 Global sales(전세계 판매량)과 그에 따른 platform이나, publisher(회사)의 순위들 입니다. 실제로 1100여건이 넘는 코드들을 보면 매우 다양한 방법으로 비디오 게임 데이터를 시각화한 그래프를 보실 수 있습니다. 아래는 원본 입니다. https://www.kaggle.com/datasets/gregorut/videogamesales Video Game Sales Analyze sales data from more than 16,..
[Machine Learning] Kaggle_연습사례 분석_Spaceship_titanic_2 서론 지난 시간에 이어서, 잘 전송된 승객의 수를 예측하는 과정을 서술하겠습니다. 첫번째 글에서는 kaggle의 Spaceship-titanic 의 데이터셋을 분석하여 LightGBM을 통해 알고리즘 모델을 넣고, 전송 승객을 예측하는 모델을 도출했습니다. 추가적으로 정확도 점수도 분석해보고, 변수 중요도(feature important)도 잠깐 도출했습니다. 데이터 자체가 titanic의 데이터셋과 유사한 형태와 목표를 갖고 있기 때문에 큰 어려움은 없을 것이라고 예상됩니다. 이번에는 test.csv 파일 로드부터 시작합니다! 이번 파일에서도 PassengerId를 인덱스로 바로 들고 왔습니다. 파일 경로는 따로 원본 데이터셋을 다운받은 경로입니다. df = pd.read_csv('C:\myPyCode..
[Machine Learning] Kaggle_연습사례 분석_Spaceship_titanic 서론 이번시간에는 Kaggle의 완전 기초, 시작단계(Getting Started) 컴피티션에 놓여져있는 Spaceship Titanic 데이터에 대해서 개인적으로 분석한 머신러닝 사례를 진행해 보고자 합니다. 먼저, 원본 데이터 링크입니다. https://www.kaggle.com/competitions/spaceship-titanic Spaceship Titanic | Kaggle www.kaggle.com 제 노트북은 아래에서 보실 수 있습니다. 빠르게 요약된 버전을 보시려면, 아래 링크를 보셔도 무방합니다! (처음에 파일 로드할 시의 경로만 다릅니다) https://www.kaggle.com/code/apatheia0/space-titanic-lightgbm-test/notebook 먼저 몇가지 ..
[Machine Learning] Naive_Bayes 모델_ep.2 colab 검색기 서론 지난 시간에서 나이브 베이즈 모델을 통해 spam mail 리스트 중에서 특정한 단어가 포함되어 있을 시 자동으로 spam으로 표시하는 자연어 처리에 대해서 실습해보았습니다. 이번 시간에는 진행했던 파일을 갖고, 우리가 특정한 단어를 입력하면 "스팸이다", "스팸이 아니다" 등 문장으로 구분해주는 알고리즘을 만들어 보고자 합니다. 먼저 지난 시간에 했던 모델입니다. # 나이브 베이즈 모델 from sklearn.naive_bayes import MultinomialNB # 모델링 model = MultinomialNB() model.fit(X_train, y_train) pred = model.predict(X_test) pred array([0, 1, 1, ..., 0, 0, 0]) 혼동 행렬(c..
[Machine Learning] Naive_Bayes 모델 사례_spam mail 분석 서론 Naive Bayes 모델은 통계학에서의 베이즈 정리에서 응용한 자연어 처리용 분류 모델입니다. 이후에 나오는 모델에 비해 단순하고 낮은 수준의 모델이지만 이 모델을 사용하는 이유는 속도가 빠르고 순진(naive)하기 때문에 쉬운 수준에서의 알고리즘 분석에는 유용했기 때문입니다. 나이브 베이즈를 위해서는 베이즈 정리에 대해서 잠깐 알아봐야 하는데요? 많은 사전, 블로그에서는 베이즈 정리에 대한 다양한 정의를 소개하고 있습니다만, 필자는 이 설명을 선호합니다. 이전의 경험과 현재의 증거를 토대로 어떤 사건의 확률을 추론하는 알고리즘 이 설명이 왜 나왔을까요. 베이즈 정리의 본 공식입니다. 사건 B가 발생함으로 인해 , 사건 A의 확률이 어떻게 변화하는지를 표현한 정리입니다. 즉, 베이즈 정리를 쓰면 ..

728x90