본문 바로가기

전체 글195

AICE Associate - 데이터 전처리2 (기타 등등) 1. Merge 데이터 합치기# pd.merge(df_left, df_righr, on=key값):# how: 병합시 기준이 될 인덱스 ( left: 기존 데이터, right: 병합할 데이터, inner: 교집합, outer: 합집합 )# on: 열 기준 병합시 기준으로할 열, key 값df_merge = pd.merge(df_a, df_b) #간단버젼df_merge = pd.merge(df_a, df_b, how='left', on='movieId') #옵션버젼 2. Concat 기준열 없이 데이터 합치기# 아래로 합치기df_concat = pd.concat([df_a, df_b])# 옆으로 합치기pd.concat([df_a, df_b], axis=1)# 'inner join'을 활용하여 두 데이.. 2024. 6. 19.
AICE Associate - 딥러닝 딥러닝 모델 만들기# importfrom tensorflow.keras.models import Sequentialfrom tensorflow.keras.layers import Dense, Dropout# 모델 생성 (뼈대)model = Sequential()# 모델 구조#히든레이어를 만드는데 노드는 128개이고 input_shapre는 x.shape결과로#첫번째 줄만 input이 있어서 작성해주고 두번째 add부터는 안써도됨, #활성화함수는 relumodel.add(Dense(128, input_shape=(X_train.shape[1],), activation='relu'))model.add(Dense(64, activation='relu'))model.add(Dense(32, activation=.. 2024. 6. 19.
AICE Associate - 머신러닝 머신러닝1-1) 로지스틱 (회귀,분류) Logistic RegressionC=규제강도, max_iter = 반복횟수# importfrom sklearn.linear_model import LogisticRegression# 모델 생성lg = LogisticRegression(C=1.0, max_iter=1000)# 모델 학습lg.fit(X_train, y_train)# 모델 평가lg.score(X_test, y_test) 1-2) 의사결정 나무 (회귀.분류)# importfrom sklearn.tree import DecisionTreeClassifier # 분류# 모델 생성dt = DecisionTreeClassifier(max_depth=5, random_state=2023)#.. 2024. 6. 19.
AICE Associate - 데이터 전처리 1. 결측치 처리 1-1) 결측치 확인하기df.isnull().sum()df.info() #탐색적으로 결측치 유무 확인 가능 1-2) 데이터 확인하기 – 대체하려고 하는 값 확인용#중앙값 df[‘칼럼명’].median()#최빈값df[‘칼럼명’].mode()[0]#평균값df[‘칼럼명’].mean()#최소값df[‘칼럼명’].min()#최대값df[‘칼럼명’].max()#합df[‘칼럼명’].sum() 1-3) 결측치 채우기#(값채우기df.fillna(값)#칼럼별 다른 값 채우기df.fillna( {‘칼럼명1’: 값1, ‘칼럼명2’:값2} )#특정 칼럼의 값 채우기df[‘칼럼명’].fillna(대체할값, inplace = True)#평균으로 채우기df[‘칼럼명’].fillna( df[‘칼.. 2024. 6. 19.