본문 바로가기

전체 글

(18)
데이터분석 전문가(ADP) 실기 20회 자세한 문제복기 및 후기 1. 일별 최고기온 (머신러닝 : 50점) > 데이터 설명 - 일별 최고기온 데이터를 기록해둔 데이터 - 데이터 칼럼 : Year, Month, Day, Temp_2, Temp1, Average, Actual, Friend - 칼럼 설명 Year, Month, Day : 데이터 측정 년, 월, 일 Temp_2 : 이틀 전 일별 최고기온 Temp_1 : 하루 전 일별 최고기온 Average : 작년 평균 기온 Actual : 측정일 실제 최고기온 Friend : 친구가 예측한 최고기온 1-1. 데이터 전처리 (10점) - 데이터를 확인하고 결측치를 예측하라 - 예측되는 결측치를 대체하라 - 결측치에 대한 부분을 제외하고 다른 부분에 대한 보완이 필요하면 보완하라 - 데이터를 분할하고 데이터 분석에 대한 준..
2021 상반기 현대 엠엔소프트(現 현대 오토에버) 2차(임원)면접 후기 지원직무 : 품질관리 면접시간 : 약 50분 참여방법 : 온라인 참여인원 : [면접자 3 : 면접관 3 (임원1, 부장급1, 인사1 인 듯 했음)] 질문리스트 (기억나는 것만) 1. 자기소개 & 지원동기 2. (임원분) 지도데이터를 다뤄보거나 Q-GIS를 다뤄본 경험이 있는가 3. (임원분) 내가 수행했던 프로젝트에 관한 상세 질문 4. (임원분) SQL을 활용해본 경험을 말해보라 (다른분들 한테는 지금 재직중인 직장에서 뭘 하고있는지, 인턴했던 곳에서 뭘 했는지) 5. (부장분 / 공통) 무언가를 가장 치열하게 했던 경험 6. (부장분 / 개인) 지도데이터 품질관리란 무엇을 관리하는 것이라 생각하는가 7. (부장분 / 개인) 어떻게 관리할 것 같은가? 8. (부장분 / 개인) 본인의 품질은 어떻다고 생..
라이다 vs 레이더 라이다 : 레이저(빛)을 매개체로 삼음 레이더 : 전파를 매개체로 삼음 라이다 vs 레이더 1. 정밀도 : 라이다 win - 라이다는 거리를 비롯해 폭, 높낮이 정보까지 측정 (3차원으로 인식) - 도로환경 3D맵핑에도 용이함 - 레이더는 정확한 형체까지는 인식불가 2. 가성비 : 레이더 win - 라이다는 비쌈 3. 외부환경 극복 : 레이더 win - 레이더는 라이더에 비해 악천우에 강함 - 전파의 경우 광파에 비해 물체에 닿았을 때 흡수되는 정도가 작기 때문
코딩테스트 문제유형 빠르게 파악하기 1. 입출력 제한으로 문제유형 파악하기 "문제를읽기 전 입출력 제한을 잘 살펴보자" 밑의 알고리즘이 결정적인 것은 아니고 그럴 확률이 매우 높다는 것을 의미 입력이 100이하인 경우 완전탐색 백트래킹 입력이 10,000 이하인 경우 최대 $O(n^{2})$이내로 끝내야 하는 문제 문제에 따라 $O(n^{2} log n)$까지는 허용 n * n 2차원 리스트를 모두 순회해야하는 문제가 多 입력이 1,000,000 이하인 경우 최대 $O(n log n)$으로 끝내야하는 문제 힙, 우선순위 큐 정렬 동적 계획법 위상 정렬 다익스트라 알고리즘 입력이 100,000,000 이하인 경우 최대 $O(n)$으로 끝내야하는 문제 동적 계획법 그리디 그 이상인 경우 최대 $O(logn)$으로 끝내야하는 문제가 많음 거의 ..
정규화(Normalization) vs 표준화(Standardization) * 스케일링이 모델에 영향을 주는가? - 트리모델의 경우 변수 하나를 기준으로 분기점을 잡으므로 스케일의 영향을 받지 않는다. - 하지만 기울기를 업데이트 하는 식으로 작동하는 알고리즘의 경우 영향을 크게 받는다. (Linear, Logistic, neural network, KNN, K-means, SVM 등) 정규화(Normalization) - 데이터가 정규분포(가우시안 분포)를 따르지 않을 때 - 분포에 대한 가정이 필요없는 알고리즘을 사용할 때 (KNN, Neural Network 등) 표준화(Standardization) - 데이터가 정규분포(가우시안 분포)를 따를 때 유용하다 - 하지만 정규분포를 따르는 것이 필수적이지는 않음. - 정규화와 달리 표준화는 경계범위를 가지지 않기 때문에 이상치..
2021 상반기 현대 엠엔소프트(現 현대 오토에버) 1차(실무)면접 후기 지원직무 : 품질관리 면접시간 : 약 50분 참여방법 : 온라인 참여인원 : [면접자 2 : 면접관 3(실무2, 인사1 인 듯 했음)] 코테결과 : SQL 5문제 올솔 질문 리스트 (기억나는 것만) 1. 자기소개 2. 지원동기 3. 관련 경험에 대해 더 자세히 말해달라 4. ST_Distance와 ST_MakePoint가 무슨 함수인지 알고 있는가? 5. 지원직무가 무슨 일을 하는지 알고있는지 6. 어떻게 기여할 수 있는가 7. 자율주행 기술 실현을 위한 제약사항이 어떤게 있는지, 해결 방안 8. 직무를 수행하는데 나만의 강점 9. 반복되는 일에 지루함을 느낄 수 있을텐데 어떻게 해결할 것인지 10. 지원 직무 관련 존경하는 인물 - 한국어 대답 후 영어로 대답해봐라 11. 팀원들간 갈등이 있었을 때 어..
Part2 - 10. Off-policy TD control 지난 포스트에서 봤던 TD($\lambda$)와 Off-policy MC에 대해 정리해보자. (1) TD학습 알고리즘의 형태 $$ V(s) \leftarrow V(s) + \alpha(G_t - V(s))$$ TD(0)의 경우 $G_t$ $\overset{def}{=} R_{t+1} + \gamma V(S_{t+1})$ TD target : $G_t$ TD error : $\delta_t = G_t - V(S_t) = R_{t+1} + \gamma V(S_{t+1}) - V(S_t)$ (2) Off-policy MC알고리즘 - 임의의 행동 정책함수 $\mu$ 로 에피소드 생성 - $G_t^{\pi/\mu}$ = $\prod _{k = t}^{T-1} \frac{\pi(A_k|S_k)}{\mu(A_k|S_..
Part2 - 9. Off-policy MC control 지금까지 환경에 대해 알 때와 모를 때의 강화학습 문제 풀이 기법에 대해 배웠다. 하지만 지금까지 배운 내용은 모두 학습이 전혀 되지 않은 agent를 학습시켜 문제를 풀이하는 방식이었다. 간단한 문제의 경우에는 지금까지 진행해 왔던 강화학습의 방식을 사용할 수 있겠으나 매우 복잡하고 데이터가 셀 수 없이 많을 경우 처음부터 agent를 학습시킨다면 매우 긴 시간이 필요할 것이다. 그렇다면 이미 학습된 다른 좋은 정책을 우리가 풀어야하는 문제에 적용시킬 수 있을까? 가능하다. 이를 Off-policy 학습이라 한다. 1) Off-policy 학습 목적 : 주어진 정책 $\pi(a|s)$에 대한 $Q^{\pi}(s,a)$를 계산하는 것 ($Q^{\pi}(s,a)$를 알면 정책을 만들 수 있음) 그러면 임의..