AI14 [추천시스템] KGAT: Knowledge Graph Attention Network for Recommendation 논문 분석 Introduction CF의 효율성과 보편성에도 불구하고, side information을 모델링 하기 힘들다. SL(Supervised Learning) 모델들은 산업에서 널리 쓰고 performance도 좋지만, 각 interaction을 독립적인 data instance로 모델링하고, 관계를 고려하지 않는 결점이 있다. 위 그림에서, u는 users, 진짜 사용자를 의미. ex) 넷플릿스 유저 i는 items, 사용자가 보는 아이템 정보. ex) 넷플릭스의 영화 e는 entities, 아이템과 연관성이 있는 어떤 무언가. ex) 베테랑 영화감독은 '류승완'이다, 배우는 '황정민'이다. CKG는 knowledge graph와 user-item graph의 hybrid structure. knowle.. 2019. 10. 22. [추천시스템] Collaborative Filtering for Implicit Feedback Datasets Abstract 추천시스템은 맞춤형 추천으로 customer experience를 향상시키는 것이다. 이런 시스템은 사용자 선호도를 모델링하기 위해 여러 유형의 사용자 행동을 수동적으로 추적한다. 사용자의 직접적인 input도 없고 Introduction e-commerce의 인기가 높아지면서, 사용자가 좋아할만한 정보를 제공해주는게 중요해졌다. 맞춤형 추천을 위해서는 사용자와 상품을 프로파일링하고 그 사이의 관계를 파악하는 것을 기본으로 한다. 추천시스템에는 두 가지 기본적인 전략이 있다. 1. content based approach : 각 사용자나 상품 그 자체의 특징을 잡아내는 profile하는 것. cold start에도 적절하게 사용될 수 있다. 예를 들면, 영화 profile은 장르, 배우,.. 2019. 10. 18. [추천시스템] ITEM2VEC: NEURAL ITEM EMBEDDING FOR COLLABORATIVE FILTERING 1. introduction and related work - 많은 추천 알고리즘은 사용자와 아이템의 낮은 차원의 임베딩을 학습 시키는 데 초점을 맞추고 있지만, 아이템간 유사도를 계산하는 것은 그 자체로 끝난다.(???) - 단어 사이의 semantic한 관계를 알기 위해 낮은 차원의 벡터 공간에 단어와 문단을 매핑한다. - single item recommendations은 explicit user interest(구체적 item), explicit user가 구매할 의도가 있는지를 통해 맥락을 파악하기 때문에 전통적인 user-to-item recommendations보다 CTR도 더 높고 판매와 수익에 기여한다. - 이 논문에서는 item-based CF에 word2vec으로 잘 알려진 SGNS을.. 2019. 10. 14. CNN CNN 기본 이론 CNN(Convolution Neural Network) 탄생 배경 이미지 처리를 하는 데 있어 다양한 각도의 이미지가 필요하다. 이것은 데이터가 많이 필요하고 그만큼 학습 시간도 길어진다는 점을 시사한다. 그래서, * 커널: 작은 가중치 텐서를 이미지의 모든 영역에 반복 적용해 패턴을 찾아 처리한다. * 풀링 계층: 이미지 해상도를 줄여 다양한 크기의 패턴을 단계적 처리 -> 신경망의 파라미터 수 감소, 품질 향상 FC (Fully Connected Layer)의 가중치는 이미지 픽셀 수의 제곱에 비례 CNN의 가중치는 커널 크기를 바꾸지 않는 한 그 안의 파라미터 수는 변하지 않음 Convolution 연산 SAME: 입력 픽셀 행렬 가장자리에 0을 채워 출력 픽셀 행렬과 벡터 사이.. 2019. 9. 30. RNN & Automata (오토마타) [RNN] 1. RNN이란? - Recurrent Neural Network - Hidden Layer 안에 하나 이상의 순환 계층을 갖는 신경망 구조 - 시계열 데이터 처리에 알맞게 고안된 퍼셉트론 계층 - 지연 입력 방식(어떤 시간대의 출력이 다음 시간대의 입력으로 이용됨) 2. Static RNN & Dynamic RNN h_t = tanh(h_(t-1)*W_h + x_t*W_x + b) 같은 대상을 다른 방식으로 표현한 데 지나지 않지만, TF와 같은 프레임워크에서는 이런 표현법의 차이가 실제 계산 그래프 구성에 반영되기도 함 Dynamic RNN 간단한 계산 그래프 구성 해놓고 반복 이용 Static RNN 반복 없이 여러 시간의 동시 처리해서 시간은 더 빠르다. 하지만, 초기 계산 그래프 구성.. 2019. 9. 24. [NLP] Convolutional Neural Networks for Sentence Classification - Yoon Kim 이 논문은 pre-trained word vector과 CNN을 사용하여 sentence classification을 진행했다. static layer: word vector 업데이트 없이 weight 값들만 변경 non-static layer: weight 업데이트 하면서 word vector도 업데이트 - ppt 오른쪽 'Convolution Layer' 수식을 보면 두 가지의 layer 동시 사용했다는 것을 알 수 있다 - feature중 가장 큰 값만 추출(Max-over-time Pooling) - Dropout을 적용하고 activation function으로는 Softmax 사용 Google News에서 제공하는 word 1000억개로 학습시킨 word2vec 벡터를 Pre-trained w.. 2019. 5. 20. 이전 1 2 3 다음 반응형