Hugging Face 로그인하는 2가지 방법 (Jupyter Notebook & CLI)
·
LLM
1. Jupyter Notebook에서 Hugging Face 로그인from huggingface_hub import notebook_loginnotebook_login()실행하면 브라우저에서 Hugging Face 인증 창이 뜨고, 로그인 후 Access Token을 입력하면 된다.   2. 터미널에서 Hugging Face 로그인huggingface-cli login실행하면 Access Token 입력을 요구하며, Hugging Face 웹사이트에서 받은 토큰을 입력하면 된다.   참고 : Access Token 발급Access Token은 허깅 페이스 홈페이지 에서 생성 가능
[LLMRec/논문리뷰] Zero-Shot Next-Item Recommendation using Large Pretrained Language Models
·
LLM
📌 논문 정보Zero-Shot Next-Item Recommendation using Large Pretrained Language Models2023년 4월 / Technical Report / Singapore Management University  Zero-Shot Next-Item Recommendation using Large Pretrained Language ModelsLarge language models (LLMs) have achieved impressive zero-shot performance in various natural language processing (NLP) tasks, demonstrating their capabilities for inference withou..
[LLMRec/개념] Generative Retrieval이란?
·
LLM
전통적인 문서 검색 방식 2-tower 모델을 훈련하여 쿼리(query)와 문서(document)를 동일한 고차원 벡터 공간에 매핑한 후, ANN(Approximate Nearest Neighbor) 또는 MIPS(Maximum Inner Product Search)를 수행하여 가장 가까운 문서를 반환하는 방식거대한 임베딩 테이블(large embedding table)을 필요로 함 → 단점 확인하기이러한 문제점을 해결하기 위해 최근 제안된 기법이 Generative Retrieval 임 Generative Retrieval 최근 문서 검색(document retrieval) 분야에서 개발된 접근법문서의 제목(title), 이름(name), 또는 문서 ID 문자열(document ID string)을 토..
[LLMRec/개념] 추천 시스템에서 Matrix Factorization과 Indexing
·
LLM
1. Matrix Factorization (행렬 분해)이란?Matrix Factorization은 하나의 큰 행렬을 두 개 이상의 작은 행렬로 분해하는 기법이다. 즉, 복잡한 데이터를 더 간단한 형태로 나누어 처리하기 쉽게 만드는 방법이라고 생각할 수 있다. 이를 수식으로 나타내면 다음과 같다 : $$A=B\times C$$$A$: 원래의 행렬(입력 데이터)$B,C$: 분해된 작은 행렬(저차원 형태의 데이터) 행렬 분해를 통해 원래의 행렬보다 계산이 간단해지고, 데이터의 숨겨진 구조와 패턴을 파악할 수 있는 장점이 있다. 이러한 이유로 Matrix Factorization은 추천 시스템, 데이터 압축, 차원 축소 등 다양한 분야에서 널리 활용된다.  Matrix Factorization은 여러 방식으로..
내일은분석왕
'LLM' 카테고리의 글 목록 (3 Page)