항목

  • Word2vec Word2vec
    기계 학습 Word2vec은 단어 벡터 표현들을 가져오기 위한 자연어 처리(NLP) 기술이다. 이러한 벡터는 단어의 의미와 문맥에서의 사용법에 대한 정보를 포착한다. word2vec 알고리즘은 대규모 말뭉치의 텍스트를 모델링하여 이러한 표현을 추정한다. 학습된 모델은 동의어를 감지하거나 부분 문장에 대해 추가 단어를 제...
    도서 위키백과
  • Word2vec
    Word2vec is a group of related models that are used to produce so-called word embeddings. These models are shallow, two-layer neural networks, that are trained to reconstruct linguistic contexts of words: the network is shown a word, and must guess at which words occurred in adjacent positions in...
  • Deeplearning4j Deeplearning4j
    4j에는 Restricted Boltzmann machine, deep belief net, deep autoencoder, stacked denoising autoencoder, recursive neural tensor network, word2vec, doc2vec, Glove 등의 알고리듬들이 구현 되어 있다. 이 알고리듬은 모두 아파치 하둡과 스파크를 이용해 분산 병렬 처리가 가능하다. Deeplearning4j는 아파치...
    도서 위키백과
  • Gensim Gensim
    처리하도록 설계되었으며, 이는 메모리 내 처리만을 대상으로 하는 대부분의 다른 기계 학습 소프트웨어 패키지와 차별화된다. Gensim에는 fastText, word2vec 및 doc2vec 알고리즘의 스트리밍 병렬 구현뿐만 아니라 잠재 의미 분석(LSA, LSI, SVD), 비음수 행렬 분해(NMF), 잠재 디리클레 할당(LDA), tf-idf 및 무작위...
    도서 위키백과
  • Seq2seq Seq2seq, Seq2Seq模型
    기계 번역에 사용하기 위해 구글에서 개발했다. 비슷한 초기 작업에는 토마스 미콜로프(Tomáš Mikolov)의 2012년 박사 논문이 포함된다. 2023년에 word2vec 논문으로 NeurIPS로부터 테스트오브타임상(Test of Time Award)을 받은 후 미콜로프는 공개 발표를 했다. 여기서 그는 신경 시퀀스 간 번역에 대한 아이디어가...
    도서 위키백과
  • 패스트텍스트 FastText
    이 모델을 사용하면 단어에 대한 벡터 표현을 얻기 위한 비지도 학습 또는 지도 학습 알고리즘을 만들 수 있다. 페이스북은 294개 언어로 사전 학습된 모델을 제공한다. 여러 논문에서 패스트텍스트가 사용하는 기술을 설명한다. Word2vec 신경망 자연어 처리 fastText https://research.fb.com/downloads/fasttext/ 토막글
    도서 위키백과
  • 분포 의미론 Distributional semantics
    아이디어이다. 분포 가설은 두 단어가 의미적으로 유사할수록 분포적으로 더 유사할 것이며 따라서 유사한 언어적 맥락에서 더 많이 발생하는 경향이 있음을 시사한다. Gensim Word2vec 워드 임베딩 존 루퍼트 퍼스 저널 인용 Reprinted in 서적 인용저널 인용서적 인용보고서 인용저널 인용학위논문 인용콘퍼런스 인용
    도서 위키백과
  • GloVe GloVe
    이 모델은 단어에 대한 벡터 표현을 얻기 위한 비지도 학습 알고리즘이다. 이는 단어 사이의 거리가 의미론적 유사성과 관련된 의미 있는 공간에 단어를 매핑함으로써 달성된다. 즉 전역 행렬 인수분해 및 로컬 컨텍스트 창 방법을 결합한다. BERT (언어 모델) Word2vec 자연어 처리 Deeplearning4j GloVe 웹아카이브
    도서 위키백과
  • Deeplearning4j
    restricted Boltzmann machine, deep belief net, deep autoencoder, stacked denoising autoencoder and recursive neural tensor network, as well as word2vec, doc2vec and GloVe. These algorithms all include distributed parallel versions that integrate with Hadoop and Spark. It is commercially supported...
  • Gensim
    collections, using efficient online algorithms.Gensim includes implementations of tf–idf, random projections, deep learning with Google's word2vec and document2vec algorithms (reimplemented and optimized in Cython), hierarchical Dirichlet processes (HDP), latent semantic analysis (LSA) and...
  • Language model
    log-probability \sum_{-k \leq j-1, \, j \leq k} \log P(w_{t+j}|w_t) This is called a skip-gram language model, and is the basis of the popular word2vec program.Instead of using neural net language models to produce actual probabilities, it is common to instead use the distributed representation...
  • Semantic similarity
    all free for research purposes). and , a Java toolkit to compute the similarity between words and phrases. Allows to import word spaces generated with Word2vec. Freely available for research, API is Apache licensed. , a web API to compute semantic relatedness between pairs of words or text...
이전페이지 없음 현재페이지1 2 3 다음페이지 없음