BERT
Ci sono tanti metodi che permettono di estrarre parole chiave o frasi chiave come ad esempio TF-IDF, Rake, YAKE!, ecc. Questi modelli però funzionano tipicamente in base alle proprietà statistiche di un testo e non in base alla somiglianza semantica, che cattura e sfrutta invece il significato delle parole, frasi e testi.
È qui che entra in gioco BERT.
BERT (Bidirectional Encoder Representations from Transformers) è un modello basato su transformer per il Natural Language Processing che permette di trasformare parole, frasi e testi in array di numeri (embedding) che ne catturano il significato. Parole, frasi e testi che hanno embeddings simili hanno significati semantici simili.