题目
大语言模型基于Transformer架构延伸出不同的路线图,BERT属于其中哪一种路线图 A. Encoder-OnlyB. Decoder-EncoderC. Encoder-DecoderD. Decoder-Only
大语言模型基于Transformer架构延伸出不同的路线图,BERT属于其中哪一种路线图
- A. Encoder-Only
- B. Decoder-Encoder
- C. Encoder-Decoder
- D. Decoder-Only
题目解答
答案
A
解析
BERT(Bidirectional Encoder Representations from Transformers)是一种基于Transformer架构的预训练模型,它主要用于自然语言处理任务。BERT模型只使用了Transformer的编码器部分,因此它属于Encoder-Only的路线图。这种架构使得BERT能够从文本的前后文信息中学习到丰富的语义表示。