Meta heeft zijn 'Large Language Model AI'-modellen onthuld, die naar eigen zeggen beter kunnen presteren dan het GPT-3-model van OpenAI, maar veel kleiner zijn. Waar GPT-3 175 miljard parameters heeft, bevatten de LLaMA-modellen tussen de 7 en 65 miljard parameters. Het techbedrijf beweert dat het 13B-model de bot van OpenAI al 'op de meeste benchmarks overtreft', dat terwijl deze tien keer kleiner is en daarmee zou kunnen draaien op slechts één gpu. Het grootste LLaMA-model (65B) zou al onge...
Continue reading...
Continue reading...