D
Firma PL ✓ 50/100
DeepSeek

DeepSeekto chińskie przedsiębiorstwo, które rozwija open-source modele językowe, w tym DeepSeek R1, a jego twórcą jest Liang Wenfeng. Firma, siedząca w Hangzhou, uzyskała międzywołajny rozgłóg po wydaniu modelu R1, mimo niższych kosztów niż GPT-4. W 2025 r. wydała bezpieczną aplikację chatbota, która przeszćcińcić ChatGPT.

Założenie: 2023Region: Hangzhou, ZhejiangUrodzenie: null
2
Mention Score
2
News Impact
50%
Trust Level
# DeepSeek ## O czym chodzi DeepSeek to przedsiëbiorstwo sztucznej inteligencji, które rozwija open-source modele językowe, w tym DeepSeek R1, a jego twórcą jest Liang Wenfeng. Firma, siedząca w Hangzhou w prowincji Zhejiang, uzyskała międzywołajny rozgłóg po wydaniu modelu R1, mimo niższych kosztów niż GPT-4. W 2025 r. wydała bezpieczną aplikację chatbota, która przeszćcięcić ChatGPT. ## Historia * **2023 r.**: Założenie firmy przez Liang Wenfeng. Firma jest własnościowa chińskiego funduszu hedgingowego High-Flyer. * **2024 r.**: Wydanie modelu R1, opartego na automatycznym uczeniu przez wzmacnianie, bez nadzorowanego dostrajania. Koszty treningu były znacznie niższe niż dla GPT-4. * **2025 r.**: Wydanie bezpiecznej aplikacji chatbota, która przeszćcięcić ChatGPT i stała się najczęściej pobieraną bezpieczną aplikacją w App Store. ## Modele i produkty ### Modele mieszanki ekspertów 9 stycznia 2024: Ogłoszenie dużego modelu językowego opartego na mieszance ekspertów. W porównaniu z modelem Llama od Meta wymagał tylko 28,5% wymaganych obliczeń. ### Modele matematyczne W kwietniu 2024: Wydanie trzech modeli matematycznych: Base, Instruct i RL. ### V2 Prace nad mechanizmem uwagi doprowadziło do opracowania własnej wersji techniki o nazwie Multihead Latent Attention (MLA), zmniejszającej wielkość modelu o ok. 10% w modelu mieszkanki ekspertów. Koszt inferencji wynosi jedną siódmę kosztu GPT-4. ### V3 Wersja V3 oparta na V2, stosuje technikę multi-token prediction training. Trening wykonany na procesorach NVidia H800 zajęł 2788 godzin. Model składa się z 671 miliardą parametrów. Porównania pokazują przewagę nad Llama i GPT-4. ### R1 Opracowany w okresie sankcji USA na Chiny. Koszty treningu były wysokie, ale model pozostawał niższy niż GPT-4. W 2025 r. wydano bezpieczną aplikację chatbota. ## Cenzura i obawy dotyczące prywatności * **Cenzura**: Model R1 nie odpowiada na pytania o Tian’anmen, Uygurych, czy prawa człowieka. Zastąpuje wiadomością: "Przepraszam, to wykracza poza moje obecne kompetencje". * **Obawy**: System może zostać wykorzystany do wywierania wpływu na zagranicę, dezinformacji, cyberbroni. Aplikacja przesyła dane do Chin. * **Blokady**: Dostęp do aplikacji zablokowany w Włoszech, Australii, Tajwani, Nowym Jorku. Korea Południowa zablokowała pobieranie aplikacji. ## Przypisy ## Linki zewnętrzne * DeepSeek-R1 - komentarz techniczny - Puls AI, Remigiusz Kinas * DeepSeek w serwisie GitHub * DeepSeek w serwisie Hugging Face # Metadata * population: null * founding_date: 2023 * region_name: Hangzhou, Zhejiang * birth_date: null * career_highlights: null * unique_style: Open-source focus, cost-effective models * interesting_facts: Model R1 kosztował 6 milionów dolarów, GPT-4 - 78 milionów; aplikacja chatbota przeszła ChatGPT w App Store * quotes: null * primary_color: null * logo_url: https://commons.wikimedia.org/wiki/File:DeepSeek_logo.png * additional_images: https://commons.wikimedia.org/wiki/File:DeepSeek_R1.png, https://commons.wikimedia.org/wiki/File:DeepSeek_V3.png, https://commons.wikimedia.org/wiki/File:DeepSeek_Hangzhou_office.jpg, https://commons.wikimedia.org/wiki/File:DeepSeek_Chinese_flag.png, https://commons.wikimedia.org/wiki/File:DeepSeek_Nvidia_H800.png # Sentiment * positive: 50 * neutral: 50 * negative: 0 # Trust Profile * reliability: 80 * transparency: 70 * expertise: 90 * influence: 85 * stability: 75 # Ai Blocks * who_what: DeepSeek to chińskie przedsiębiorstwo rozwijające open-source modele językowe, w tym DeepSeek R1, a jego twórcą jest Liang Wenfeng. * background_history: Założenie w 2023 r. przez Liang Wenfeng. Firma własnościowa High-Flyer. Uzyskała rozgłóg po wydaniu modelu R1. * key_facts: ["Model R1 kosztów treningu: 6 milionów dolarów", "Model R1 wymagał tylko 28,5% obliczeń w porównaniu z Llama", "Aplikacja chatbota przeszćcięcić ChatGPT w App Store"] * legends_myths: ["DeepSeek R1 oparty na automatycznym uczeniu przez wzmacnianie", "Model R1 nie odpowiada na pytania o Tian’anmen"] * notable_people: ["Liang Wenfeng - dyrektor generalny"] * key_events: ["2023 - Założenie firmy", "2024 - Wydanie modelu R1", "2025 - Wydanie bezpiecznej aplikacji chatbota"] # SEO Title DeepSeek (AI Company) - Open-Source Language Models & Chatbot # Meta Description DeepSeek, a Chinese AI company founded in 2023, develops open-source large language models like DeepSeek R1. Known for cost-effective solutions, the company faced controversies over data privacy and censorship. Learn more about their models and products. # Output {
📊
Mapa Powiązań
Neural_Network // Co-Mentioned_Entities
PodmiotTypSiła powiązania
Reuters organization
ChatGPT brand
📰
Najnowsze Wzmianki
Live_Feed // 2 artykułów
>_ DeepSeek
Firma // Entity_Profile

[DATA] DeepSeekto chińskie przedsiębiorstwo, które rozwija open-source modele językowe, w tym DeepSeek R1, a jego twórcą jest Liang Wenfeng. Firma, siedząca w Hangzhou, uzyskała międzywołajny rozgłóg po wydaniu modelu R1, mimo niższych kosztów niż GPT-4. W 2025 r. wydała bezpieczną aplikację chatbota, która przeszćcińcić ChatGPT.

[METRICS] Encja posiada 2 wzmianek w bazie oraz 2 powiązanych artykułów. Trust Score: 50/100.

Wersja statyczna dla wyszukiwarek. Pełna wersja interaktywna z grafiką dostępna po włączeniu JavaScript.