<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title>Aaj TV - Technology</title>
    <link>https://www.aaj.tv/</link>
    <description>Aaj TV</description>
    <language>ur-PK</language>
    <copyright>Copyright 2026</copyright>
    <pubDate>Thu, 30 Apr 2026 19:55:31 +0500</pubDate>
    <lastBuildDate>Thu, 30 Apr 2026 19:55:31 +0500</lastBuildDate>
    <ttl>60</ttl>
    <item xmlns:default="http://purl.org/rss/1.0/modules/content/">
      <title>سالوں کے اپگریڈز کے باوجود چیٹ جی پی ٹی غلط معلومات کیوں دے رہا ہے؟</title>
      <link>https://www.aaj.tv/news/30491472/</link>
      <description>&lt;p&gt;&lt;strong&gt;حالیہ تحقیق میں انکشاف ہوا ہے کہ جنریٹو اے آئی ماڈلز، جن میں چیٹ جی پی ٹی بھی شامل ہے، اب بھی اکثر ”جھوٹے حقائق یا ہیلوسینیشنز“ تخلیق کرتے ہیں، یعنی ایسی معلومات فراہم کرتے ہیں جو حقیقت پر مبنی نہیں ہوتیں۔&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;اسٹینفورڈ یونیورسٹی کی اس تحقیق سے معلوم ہوا ہے کہ  اے آئی سسٹمز اکثر قیاس کرنے کی عادت رکھتے ہیں۔ یہ اس لیے ہوتا ہے کہ یہ پروگرام ایسے بنائے گئے ہیں کہ اگر انہیں کسی جواب کے بارے میں پتا نہ ہو تو بھی وہ کچھ نہ کچھ جواب دینے کی کوشش کرتے ہیں، بجائے اس کے کہ کہہ دیں ”مجھے پتا نہیں“۔&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.aaj.tv/news/30491450/"&gt;&lt;strong&gt;جدید کاریں آپ کی جاسوسی کر رہی ہیں، ان سے کیسے بچیں؟&lt;/strong&gt;&lt;/a&gt;&lt;/p&gt;
&lt;h1&gt;&lt;a id="ہیلوسینیشن-کیوں-ہوتی-ہے" href="#ہیلوسینیشن-کیوں-ہوتی-ہے" class="heading-permalink" aria-hidden="true" title="Permalink"&gt;&lt;/a&gt;&lt;strong&gt;ہیلوسینیشن کیوں ہوتی ہے؟&lt;/strong&gt;&lt;/h1&gt;
&lt;p&gt;اوپن  اے آئی کے محققین بتاتے ہیں کہ اے آئی ماڈلز کی تربیت اور جانچ میں بنیادی خامی موجود ہے۔&lt;/p&gt;
&lt;p&gt;زیادہ تر ماڈلز کو صحیح جوابات زیادہ سے زیادہ دینے کے لیے ڈیزائن کیا گیا ہے۔&lt;/p&gt;
&lt;p&gt;اس کا نتیجہ یہ ہوتا ہے کہ ماڈل اکثر قیاس آرائی کرتا ہے بجائے یہ کہ کہے کہ اسے علم نہیں ہے۔&lt;/p&gt;
&lt;p&gt;محققین نے اس کا موازنہ ایسے طالب علم سے کیا ہے جو ہر سوال کا جواب دینے کی کوشش کرتا ہے، تاکہ نمبر ملیں، چاہے جواب درست نہ ہو۔&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.aaj.tv/news/30490448/"&gt;سائنسدانوں نے درجہ حرارت کا الٹا بہائو ناپنے کے لیے کوانٹم تھرمو میٹر تیار کرلیا &lt;/a&gt;&lt;/p&gt;
&lt;h1&gt;&lt;a id="تربیت-کا-عمل-بھی-مسئلہ-بڑھاتا-ہے" href="#تربیت-کا-عمل-بھی-مسئلہ-بڑھاتا-ہے" class="heading-permalink" aria-hidden="true" title="Permalink"&gt;&lt;/a&gt;&lt;strong&gt;تربیت کا عمل بھی مسئلہ بڑھاتا ہے&lt;/strong&gt;&lt;/h1&gt;
&lt;p&gt;اے آئی ماڈلز بہت زیادہ متن پڑھ کر سیکھتے ہیں اور اگلے الفاظ کا اندازہ لگاتے ہیں۔ کچھ مواد آسان اور منطقی ہوتا ہے، لیکن بہت سا ڈیٹا نامکمل یا بے ترتیب ہوتا ہے۔ جب انہیں مشکل یا غیر واضح سوالات دیے جائیں، تو یہ خود سے جواب بنانے کی کوشش کرتے ہیں، جس کی وجہ سے اکثر غلط معلومات سامنے آجاتی ہیں۔&lt;/p&gt;
&lt;p&gt;    &lt;figure class='media  sm:w-1/3  w-full  media--left  media--embed  media--uneven' data-original-src='https://www.aaj.tv/news/30490121/'&gt;
        &lt;div class='media__item  media__item--newskitlink  '&gt;    &lt;iframe
        class="nk-iframe"
        width="100%" frameborder="0" scrolling="no" style="height:250px;position:relative"
        src="https://www.aaj.tv/news/card/30490121"
        sandbox="allow-same-origin allow-scripts allow-popups allow-modals allow-forms"&gt;&lt;/iframe&gt;&lt;/div&gt;
        
    &lt;/figure&gt;&lt;/p&gt;
&lt;h1&gt;&lt;a id="موجودہ-جانچ-کے-طریقے-ناکافی-ہیں" href="#موجودہ-جانچ-کے-طریقے-ناکافی-ہیں" class="heading-permalink" aria-hidden="true" title="Permalink"&gt;&lt;/a&gt;موجودہ جانچ کے طریقے ناکافی ہیں&lt;/h1&gt;
&lt;p&gt;تحقیق میں یہ بھی بتایا گیا ہے کہ موجودہ ایویلیوایشن سسٹمز صرف درستگی پر زیادہ زور دیتے ہیں۔&lt;/p&gt;
&lt;p&gt;ماڈلز کو صرف اس بات پر پرکھا جاتا ہے کہ وہ کتنے صحیح جوابات دیتے ہیں۔&lt;/p&gt;
&lt;p&gt;اس وجہ سے اے آئی کو جواب دینے کی ترغیب ملتی ہے، چاہے وہ غلط ہی کیوں نہ ہو، جبکہ کسی سوال کو چھوڑنے یا شک ظاہر کرنے پر کوئی انعام نہیں ملتا۔&lt;/p&gt;
&lt;p&gt;&lt;a href="https://www.aaj.tv/news/30490143/"&gt;&lt;strong&gt;سائنس دانوں نے نظروں کے سامنے چھپی نئی طاقتور اینٹی بائیوٹک ڈھونڈ نکالی&lt;/strong&gt; &lt;/a&gt;&lt;/p&gt;
&lt;h1&gt;&lt;a id="حل-کیا-ہو-سکتا-ہے" href="#حل-کیا-ہو-سکتا-ہے" class="heading-permalink" aria-hidden="true" title="Permalink"&gt;&lt;/a&gt;حل کیا ہو سکتا ہے؟&lt;/h1&gt;
&lt;p&gt;محققین نے کچھ تجاویز بھی پیش کی ہیں:&lt;/p&gt;
&lt;p&gt;اے آئی ماڈلز کو پراعتماد غلطیوں پر سزا دی جائے۔&lt;/p&gt;
&lt;p&gt;شک یا غیر یقینی صورتحال ظاہر کرنے پر انعام دیا جائے۔&lt;/p&gt;
&lt;center&gt;&lt;p&gt;&lt;a href="https://whatsapp.com/channel/0029Va8czsoLNSZzP877bA0I"&gt;
&lt;img src="https://i.aaj.tv/large/2025/09/041745569b68024.webp" alt="AAJ News Whatsapp" width="728" height="90"&gt;
&lt;/a&gt;&lt;/p&gt;&lt;/center&gt;
&lt;p&gt;موجودہ ”درستگی پر مبنی“ جانچ کے طریقے بدل کر  اے ائی کو زیادہ قابل اعتماد بنایا جا سکتا ہے۔&lt;/p&gt;
&lt;p&gt;یہ طریقہ ایسے ہے جیسے تعلیمی امتحانات میں غلط جواب پر منفی نمبر اور سوال چھوڑنے پر جزوی کریڈٹ دیا جاتا ہے۔&lt;/p&gt;
&lt;p&gt;اگرچہ اے آئی ٹیکنالوجی میں بہت ترقی ہو چکی ہے، مگر جھوٹی معلومات یا ہیلوسینیشن کا مسئلہ ابھی بھی موجود ہے۔ صحت، قانون اور دیگر حساس شعبوں میں اے آئی کے بڑھتے استعمال کے پیشِ نظر، گہرے تحقیقی اقدامات اور حفاظتی میکانزم کی ضرورت ہے تاکہ ماڈلز زیادہ مستند اور قابل اعتماد بن سکیں۔&lt;/p&gt;
</description>
      <content:encoded xmlns="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><strong>حالیہ تحقیق میں انکشاف ہوا ہے کہ جنریٹو اے آئی ماڈلز، جن میں چیٹ جی پی ٹی بھی شامل ہے، اب بھی اکثر ”جھوٹے حقائق یا ہیلوسینیشنز“ تخلیق کرتے ہیں، یعنی ایسی معلومات فراہم کرتے ہیں جو حقیقت پر مبنی نہیں ہوتیں۔</strong></p>
<p>اسٹینفورڈ یونیورسٹی کی اس تحقیق سے معلوم ہوا ہے کہ  اے آئی سسٹمز اکثر قیاس کرنے کی عادت رکھتے ہیں۔ یہ اس لیے ہوتا ہے کہ یہ پروگرام ایسے بنائے گئے ہیں کہ اگر انہیں کسی جواب کے بارے میں پتا نہ ہو تو بھی وہ کچھ نہ کچھ جواب دینے کی کوشش کرتے ہیں، بجائے اس کے کہ کہہ دیں ”مجھے پتا نہیں“۔</p>
<p><a href="https://www.aaj.tv/news/30491450/"><strong>جدید کاریں آپ کی جاسوسی کر رہی ہیں، ان سے کیسے بچیں؟</strong></a></p>
<h1><a id="ہیلوسینیشن-کیوں-ہوتی-ہے" href="#ہیلوسینیشن-کیوں-ہوتی-ہے" class="heading-permalink" aria-hidden="true" title="Permalink"></a><strong>ہیلوسینیشن کیوں ہوتی ہے؟</strong></h1>
<p>اوپن  اے آئی کے محققین بتاتے ہیں کہ اے آئی ماڈلز کی تربیت اور جانچ میں بنیادی خامی موجود ہے۔</p>
<p>زیادہ تر ماڈلز کو صحیح جوابات زیادہ سے زیادہ دینے کے لیے ڈیزائن کیا گیا ہے۔</p>
<p>اس کا نتیجہ یہ ہوتا ہے کہ ماڈل اکثر قیاس آرائی کرتا ہے بجائے یہ کہ کہے کہ اسے علم نہیں ہے۔</p>
<p>محققین نے اس کا موازنہ ایسے طالب علم سے کیا ہے جو ہر سوال کا جواب دینے کی کوشش کرتا ہے، تاکہ نمبر ملیں، چاہے جواب درست نہ ہو۔</p>
<p><a href="https://www.aaj.tv/news/30490448/">سائنسدانوں نے درجہ حرارت کا الٹا بہائو ناپنے کے لیے کوانٹم تھرمو میٹر تیار کرلیا </a></p>
<h1><a id="تربیت-کا-عمل-بھی-مسئلہ-بڑھاتا-ہے" href="#تربیت-کا-عمل-بھی-مسئلہ-بڑھاتا-ہے" class="heading-permalink" aria-hidden="true" title="Permalink"></a><strong>تربیت کا عمل بھی مسئلہ بڑھاتا ہے</strong></h1>
<p>اے آئی ماڈلز بہت زیادہ متن پڑھ کر سیکھتے ہیں اور اگلے الفاظ کا اندازہ لگاتے ہیں۔ کچھ مواد آسان اور منطقی ہوتا ہے، لیکن بہت سا ڈیٹا نامکمل یا بے ترتیب ہوتا ہے۔ جب انہیں مشکل یا غیر واضح سوالات دیے جائیں، تو یہ خود سے جواب بنانے کی کوشش کرتے ہیں، جس کی وجہ سے اکثر غلط معلومات سامنے آجاتی ہیں۔</p>
<p>    <figure class='media  sm:w-1/3  w-full  media--left  media--embed  media--uneven' data-original-src='https://www.aaj.tv/news/30490121/'>
        <div class='media__item  media__item--newskitlink  '>    <iframe
        class="nk-iframe"
        width="100%" frameborder="0" scrolling="no" style="height:250px;position:relative"
        src="https://www.aaj.tv/news/card/30490121"
        sandbox="allow-same-origin allow-scripts allow-popups allow-modals allow-forms"></iframe></div>
        
    </figure></p>
<h1><a id="موجودہ-جانچ-کے-طریقے-ناکافی-ہیں" href="#موجودہ-جانچ-کے-طریقے-ناکافی-ہیں" class="heading-permalink" aria-hidden="true" title="Permalink"></a>موجودہ جانچ کے طریقے ناکافی ہیں</h1>
<p>تحقیق میں یہ بھی بتایا گیا ہے کہ موجودہ ایویلیوایشن سسٹمز صرف درستگی پر زیادہ زور دیتے ہیں۔</p>
<p>ماڈلز کو صرف اس بات پر پرکھا جاتا ہے کہ وہ کتنے صحیح جوابات دیتے ہیں۔</p>
<p>اس وجہ سے اے آئی کو جواب دینے کی ترغیب ملتی ہے، چاہے وہ غلط ہی کیوں نہ ہو، جبکہ کسی سوال کو چھوڑنے یا شک ظاہر کرنے پر کوئی انعام نہیں ملتا۔</p>
<p><a href="https://www.aaj.tv/news/30490143/"><strong>سائنس دانوں نے نظروں کے سامنے چھپی نئی طاقتور اینٹی بائیوٹک ڈھونڈ نکالی</strong> </a></p>
<h1><a id="حل-کیا-ہو-سکتا-ہے" href="#حل-کیا-ہو-سکتا-ہے" class="heading-permalink" aria-hidden="true" title="Permalink"></a>حل کیا ہو سکتا ہے؟</h1>
<p>محققین نے کچھ تجاویز بھی پیش کی ہیں:</p>
<p>اے آئی ماڈلز کو پراعتماد غلطیوں پر سزا دی جائے۔</p>
<p>شک یا غیر یقینی صورتحال ظاہر کرنے پر انعام دیا جائے۔</p>
<center><p><a href="https://whatsapp.com/channel/0029Va8czsoLNSZzP877bA0I">
<img src="https://i.aaj.tv/large/2025/09/041745569b68024.webp" alt="AAJ News Whatsapp" width="728" height="90">
</a></p></center>
<p>موجودہ ”درستگی پر مبنی“ جانچ کے طریقے بدل کر  اے ائی کو زیادہ قابل اعتماد بنایا جا سکتا ہے۔</p>
<p>یہ طریقہ ایسے ہے جیسے تعلیمی امتحانات میں غلط جواب پر منفی نمبر اور سوال چھوڑنے پر جزوی کریڈٹ دیا جاتا ہے۔</p>
<p>اگرچہ اے آئی ٹیکنالوجی میں بہت ترقی ہو چکی ہے، مگر جھوٹی معلومات یا ہیلوسینیشن کا مسئلہ ابھی بھی موجود ہے۔ صحت، قانون اور دیگر حساس شعبوں میں اے آئی کے بڑھتے استعمال کے پیشِ نظر، گہرے تحقیقی اقدامات اور حفاظتی میکانزم کی ضرورت ہے تاکہ ماڈلز زیادہ مستند اور قابل اعتماد بن سکیں۔</p>
]]></content:encoded>
      <category>Technology</category>
      <guid>https://www.aaj.tv/news/30491472</guid>
      <pubDate>Sun, 09 Nov 2025 13:39:41 +0500</pubDate>
      <author>none@none.com (ویب ڈیسک)</author>
      <media:content url="https://i.aaj.tv/large/2025/11/091339271c7648c.webp" type="image/webp" medium="image" height="480" width="800">
        <media:thumbnail url="https://i.aaj.tv/thumbnail/2025/11/091339271c7648c.webp"/>
        <media:title/>
      </media:content>
    </item>
  </channel>
</rss>
