インターネット全般

ChatGPTとCommon Crawlのサイトへのアクセスを拒否する方法

ChatGPT と Common Crawl がサイトにアクセスするのを防ぐ方法を解説する。

【AI Text Classifier】ChatGPTを提供するOpenAIが独自のAIコンテンツ検出ツールをリリース

ChatGPT を提供する OpenAI が AI Text Classifier という AI コンテンツの検出ツールをリリースした。

CNET MoneyのAI生成コンテンツには問題ありあり: 情報開示不足、間違い、盗作疑い

CNET Money が AI に書かせた記事には、情報開示・間違い・盗作疑いの問題があった。

Google主導のもと、Robots Exclusion Protocol (REP) がインターネット標準に

robots.txt の仕様を標準化する取り組みに Google は着手した。25 年前に考案された Robots Exclusion Protocol (REP) は事実上の標準ではあったが統一されたインターネット標準ではなかった。

Google、Chromeのシークレットモードでアクセスする全ての非HTTPSページに「保護されていない通信」ラベルを。今年10月から

Google は、Chrome ユーザーのプライバシー保護をより一層強化することにした。次のどちらかの条件に当てはまるページに Chrome でアクセスした場合、URL 欄に「保護されていない通信」のラベルが付く。データを入力する HTTP ページ、シークレットモードでアクセスする すべての HTTP ページ

Wayback Machineがrobots.txtを無視するようになるかも?

ウェブページをアーカイブ(取得、保存)する Wayback Machine が robots.txt に従わなくなる仕様変更を検討中。

Chrome 56 と Firefox 51 が非HTTPSでパスワードを収集するページに警告表示

非HTTPSでパスワードを送信するページにGoogle Chrome 56 と Firefox 51では警告が出るようになった。HTTPSへの早急な移行が望まれる。

“Content-Security-Policy: upgrade-insecure-requests”でHTTPSページの混在コンテンツを解消する方法

安全なHTTPSで通信するページで安全ではないHTTPで読み込ませるリソースが存在すると、「混在するコンテンツ (Mixed content)」 のエラーが発生する。Content-Security-Policy: upgrade-insecure-requests という仕組みを使うと、混在するコンテンツが存在している場合でもHTTPSで強制的に読み込ませることが可能。つまり、混在するコンテンツエラーを回避することができる。

URLが空白を含むときは「スペース」と「%20」、「+」のどれを使うべきか?

URLにスペース(空白)が含まれる場合、そのスペースはどのように表現すべきか? クエリストリングにスペースが含まれるURLには「+」か「%20」を用い、スペースが含まれるそれ以外のURLには「%20」を用いる。

安全でないサイトではブラウザ新機能をサポートせず、Firefox開発元が決定。ウェブの世界はHTTPSに向かう

Firefoxブラウザの開発元、Mozillaは、安全ではないサイト、言い換えるとHTTPSで通信していないサイトのサポートを段階的に終了することを発表した。ウェブの世界は確実にHTTPSへ向かっているの。運用サイトのHTTPS化を真剣に考えるべきときが来ている。