Discuz教程网

meta robots标签,禁止无效页面的收录 For Discuz 7.x

[复制链接]
authicon dly 发表于 2011-11-5 10:17:31 | 显示全部楼层 |阅读模式
#discuz会产生哪些无效的页面,有什么问题
1.删除了的帖子、版块,当访问时返回帖子不存在的提示信息页。
2.设置了一定权限才能浏览的帖子、版块,很多情况会泄露链接,得到没权限的提示
3.其它各种情况下的提示信息页面。这些都是给用户看的,没有实质内容,都禁止收录。

其实最大的问题还是副本内容的问题,因这些不同的URL,返回的却是相同的内容。对SE不友好。其实对于删除了内容,应该返回404,但为了简单,都使用加meta robots标签,禁止ES收录的方法来解决。

#修改提示信息页面,解决重复内容问题

找到全局函数定义文件:global.func.php修改其它中的showmessage函数就可以了。
在第四行 define('CACHE_FORBIDDEN', TRUE); 后面加上:
$extrahead .='<meta name="robots" content="noindex,nofollow" />';
如此修改之后,对于无权访问的URL、已删除的帖子等提示信息页面,都会返回带有meta robots禁止在页头。因为禁止收录了,过一段时间也会从索引中删除。这样,给SE的都是一些有内容的网页,对于提高权重会有好处。

原来还落下了给archiver加meta robots 补充:2010-3-28
archiver页面的帖子,如果删除了,同样的提示信息也要禁止收录。
修改archiver\include\thread.inc.php:
此文件中有两个
  1. showheader();
复制代码
,在第一个的上面加一行:
  1. $extrahead .='<meta name="robots" content="noindex,nofollow" />';
复制代码
就可以了。
注意,如果之前没做过下面的修改,也需要做一下

三.为archiver页加link canonical标签

1.修改archiver/index.php:在
  1. global $boardurl, $_DCACHE, $charset, $navtitle, $headerbanner, $headernav;
复制代码
行下加一行:
  1. global $extrahead;
复制代码
  1. <meta http-equiv="Content-Type" content="text/html; charset={$charset}" />
复制代码

下加一行:
  1. $extrahead
复制代码
2.修改archiver\include\thread.inc.php:此文件中有两个showheader();,在第二个的上面加一行:
  1. $extrahead .='<link rel="canonical" href="thread-' .$tid. '-1-1.html" />';
复制代码



上一篇:discuz 禁止某个版帖子的收录 For 7.x
下一篇:首页顶部公告栏目上方/发贴按钮右边:添加联系我们美化(补充空白部分)[7.1/7.2]
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

1314学习网 ( 浙ICP备10214163号 )

GMT+8, 2025-5-3 13:39

Powered by Discuz! X3.4

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表