一般来说,知网查重总重复率=重复字数/总字数*100%。 再以结果对比标准,如果在标准之内,论文通过检测,否则,论文需要修改或重写。 另外,知网论文检测中有自己的计算规则,一段文字里面,如果连续13个字出现重复,那么这段文字将会判定成重复内容。 但也看到,知网查重中去除了引用部分的重复率,它是按照章节进行检测的,每个章节都有对应的重复率,章节的重复率等于章节重复字数/章节总字数*100%。 拿到检测报告后,可以看到每个章节的重复率情况,为搞好针对性修改提供了依据。 论文检测主要检测内容重复度,检测到13个相同的字,就认为是雷同,不检测意思的重复度。 当你使用查重系统时,它会将你的论文和它的论文库中的论文进行对比,找到重复项。 这种检测机制有个“致命问题”:就是只看字,不看意思!
大致上来说,知网查重算法采用的是一种根据语义模糊解析算法,用近似比对的方式进行重复率检测。 而不是简单地基于某个最小语句为单位(比如传说中的“13个字连续一样”),进行“循环比对”这么简单。
知网查重原理、知网查重规则? 知网论文查重系统会根据配置的灵敏度来判断论文重复句子。 一般是5%。 其规则用一个例子给大家解释:假如分段检测的段落为1000字,若对比发现引疑似抄袭的文字在50个字以内,是不会被检测出来的。