贺深泽 (Email:[email protected] )
3. 堆叠法构造 OLHD
3.1 Lin 的堆叠法导言
作者不论证OLHD 的可堆叠性,从定理 1 导出了两个堆叠法。这样操作得到的一定是 OLHD 不需要证明? 是不是满足这一条件就一定能得到 OLHD?而且“ Da and Da themselves are not necessarily Latin hypercubes.” 我不敢相信。
例如,C=[(1.5,0.5,-0.5,-1.5)T,(-1.5,0.5,1.5,-0.5)T] 是 OLHD。 在这个 OLHD 中堆 叠上一个 0 向量,是不是另一个 OLHD ? 尽管把 0 向量认定作正交向量符合数学规则。它是正交的,但不是OLHD。 现在我们给 C 叠上一个 1T 向量,其结果甚至不正交,更不是 OLHD。 把1T 向量认定作正交向量是作者的建议。
3.2 关于第一堆叠法
如果作者按照堆叠原理运作,我们本没有什么要讨论的。但是作者没有准确地说明堆叠法应该遵循的原理, 而把第一堆叠法建立在结构式(2.1) 的张量积的基础上, 即,在 (2.1) 的张量积模型中,遵循其在例 2 中使用的方法,强制定义“(1,1)T” 是 Hadamard 矩阵, “(1/2,-1/2)T” 是 OLHD。 这就不能不质疑其理论基础的可靠性,适用模型有误,用张量积理论解释不了。此处不赘述,在本文附录中给出我的完整意见。
3.3 关于第二堆叠法
The second stacking method is more generally applicable and it chooses
Sa= {-(na-1)/2,-(na-3)/2,...,(na-3)/2,(na-1)/2} and
Sb= {-(n -1)/2,...,-(na+1)/2,(na+1)/2,...,(n - 1)/2}------(3.4), where n = na+ nb. For this choice, Da is an orthogonal Latin hypercube while Db is not.
作者给出了 Proposition 2 (截图)。
作者的叙述表明,第二堆叠法的导出与式(2.1) 有关,实际上,两个堆叠法都与 (2.1) 式有关。 作者用第二堆叠法作为其定理 2 的充分性命题的保证。(2.1) 与 Hadamard 矩阵或子阵紧密相关, Hadamard 矩阵或子阵的存在充分性并没有解决,怎么保证你的第二堆叠法解决定理 2 的能力。
图 5 中,左图为 (5×2) OLH 与 Lin (2008) 定义的 O2 堆叠四次的结果, 右图为另一个 8×4 OLHD 与一个 8×4 正交设计堆叠四次的结果的点图。 每堆叠一次,增加的点都排列在两条直线上。无限堆叠下去的结果是不难想象的。 如果考虑到用张量积构造正交超立方存在的缺陷. 这样的矩阵不能算是 OLHD。定理 2 的充分性证明有效吗?第二堆叠法没有那么大的能力。
图 5. 第二堆叠法的结果非常近似于×-型分布
尽管存在这些问题,该文的两个堆叠法无疑是有意义的,只是但这些堆叠法不能从上述理论中获得理论根据和合法性。我们不得不作进一步的讨论(见本文附录)。
4. 关于Nearly orthogonal Latin hypercubes
什么是 Nearly orthogonal Latin hypercubes ? 作者在 Lin (2008) 中如是说:
Lin's Definition 2.1(Lin (2008)) A Latin hypercube is said to be orthogonal if all pairs of its columns have zero correlation (p.12)
Column-orthogonality is weaker than orthogonality because it does not require each column of D to be balanced (p.19).
这里的 balance 是什么?图 5 中的设计 balance 吗? 我对于零相关设计与弱相关设计的定义请见《弱相关试验设计》一文。
一些年以来,有很多作者讨论了“Nearly orthogonal” 问题。 他们都是讨论 Hedayat 定义的正交阵列的 Nearly orthogonal,而不定义零相关与弱相关这些概念。 在拉丁阵列意义上,向量不定义数字特征,不给 Nearly orthogona 以数值特征是可以理解的。 Lin 等已经给自己的 OLHD 赋予了数值特征,定义了向量间的相关系数和正交性度量, 也使用了零相关和弱相关概念,却不定义临界值。 nearly 的边界在哪里?除了正交的,就都是 “Nearly orthogonal” 的? 完全相关的也是“Nearly orthogonal”的?
(未完待续)
Congratulations @shenzehe! You have completed the following achievement on Steemit and have been rewarded with new badge(s) :
Award for the number of posts published
Click on the badge to view your Board of Honor.
If you no longer want to receive notifications, reply to this comment with the word
STOP
To support your work, I also upvoted your post!
Downvoting a post can decrease pending rewards and make it less visible. Common reasons:
Submit