EXPERIMENTS WITH A SEARCH ALGORITHM FOR THE DATA BASE OF A HUMAN BELIEF STRUCTURE

この論文は論文 "Artificial Paranoia" での研究に先立って、人間のビリーフ構造(Human Belief Structure)のデータベースを検索する方法に関する実験をまとめたもののようです。タイトルにもある "BELIEF" とは「信じていること」を意味する心理学の用語みたいです。「信念」とか「思い込み」と無理に邦訳できますが、言葉の意味合いとしてフィットしないように思うので、ここでは「ビリーフ」と表現します。 

 

"Artificial Paranoia" には PARRY の情報工学的側面の解説が少ないので、こっちも読まなければならなくなったけど、多分 PARRY の再実装には不十分な内容でしょう。結局、ソースコードに残る MLISP のダンプデータの解析が必要なんだと思います。

 

 

--------------------------------------------------------------------------------

EXPERIMENTS WITH A SEARCH ALGORITHM FOR THE DATA BASE OF A HUMAN BELIEF STRUCTURE(人間のビリーフ構造のデータベースのための探索アルゴリズムを用いた実験)

 

 

Kenneth Mark Colby
Lawrence Tesler
Horace Enea

 

 

Summary

A large data base was collected from a human informant. The data consisted of beliefs regarding parent-child relations. A variety of factors in searching the data base were manipulated in an attempt to discover which were the more important in contributing to estimates of credibility.

人間の情報提供者から大きなデータベースが収集された。データは親子関係に関するビリーフで構成されています。データベースの検索における様々な要因を操作して、いずれが信頼性の見積もりに重要かを発見しようと試みました。

Problems of data collection, data representation and a searching algorithm are discussed in detail.

データ収集、データ表現、検索アルゴリズムの問題について詳細に説明します。

 

 

Introduction(はじめに)

It is clear that people hold beliefs. What is not so clear is how these beliefs are processed to judge the credibility of an input proposition. As an aid in understanding credibility processes, we constructed a computer model which was intended to simulate the belief processes of a particular human informant. We shall begin with a clarification of terminology used in describing the model.

人々がビリーフを保持していることは明らかですが、これらのビリーフを処理して入力された命題の信頼性を判断する方法は、あまり明確ではありません。信頼性を獲得するプロセスの理解を助けるために、特定の人間の情報提供者のビリーフ・プロセスをシミュレートするためのコンピュータモデルを構築しました。モデルの説明に使用される用語の明確化から始めます。

 

Terminology(用語)

A model consists of a set of interacting components. The major components of the model to be described are state-descriptions (data base), process-descriptions (procedures) and an interpreter whose logic governs the applications of process-descriptions to state-descriptions in accordance with the aim or task of judging credibility. Thus the model is two levelled with the interpreter at the top supervising interactions between procedures and data base.

モデルは、一連の相互作用するコンポーネントで構成されています。記述されるモデルの主な構成要素は、状態の記述(データベース)、プロセスの記述(プロシージャ)、および論理がプロセス記述の状態記述への適用を支配するインタープリターで、インタープリターのロジックは、信頼性を判断する目的またはタスクに従って、状態の記述をプロセスの記述のアプリケーションに適用します。したがってモデルは、インタプリタにより、手続きとデータベースの間の相互作用を管理する2つのレベルに分かれています。

The data base is made up of a conceptual graph whose basic structures consists of conceptualizations in turn composed of elementary conceptions. Conceptualizations in the model are held propositions which symbolically represent states of affairs or situations. Conceptualizations can be represented in both natural and computer languages by an ordered set of name-tokens. Thus a given conceptualization might be described in English as 'Bill likes Mary' and in a programming language as the list  *1 . The particular conceptualizations we focussed on were those which semantically involved certain relations between humans. Since people conceptualize their experience with persons in terms of human action, the elementary conceptions of the data base involve agents, actions, objects and  (optionally) settings, modalities and rationales.

データベースは基本概念が順次構成され概念化された基本構造からなる概念グラフで構成されています。モデルにおける概念は、事象や状況を象徴的に表す命題を保持しています。概念は、ネームトークンで順序付けられたセットによって自然言語とコンピュータ言語の両方で表現することができます。したがって、与えられた概念は、英語では 'Bill likes Mary'と記述され、プログラミング言語では *2 と記述されます。我々が焦点を当てた具体的な概念は、人間と人間との間の特定の関係を意味的に含むものでした。多くの人は人間の行動に関して人間との経験を概念化するので、データベースの基本概念には、agent、action、object、および (optionally) 設定として様式、論拠が含まれます。

The term 'belief' in human belief structures refers to (a) an affective attitude of acceptance, rejection or neutral judgment towards, (b) a held conceptualization. Each conceptualization held or prehended by a belief structure is either accepted to some degree as true, rejected to some degree as false or held in suspension as a neutral candidate for belief. 'True' here means that the situation conceptualized is accepted as being certainly, probably, or possibly being the case while 'false' stands for the opposite of these three modal quantifiers. It is important to note that the attitude of rejection or incredibility is towards a conceptualization prehended within a structure. A disbelieved conceptualization is not expelled from the structure but is prehended with an attitude of rejection. A conception is thus judged to be credible, incredible or somewhere in between.

人間のビリーフ構造における 'belief' という用語は (a) 受け入れ、拒絶、または中立的な判断に対する中立的な態度、(b) 保持された概念を指します。ビリーフ構造によって保持されているか、または予期されていた各々の概念は、ある程度は真実として受け入れられ、ある程度は虚偽として拒否され、中立的なビリーフの候補として中断されます。ここでの 'True' とは、概念化された状況が「確かに」「おそらく」「可能性がある」と受け入れられることを意味し、一方、'false' はこれらの3つの量的限定子の反対を表します。拒絶あるいは信用の態度は、構造内で予期された概念に向いていることに注意する必要があります。信用できない概念は構造から追い出されるのではなく、拒絶の態度として捉えられます。したがって、概念は信用できる、信用できない、あるいはその両者の間のいずれかにあると判断されます。

We postulate credibility to be a function of foundation and consistency. The foundation of a given belief is a measure of those beliefs which imply it as opposed to its negation. Consistency refers to a degree of consonance and dissonance found in those beliefs a given belief implies. The term 'imply' does not refer to logical implication but to psychological implication which involves rules of expectancy. We also assume a weight which determines the relative importance foundation and consistency have for one another in a particular domain of interest.

信頼性は根拠と一貫性の関数であると仮定します。与えられたビリーフの否定に反対するような意味を持つ根拠は、それらのビリーフの目安になります。一貫性は、そのようなビリーフの中に与えられたビリーフの含意との一致や食い違いを指します。「含意」という用語は、論理的意味合いを指すのではなく、予期されたルールを含む心理的意味に関連しています。また、特定の関心領域において、根拠と一貫性の相対的重要性を決定する重みを仮定します。

Conceptualizations with their associated credbilities make up one component of the data base. We term these conceptualizations 'facts' since they stand for that which is or is not the case in the structure. A second component of the data base consists of rules. By the term 'rule' we mean a connectivity relation holding between two or more conceptualizations. The components of this relation contains variables as well as name-tokens. Hence, a rule might read 'if x likes y then x helps y', where both x and y are variables to which the name-tokens of persons can be bound. As mentioned, this if-then relation represents a type of psychological implication. Our interpretation of psychological implication is that given conceptualization A to be the case, conceptualization B is expected to be the case by the structure. For example, humans commonly expect that if a person likes another person, the first person will help the second person. Such general expectancy rules allow a variety of inference processes to be carried out. A further discussion of psychological implication can be found in Abelson[2].

信用度が関連付けられた概念は、データベースの1つの構成要素を構成します。それらは構造内にあるか?否か?に立脚しているので、これらの概念は 'facts' と呼ばれます。データベースの第2の構成要素はルールからなります。'rule' という用語は、2つ以上の概念を保持する接続関係を意味します。この関係のコンポーネントには、変数と名前トークンが含まれます。したがって、ルールは 'if x likes y then x helps y' と読むことができます。ここでの x と y は人の名前トークンを束縛できる変数です。既に言及したように、この if-then 関係は、ある種の心理学的含意を表します。心理学的含意の我々の解釈は、概念 A が与えられれば、概念 B は構造によって当てはまると予想されることを意味します。例えば、人間は、ある人が他の人を好きなら、最初の人は2番目の人を助けると一般的に考えています。そのような一般的な予測値ルールは、様々な推論プロセスが実行されることを可能にします。心理学的含意の詳細な議論は Abelson[2] に見ることができます。

The remaining components of the data base con sist of definitions and classifications. For example, the name-token 'love' is defined as similar-to and stronger-then 'like'. 'Dislike 1 is definable as negation-of 'like'. These definitions are used in finding similarities and contrasts between conceptualizations. Classifications consist of set memberships and set inclusions.

データベースの残りのコンポーネントは、定義と分類で構成されています。たとえば、名前トークン 'love' は 'like' と similar-to であり stronger-then と定義されています。これらの定義は、概念の間の類似点と対照点を見つけるのに使用されます。分類は、一連のメンバーシップと一連の内容物で構成されます。

In summary, the data base represents information in the form of various kinds of state descriptions. When the model runs, this information is subjected to procedures governed by a top-level interpreter. The procedures are called into operation by the interpreter in accordance with the task involved. The main task we were interested in involves estimating the credibility of a given proposition describing some actual or hypothetical situations. Given such a proposition, how might a person judge its credibility using the information-processing capacities he has available?

要約すると、データベースは、様々な種類の状態記述の形で情報を表します。モデルが実行されると、この情報はトップレベルのインタプリタによって管理されるプロシージャを受けます。このプロシージャは、関係する作業に応じてインタプリタのオペレーションに呼び出されます。私たちが関心を持っていた主な仕事は、実際の状況や仮説的な状況を記述した命題の信頼性を推定することです。そのような命題が与えられた場合、利用可能な情報処理能力を使って、どのように信頼性を判断するのでしょうか?

We approached this problem by selecting an informant, collecting certain beliefs, and representing them in a data base. We planned firs t to conduct certain information-processing experiments on the data base and second to attempt a validation of the simulation. This report will be concerned with the first phase of experimentation.

我々は、情報提供者を選択し、特定のビリーフを収集し、それらをデータベースで表現することによって、この問題にアプローチしました。

 

Data Collection(データの収集)

To find an informant for this research, we advertised in a college newspaper for persons who might be interested. Out of 65 applicants, we interviewed 26 and then selected a 30 year old married woman on grounds that she was intelligent, articulate, interested in the research and serious of purpose.*

この研究の情報提供者を見つけるために、私たちは大学の新聞に興味を持った人物を広告しました。65名の応募者のうち26名にインタビューを行い、研究目的に重点を置いて知的で明確であり、研究に興味があり、目的に真剣である30歳の既婚女性を選択しました。*

* For obvious reasons we cannot give her name, but we would like to use this footnote to express our gratitude for her help.

* 彼女の名前を明かすことはできませんが、この脚注を使用して彼女の助けに感謝の意を表したいと思います。

Several times a week she would write down in natural language beliefs which occurred to her about events in her life. Each week we would try to reduce these natural language statements to a simpler form suitable for the model's data base and processing. At intervals we would show the data base to the informant for her corroboration or correction of our paraphrasings. Initially we planned to obtain her beliefs regarding all the important people in her life space. Preliminary experience showed that while collection of such data is possible, the labor required to organize and represent this amount of data in a computer model makes the task extremely difficult with currently available methods.

週に数回、彼女は生活で起こった出来事について自然言語でビリーフを書き留めます。毎週、これらの自然言語文を、モデルのデータベースや処理に適した、より単純な形式に縮小することを試みました。時々、私たちは彼女にデータベースを示し、彼女の確認や我々の言い換えの修正を行いました。当初、私たちは彼女の人生の中で重要な人々に関するすべてのビリーフを得る予定でした。予備的な経験により、そのようなデータの収集は可能であるが、現在のコンピュータ・モデルでこの量のデータを整理して表現するのに必要な労力は、利用可能な方法では非常に困難であることが示されたました。

We found two main disadvantages to this method of data-collection. First, it is cumbersome and time-consuming, requiring hundreds of man-hours to obtain a data base of 700 facts, rules, definitions and classifications. A better method should be developed whereby an informant could type information directly into a data-base by means of a man-machine dialogue. This input might be in an artificial and simplified language which an informant could learn. However an artificial language is distracting and constrains expressiveness. It would be better to allow the rich freedom of natural language but there are great problems involved in the machine handling of this sort of input. We have had some experience along these lines[3] and we are continuing an attempt to make a conceptual parsing of natural language sentences in order to translate them into conceptualizations suitable for the data base of a belief structure.

このデータ収集方法には、主に2つの欠点がありました。第1に、煩雑で時間がかかり、700の事実、規則、定義、分類のデータベースを手に入れるのに何百もの工数を要します。情報提供者がマン・マシンの対話によって情報をデータベースに直接入力できるようにするより良い方法を開発すべきです。この入力は、情報提供者が学ぶことができる人工的かつ簡略化された言語であってもよいでしょう。しかし、人工言語は気を散らし、表現力を制約しています。自然言語の豊富な自由を許す方が良いでしょうが、このような入力の機械操作には大きな問題があります。私たちはこれらのライン [3] に沿ったいくつかの経験を持っており、自然言語文をビリーフ構造のデータベースに適した概念に変換するために概念的解析を試みています。

A second drawback to our initial data collection method involved the problem of extensiveness versus intensiveness. An extensive database is one in which there are a great variety of conceptualizations but not a great number around any one theme. While containing a large amount of information, this type of data is too sparse to permit the model to come to very many conclusions regarding credibility. Few beliefs of relevance can be found for a given proposition unless it is of a very general and hence trivial nature.

初期のデータ収集方法の第2の欠点は、拡張性と集中性の問題でした。広範なデータベースには、多種多様な概念化がありますが、いずれのテーマにも大きな影響はありません。大量の情報を含んでいますが、このタイプのデータはあまりにも疎であり、モデルが信頼性に関する非常に多くの結論に至ることができません。それが非常に一般的で、それゆえに些細な性質でない限り、与えられた命題に対して関連するいくつかのビリーフを見つけることができます。

We then attempted to concentrate on a particular theme in order to make the database dense around selected conceptions. Since our informant was the mother of a three year old child and interested in the problem of child raising, we concentrated on her beliefs in this area. For each of her beliefs in this domain, we obtained a weighting of a degree of credibility. We used crude categories of strong, medium and weak for these weightings. To obtain data rules we would ask the informant for reasons for each belief. For example, if a belief were 'a child ought not hit another child' and the reason given by the informant was 'because if a child hits another child then the second child gets hurt', a general if-then expectation rule can be constructed about the relation between hitting and hurting.

次に、選択された概念を中心にデータベースを密集させるために、特定のテーマに集中しようとしました。私たちの情報提供者は3歳の幼児の母親で、子育ての問題に興味があるため、私たちはこの分野の彼女のビリーフに集中しました。この領域の彼女のビリーフごとに、信頼性の程度の重み付けを取得しました。これらの重み付けには、強、中、弱の粗いカテゴリを使用しました。データのルールを得るために、私たちは情報提供者に各ビリーフの理由を尋ねました。例えば、ビリーフが「子供は別の子供を叩いて(hit)はならない」であり、情報提供者によって与えられた理由が「叩かれた子供が傷つく(gets hurt)から」であった場合、打撃(hitting)と傷害(hurting)との関係について、一般的な if-then 予想ルールを構築することができます。

One difficulty to be anticipated in simulating a human belief structure involves keeping the model updated along with the informant. If a person's beliefs are continually changing, one cannot keep a model in close enough correspondence to test out comparisons between the person's and the model's performances in estimating credibility. However, we found that with our informant, these particular beliefs about parent-child behavior changed very little over a period of several months. In the case of only two beliefs did she change a credibility weight from strong to medium. Hence the structure appeared quite stable over this period of time. It should also be remarked that there occurred no major environmental event in this domain of interest which might be expected to have great impact on a belief structure.

人間のビリーフ構造をシミュレートする際に予想される1つの難点は、情報提供者とともにモデルを更新することです。人間のビリーフが絶えず変化している場合、信頼性を見積もる際の人間とモデルのパフォーマンスの比較をテストするため、そのモデルを人間と十分に近い対応関係に保つことができません。しかし、私たちの情報提供者が、親子行動に関するこれらの特定の信念が数ヶ月の間にほとんど変化しないことを発見しました。たった2つのビリーフについて、彼女は信憑性の重みを強から中に変えました。したがって、構造はこの期間にわたってかなり安定して現れました。また、この関心領域には、ビリーフ構造に大きな影響を及ぼすと予想される主要な環境的な事象は生じなかったことに留意すべきです。

We attempted to model the credibility processes of a single individual. This approach is in the research tradition of an intensive design in contrast to an extensive design. An extensive design might make one observation on 1000 persons while an intensive design would make 1000 observations on one person. Both designs attempt to account for variation in the phenomena observed. In an extensive design, the unit of variability is an individual and variation between individuals is studied whereas in an intensive design we are studying the variability within an individual. In modelling a single case we are trying to understand the mechanisms involved in intra-individual processes. An intensive design attempts to show what can and does happen. The frequency of this sort of happening in a population and which population is another matter. After learning how to model one person we can model another and so build up a series of cases. The inductive problem of generalizing then becomes one of sampling and of statistical measures to discover how general the informant's beliefs might be in a population. This was not our problem at this state of the inquiry. Our problem was how to construct a good model of the informant's belief processes. The criteria for 'good' can be varied. And are we getting at what the informant 'really' believes? What 'really' means here is obscure but it is common knowledge that people have limited accessibility to their beliefs at a given moment. Even worse, they have the capacity to deceive themselves to rationalize, and to distort their own beliefs. Over time we hoped to increase accessibility, realizing there are always limits. In worrying about what is 'really' believed we found it useful to keep in mind that we were constructing a model of a model. A belief structure is a representation and in giving information about himself, an informant tells us what he believes he believes. He simulates himself and it is his accessible model of himself that becomes the data base of a computer model. Humans' ability to simulate themselves and to make models of other models is of course a most interesting property for a symbolic system to have.

私たちは、単一の個人の信頼性プロセスをモデル化しようと試みました。このアプローチには、広範なデザインとは対照的に、集中的なデザインの研究上の伝統があります。広範なデザインでは1000人を1回観測し、集中的なデザインでは1人について1000回の観測を行う場合があります。両方のデザインとも、観察された現象の変動を説明しようとします。広範なデザインでは、変動の単位は個体であり、個体間の変動が研究されるのに対して、集中的なデザインでは個体内の変動性を研究しています。1つのケースをモデリングする際には、個人内プロセスに関わるメカニズムを理解しようとしています。集中的なデザインでは、何が起こりうるのか、何が起こったのかが示されます。ある集団において起こるこの種の出来事の頻度と集団は別の問題です。ある人物をモデル化する方法を学んだ後、私たちは別の人物をモデル化して一連の事例を構築することができます。情報提供者のビリーフがどのように一般的であるかを発見するための一般化の帰納的問題は、サンプリングと統計的尺度の1つになります。 この問いの状態では、これは私たちの問題ではありませんでした。私たちの問題は、情報提供者のビリーフ・プロセスの良いモデルを構築する方法でした。「良い」の基準は変更することができます。そして、情報提供者が「本当に」信じているものに私たちはたどり着いているでしょうか?「本当に」というのはあいまいであることを意味しますが、人々は特定の瞬間に自分のビリーフへのアクセスが制限されていることはよく知られています。さらに悪いことに、彼らは自分自身を欺いて合理化し、自分のビリーフを歪める能力を持っています。時間がたつにつれて、私たちはアクセシビリティを高めることを望んで、常に限界があることを認識しました。「本当に」信じられていることを心配すると、私たちはモデルのためのモデルを構築していたことを、心に留めておくと有益だということが分かりました。ビリーフ構造は表現であり、自分自身に関する情報を提供する際に、情報提供者は自分が信じていることを信じています。彼は自分自身をシミュレートし、コンピュータモデルのデータベースになる彼自身のアクセス可能なモデルです。もちろん、人間をシミュレートし、他者のモデルを作る人間の能力は、象徴的なシステムにとって最も興味深い特性です。

 

 

Data Representation(データの表現)

In building a data base for the model we thought of the collected facts, rules, definitions and classifications as a graph. Physically in the model they were lists in the programming language MLISP[5, 6]. MLISP is a high level list processing language which translate ALGOL-like meta-statements (M-expressions) into the symbolic statements (S-expressions) of LISP 1.5. The program runs on the PDP-6/10 time-sharing system of the Stanford Artificial Intelligence Project.

モデルのデータベースを構築する際に、収集された事実、規則、定義、分類をグラフとして考えました。物理的なモデルでは、それらはプログラミング言語MLISP [5, 6] のリストでした。 MLISPはALGOLのようなメタステートメント(M式)を LISP 1.5 のシンボリックステートメント(S式)に変換する高レベルのリスト処理言語です。プログラムは、スタンフォード人工知能プロジェクトの PDP-6/10 タイムシェアリング・システムで実行されます。

Each conceptualization was represented as a list of elements consisting of English-like name tokens or atoms, of lists of atoms, and of lists of lists which contained semantic and numerical informationt. As mention in the section 'Terminology', the conceptualizations reflect a human action model of situations in the interpersonal world. From this perspective, agents carry out actions towards objects which in turn can be agents or other situations. In the database each agent, action, object, etc., is identified by an atom. On the property list of each atom is a list of pointers to all conceptions in the data base in which that particular atom occurs. A hash coding scheme is used for rapid look-ups and retrieval of relevant conceptions.

それぞれの概念は、英語のような名前トークンまたは atomatomのリスト、および意味論的および数値的情報を含むリストからなる要素リストとして表されていました。「用語」の項で述べたように、概念は個人間に生じる状況の人間行動モデルを反映します。この観点から、エージェントはオブジェクトに向かってアクションを実行し、オブジェクトはエージェントやその他の状況になります。データベースでは、各エージェント、アクション、オブジェクトなどは atom によって識別されます。各 atom のプロパティ・リストには、その atom が存在するデータベース内のすべての概念に対するポインタのリストがあります。ハッシュコードのスキームが、関連する概念の迅速な探索および検索に使用されます。

The representation of a fact such as 'Barb likes children' appears on the list:

'Barb likes children' のような事実の表現はリストとして表示されます:

    (F (agent Barb) (action like) (object children) (credibility 0.9))

with the symbol F indicating this is a fact. More complicated is the representation of a rule because of the problem of binding variables unambiguously. For example, the natural language statement 'parents spank children' has a number of possible semantic interpretations. It was necessary to check carefully with the informant in order to be clear about which interpretation she intended. In this case she did not mean that the set 'parents' spank the set 'children' nor did she mean each member of the set 'parents' spank each member of the set 'children'. By the expression 'parents spank children' she meant that a given parent spanks his children. More formally, if x is a parent and y is a child and x is a parent of y, then x spanks y.

記号 F はこれが事実であることを示します。より複雑なのは、変数を明確にバインドする問題があるルールの表現です。例えば、自然言語による文 'parents spank children' には数多くの意味論的解釈があります。情報提供者が意図した解釈について明確にするために、彼女と慎重にチェックする必要がありました。この場合、彼女はセット 'parents' がセット 'children' を叩くことを意味するわけでもなく、セット 'parents' の各メンバーがセット 'children' の各メンバーを叩くことを意味するわけでもありません。 'parents spank children' という表現は、ある親が自分の子供を抱き寄せていることを意味していました。より厳格には、x が親であり y が子であり、x が y の親である場合、x spanks y するのです。

The relation 'is a parent of' must first be defined in terms of certain constrained variables. For instance, the variable P is defined as a parent who is a parent of Qx4 and Cx4 is defined as a child who is a child of Px4. When assignments are made to such variables only those name tokens which qualify can be substituted. Thus the rule 'if a parent likes his child, then his child is happy' would be represented as the list:

関係 'is a parent of' は、まず特定の制約付き変数の観点から定義されなければなりません。例えば、変数 P は Qx4 の親の親として定義され、Cx4 は Px4 の子の子として定義されます。そのような変数に代入すると、修飾する名前トークンのみを代入することができます。したがって、ルール 'if a parent likes his child, then his child is happy' はリストとして表現されます。

    (R (Px4Cx4) (((agent Px4) (action like) (object Cx4))
             ((agent Cx4) (action has)  (object happiness))))

with the symbol R indicating that it is an implications! rule. When facts are search to match the components of a rule, the fact 'John likes Mary' would fit this rule only if John is held to be a parent of Mary so that 'John' can be substituted for Px4 and 'Mary' for Cx4. These constrained variables are global in the program. They permit the binding of variables to be unambiguous and allow rules to be arbitrarily complex since the qualifications required for the variable may involve multiple conditions.

記号 R はそれがルールを意味していることを示しています。事実がルールの構成要素に一致する検索である場合、JohnがMaryの親である時にのみ、事実 'John likes Mary' は、John が Px4 を代用し、MaryをCx4の代わりに使用できるように、この規則に適合します。これらの制約された変数は、プログラム内ではグローバルです。変数に必要な資格が複数の条件を含む可能性があるため、変数の結合を明確にすることができ、規則を任意に複雑にすることができます。

Representation of definitions is in the form of a simple list. To indicate conceptual relations between 'love' and 'like', the list appears as

定義の表現は、単純なリストの形で行われます。'love' と 'like' の間の概念関係を示すためのリストは

    (love similar like S)

where the symbol S indicates 'love' is stronger in intensity than 'like'. The following are some relations represented in definitions, S meaning stronger, W weaker, and E equal.

記号 S は 'love' が 'like' よりも強度が強いことを示します。以下は、定義において表されるいくつかの関係であり、S はより強い、W はより弱く、E は等しいを示しています。

    similar    (love similar like S)
    different  (men different women)
    negative   (notlike negative like E)
    opposite   (love opposite hate E)
    kindof     (spank kindof aggression)

Classifications take the simple form,

分類はシンプルな形をとっており、

    (F (agent matches) (action is a) (object things))

Initial experience with a data base of 700 facts, rules, definitions and classifications not only taught us about the density requirements of data but also brought to light an implementation problem. When output from a running model is not satisfactory, it may be due to errors in the data as well as to inadequacies of the procedures. A small data error, (such as the term 'notlike'. in a conceptualization instead of 'like'), originating from human mistakes in inputting data into the data base, can give rise to an incorrect credibility estimate. When a database is large, it becomes extremely difficult to trace entirely by hand what happened in a given run of the model. We tried frequently to check the data for errors and the informant repeatedly studied a listing of the database searching for mistakes. In spite of this labor of scrutiny, disconcerting data errors would still crop up. To make sure the procedures were operating as postulated, we first selected a very restricted subset of the data base and then gradually added to it as the program became debugged.

700の事実・規則・定義・分類のデータベースを用いた初期の経験は、データの密度要件について教えてくれただけでなく、実装上の問題を明らかにしました。実行中のモデルからの出力が満足できるものではない場合、それはデータの誤りだけでなくプロシージャが不十分なことによるものかもしれません。データベースにデータを入力する際の人間の間違いに起因する小さなデータエラー('like' ではなく 'notlike' という言葉のように)は、間違った信頼性の推定を引き起こす可能性があります。データベースが大規模である場合、モデルの実行中に何が起こったのかを完全に追跡することは非常に困難になります。我々は頻繁にエラーのためにデータをチェックしようとし、情報提供者は間違いを探しているデータベースのリストを繰り返し調べました。この精査の労力にもかかわらず、データの間違いは依然として詰まっています。プロシージャが仮定どおりに動作していることを確認するために、まずデータベースの非常に限定されたサブセットを選択し、プログラムがデバッグされるにつれて徐々に追加しました。

 

 

Procedures(プロシージャー)

The modelling program scales variables such as credibility, foundation, and consistency into the range 0 to 100. The interpretation of these numbers is as follows:

モデリングプログラムは、信頼性、根拠、一貫性などの変数を0〜100の範囲で調整します。これらの数値の解釈は次のとおりです。

90-100 Strongly positive
強いポジティブ
6O-89 Weakly to moderately positive
弱〜中程度にポジティブ
41-59 Undecided
未定
11-40 Moderately to weakly negative
弱〜中程度にネガティブ
0-10 Strongly negative
強いネガティブ

Credibility is a function of two components: foundation and consistency.

信頼性は、根拠と一貫性の2つの要素の関数です。

The foundation of a proposition is a measure of the model's evidence for and against the proposition. If the positive evidence outweighs the negative, then the foundation is high; if the negative evidence is stronger, the foundation is low.

命題の根拠は、命題のためのモデルの証拠の尺度です。肯定的な証拠が否定的な証拠を上回る場合、根拠は高いです。否定的な証拠が強い場合、根拠は低いです。

Credibility is a function mainly of foundation. When foundation is moderate, consistency has more influence on credibility than when foundation is extreme. Thus, if the evidence concerning a proposition is not dominantly pro or con, then the model gives extra weight to its consistency in determining its credibility. A formula for credibility which incorporates this factor is given below.

信頼性は主に根拠の関数です。根拠が中程度の場合、根拠が極端である場合よりも一貫性が信頼性に大きな影響を与えます。したがって、命題に関する証拠が賛成あるいは反対が支配的でない場合、モデルは信頼性を決定する際の一貫性に追加の重みを与えます。この要素を組み込んだ信頼性の式を以下に示します。

    credibility = foundation + (consistency-50) x (50 - |foundation-50|) x weight

The "weight" is a number between 0 and 0.02 which indicates the relative importance of consistency in this computation. If consistency is irrelevant, the weight is zero. If it is dominant, the weight is 0.02.

"weight" は、この計算における一貫性の相対的重要性を示す0〜0.02の間の数です。一貫性が無関係な場合 weight はゼロです。それが支配的であれば weight は0.02です。 

 

EXAMPLES(使用例)

CREDIBILITY as a function of Foundation and Consistency

根拠と一貫性の関数としての信用度

Consistency
           100 80 50 20  0
Foundation
        80  90 86 80 74 70
        50  75 65 50 35 25
        20  30 26 20 14 10

The consistency of a proposition P is computed by finding a few highly relevant beliefs and measuring the consonance of P with these beliefs. Relevance is defined objectively. If P is a proposition of the predicate form f(p) and if there is a rule in the model that says:

命題Pの一貫性は、いくつかの関連性の高いビリーフを見つけ、これらのビリーフで P の協和を測定することによって計算されます。妥当性は客観的に定義されます。 Pが述語形式 f(p) の命題であり、モデルに次のような規則がある場合:

if f(x) then g(x)

and if g(p) is the predicate form of a belief Qi, then Qi is highly relevant to P. If the model already disbelieves Qi. -- or believes -1 Qi. -- then P is dissonant with it. If the model neither believes or disbelieves Qi. then the consistency of P is not affected.

The computation of consistancy consists of determining the percentage of Qi's with which P is consonant. More weight is given to consonance with more credible Qi's than to consonance with less credible Qi's. A set of formulas that incor porate this weighting is given below.

sc = Z credibility(Qi), where P Qi 
and credibility(Qi) > 50 
cc = count of Qi's contributing to sc 
cn = count of Qi's where Po - 1 Qi and 
credibility(qi) > 50 
consistency = (sc + 1) / (cc + en + .02)

The foundation of a proposition P is computed by finding relevant beliefs and seeing whether they imply that P is or is not the case. In the search for relevant beliefs, graph paths through beliefs consonant with P are searched harder than paths through beliefs dissonant with P if P seems to be highly consistent. The reverse strategy is used if P seems to be inconsistent. This is done so that model can attempt to limit its search for evidence in such a way as to maintain the consistency of its entire belief structure.

Formulas for foundation in terms of evidence for and against P are:

sc = Σ credibility(Qi), where Qi ⊃ P
and credibility(Qi) > 50 
cc = count of Qi's contributing to sc 
cn = count of Qi's where Qi ⊃ ¬ P 
and credibility(qi) > 50 
foundation = (sc + 1) / (cc + cn + .02)

The search for relevant beliefs is controlled by a "work" factor. A consistency search will do, say, 200 units of work while a foundation search will do, say, 1000 units of work. This work allotment is apportioned among the possible graph paths that lead from the proposition in question to relevant areas of the graph.

The algorithm for searching is as follows. The directly relevant beliefs in the graph are found. A directly relevant belief is one which can be derived from P in one step by any one of these methods:

1) Replace the verb by a similar (or opposite) verb.
2) Replace the subject or object by an analogous (or complementary) noun.
3) Replace the predicate adjective by a similar (or opposite) adjective.
4) Generate a belief which implies P (or P implies) according to any one rule.

These beliefs are the heads of paths to be searched. A certain amount of work is used up just in finding them; say, 2 units for each relevant rule used, 2 for each step of an analogy that is drawn, and 3 for each similar verb that is found, plus 6 units overhead even if nothing relevant is found.

If there is any work that remains unused after finding the heads of these paths, it is divided up among the paths for further searching.

In the consistency search, all paths receive equal treatment. However, in the foundation search, the division among paths is affected by consistency. To compute the consistency of P with these paths, a recursive short-depth search is performed along each path; these searches are alotted, say, l/3 of remaining work. From the resulting consistencies, proportions are computed according to the following formulas:

eg = consistency of P with whole system
cp = consistency of P with this path

relative proportion = (110 - |cg - cp|) / (110 - |cg - 50|)

The paths with highest proportions are searched first and receive a proportionately greater work allotment.

If not al l the work along a path is exhausted, the remainder is divided among the remaining paths. If, after searching any path, enough relevant beliefs have been found to compute a credibility exceeding 60 or below 4O, then the search of the rest of the paths is cancelled.

 

 

Experiments

The program performs two major experiments. The first experiment assumes that the belief structure is unchanging. One proposition at a time is presented to the structure and its credibility is judged. In the second experiment, the belief structure does change. After each proposition's credibilit y has been evaluated, it becomes incorporated into the structure as a belief.

The first experiment is run by presenting each belief in the structure to all the other beliefs and judging its credibility. The result can be compared with the prestipulated credibility of the belief. Then, a lis t of new propositions is presented to the structure for evaluation. In both experiments, many factors of the evaluation are varied.

One factor to vary is the means of finding relevant beliefs. There are four variations:

1) Use only rules no definitions.
2) Use (1) plus rules to find supersets.
3) Use (1) and (2) plus "similar" and "opposite" rules.
4) Use (1) , (2), and (3) plus rules to find instances.

Another factor to vary is the use of consistency. There are two variations:

1) Use foundation and not consistency.
2) Use also consistency.

 

Other factors varied are:

1) Weight of consistency relative to foundation in computing credibility.
2) Amount of work expended in search.
3) The initial credibilities assigned each the belief.

All values of these factors are combined with every meaningful combination of other factors.

 

 

Experimental Results

For the data base used in the experiments so far, a few interesting results were obtained.

The search for relevant beliefs was effective when both rules and supersets were utilized in the search. Without supersets, many relevant beliefs were missed. The addition of similar and opposite rules expanded the search enough to discover nearly all beliefs considered relevant by the experimenters. In only a handful of cases did the application of instance rules improve the relevance search.


The use or disuse of consistency made no noticeable difference in the credibility computation. It is planned to see whether consistency wil l make a difference with different data or with work allotments that have not yet been tried.

The amount of work alloted made a difference in the success of finding relevant beliefs. It is intended to measure this difference quantitatively, but techniques for this have not yet been developed.

Scaling the credibilities of all the beliefs in the system by a factor x seemed to affect the credibility computed for an input proposition by that same multiple, x. This showed that the complex search combined with the quotient formulas for credibility still preserved linearity.

Further values of the variable f .ctors are in the process of being tested, as well as improved searching algorithms.

 

 

Discussion

 

The only other program we know of which judges credibility is that of Abelson and Carroll 1. There are a number of similarities and differences between the two programs. Perhaps the most important difference lies in the way the search algorithm is controlled. In the Abelson and Carroll program searches through a large data base are cut off probabilistically, depending on a random number exceeding some fixed value. In our model, three factors govern the search, consistency, work and firmness. Search along consistent paths is preferred to search along inconsistent paths. Also search along a path is cut off if (a) alloted work runs out, (b) a firm credibility of >60 or <k0 is reached or (c) the path is exhausted.

Another interesting difference lies in the way the two programs treat instances and supersets. The Abelson and Carroll program looks "down" at instances and "up" at supersets to an equal degree. We found that with this data base searching for instances contributed to credibility less reliably than supersets. Therefore we alloted more work to searching supersets than to searching instances.

Our experiments with this data base collected from an informant constituted an attempt to discover what search factors made a significant difference in estimating the credibility of input propositions. We were not attempting to validate a particular search algorithm. Instead we explored a variety of procedures in an effort to learn more about their respective merits in processing the same data base. We intend to discuss the validation problem in a future report.

 

 

References

(1) Abelson, R.P. and Carroll, J.,
Computer simulation of individual belief systems.
American Behavioral Scientist, 8, 24-30 (1965).

[2] Abelson, R.P.,
Psychological implication.
In Theories of Cognitive Consistency (Abelson,R., Aronson, E., McGuire, W., Newcomb, T., Rosenberg, M., Tannenbaum, P. Edc. Rand-McNally, New York, 1969)

[3] Colby, K.M. and Enea, H.,
Heuristic methods for computer understanding of natural language in context restricted on-line dialogues.
Mathematical Biosciences, 1, 1-25 (1967)

(4) Schank, R.C and Tesler, L.G.
A conceptual parser for natural language.
Stanford Artificia Intelligence Project Memo No. AI-76, 1969 (See also this volume).

(5) Enea, H.,
MLISP.
Stanford Computer Science Department Technical Report, No. 92, March 14, 1965:

(6) Smith, D.C.
MLISP Users Manual.
Stanford Artifi cial Intelligence Memo, No. 1969. (In preparation).

 

 

Acknowledgements

This research is supported by Grant PHS MH 06645-07 from the National Institute of Mental Health, by (in part) Research Scientist Award (No. K-l4,433) from the National Institute of Mental Health to the senior author and (in part) by the Advanced Research Project Agency of the Office of the Secretary of Defense (SD-183). -654

 

 

*1:agent Bill) (action like) (object Mary

*2:agent Bill)  (action like)  (object Mary