[要約] RFC 8846は、Telepresenceのための複数ストリーム制御(CLUE)データモデルのためのXMLスキーマを定義しています。このRFCの目的は、CLUEデータモデルの相互運用性を向上させ、異なるシステム間でのデータ共有を容易にすることです。
Internet Engineering Task Force (IETF) R. Presta Request for Comments: 8846 S P. Romano Category: Standards Track University of Napoli ISSN: 2070-1721 January 2021
An XML Schema for the Controlling Multiple Streams for Telepresence (CLUE) Data Model
TelePresence(CLUE)データモデルの制御複数ストリームのXMLスキーマ
Abstract
概要
This document provides an XML schema file for the definition of CLUE data model types. The term "CLUE" stands for "Controlling Multiple Streams for Telepresence" and is the name of the IETF working group in which this document, as well as other companion documents, has been developed. The document defines a coherent structure for information associated with the description of a telepresence scenario.
この文書は、CLUEデータモデルタイプの定義のためのXMLスキーマファイルを提供します。「Clue」という用語は、「テレプレゼンスのための複数のストリームの制御」を表し、この文書、および他のコンパニオン文書が開発されているIETFワーキンググループの名前です。この文書は、TelePresenceシナリオの説明に関連する情報のコヒーレント構造を定義します。
Status of This Memo
本文書の状態
This is an Internet Standards Track document.
これはインターネット規格のトラック文書です。
This document is a product of the Internet Engineering Task Force (IETF). It represents the consensus of the IETF community. It has received public review and has been approved for publication by the Internet Engineering Steering Group (IESG). Further information on Internet Standards is available in Section 2 of RFC 7841.
この文書は、インターネットエンジニアリングタスクフォース(IETF)の製品です。IETFコミュニティのコンセンサスを表します。それは公開レビューを受け、インターネットエンジニアリングステアリンググループ(IESG)による出版の承認を受けました。インターネット規格に関する詳細情報は、RFC 7841のセクション2で利用できます。
Information about the current status of this document, any errata, and how to provide feedback on it may be obtained at https://www.rfc-editor.org/info/rfc8846.
この文書の現在のステータス、任意のエラータ、およびフィードバックを提供する方法は、https://www.rfc-editor.org/info/frfc8846で取得できます。
Copyright Notice
著作権表示
Copyright (c) 2021 IETF Trust and the persons identified as the document authors. All rights reserved.
著作権(C)2021 IETF信頼と文書著者として識別された人。全著作権所有。
This document is subject to BCP 78 and the IETF Trust's Legal Provisions Relating to IETF Documents (https://trustee.ietf.org/license-info) in effect on the date of publication of this document. Please review these documents carefully, as they describe your rights and restrictions with respect to this document. Code Components extracted from this document must include Simplified BSD License text as described in Section 4.e of the Trust Legal Provisions and are provided without warranty as described in the Simplified BSD License.
このドキュメントは、このドキュメントの発行日に有効なBCP 78およびIETFドキュメントに関連するIETFトラストの法的規定(https://trustee.ietf.org/license-info)の対象となります。 これらのドキュメントは、このドキュメントに関するお客様の権利と制限について説明しているため、注意深く確認してください。 このドキュメントから抽出されたコードコンポーネントには、Trust LegalProvisionsのセクション4.eで説明されているSimplifiedBSD Licenseテキストが含まれている必要があり、Simplified BSDLicenseで説明されているように保証なしで提供されます。
Table of Contents
目次
1. Introduction 2. Terminology 3. Definitions 4. XML Schema 5. <mediaCaptures> 6. <encodingGroups> 7. <captureScenes> 8. <simultaneousSets> 9. <globalViews> 10. <captureEncodings> 11. <mediaCapture> 11.1. captureID Attribute 11.2. mediaType Attribute 11.3. <captureSceneIDREF> 11.4. <encGroupIDREF> 11.5. <spatialInformation> 11.5.1. <captureOrigin> 11.5.2. <captureArea> 11.6. <nonSpatiallyDefinable> 11.7. <content> 11.8. <synchronizationID> 11.9. <allowSubsetChoice> 11.10. <policy> 11.11. <maxCaptures> 11.12. <individual> 11.13. <description> 11.14. <priority> 11.15. <lang> 11.16. <mobility> 11.17. <relatedTo> 11.18. <view> 11.19. <presentation> 11.20. <embeddedText> 11.21. <capturedPeople> 11.21.1. <personIDREF> 12. Audio Captures 12.1. <sensitivityPattern> 13. Video Captures 14. Text Captures 15. Other Capture Types 16. <captureScene> 16.1. <sceneInformation> 16.2. <sceneViews> 16.3. sceneID Attribute 16.4. scale Attribute 17. <sceneView> 17.1. <mediaCaptureIDs> 17.2. sceneViewID Attribute 18. <encodingGroup> 18.1. <maxGroupBandwidth> 18.2. <encodingIDList> 18.3. encodingGroupID Attribute 19. <simultaneousSet> 19.1. setID Attribute 19.2. mediaType Attribute 19.3. <mediaCaptureIDREF> 19.4. <sceneViewIDREF> 19.5. <captureSceneIDREF> 20. <globalView> 21. <people> 21.1. <person> 21.1.1. personID Attribute 21.1.2. <personInfo> 21.1.3. <personType> 22. <captureEncoding> 22.1. <captureID> 22.2. <encodingID> 22.3. <configuredContent> 23. <clueInfo> 24. XML Schema Extensibility 24.1. Example of Extension 25. Security Considerations 26. IANA Considerations 26.1. XML Namespace Registration 26.2. XML Schema Registration 26.3. Media Type Registration for "application/clue_info+xml" 26.4. Registry for Acceptable <view> Values 26.5. Registry for Acceptable <presentation> Values 26.6. Registry for Acceptable <sensitivityPattern> Values 26.7. Registry for Acceptable <personType> Values 27. Sample XML File 28. MCC Example 29. References 29.1. Normative References 29.2. Informative References Acknowledgements Authors' Addresses
This document provides an XML schema file for the definition of CLUE data model types. For the benefit of the reader, the term "CLUE" stands for "Controlling Multiple Streams for Telepresence" and is the name of the IETF working group in which this document, as well as other companion documents, has been developed. A thorough definition of the CLUE framework can be found in [RFC8845].
この文書は、CLUEデータモデルタイプの定義のためのXMLスキーマファイルを提供します。リーダーの利点のために、「Clue」という用語は「TelePresenceの複数のストリームを制御する」と表し、この文書と他のコンパニオン文書が開発されているIETFワーキンググループの名前です。手がかりフレームワークの徹底的な定義は[RFC8845]にあります。
The schema is based on information contained in [RFC8845]. It encodes information and constraints defined in the aforementioned document in order to provide a formal representation of the concepts therein presented.
スキーマは[RFC8845]に含まれる情報に基づいています。それは、提示された概念の正式な表現を提供するために、前述の文書で定義された情報および制約を符号化する。
The document specifies the definition of a coherent structure for information associated with the description of a telepresence scenario. Such information is used within the CLUE protocol messages [RFC8847], enabling the dialogue between a Media Provider and a Media Consumer. CLUE protocol messages, indeed, are XML messages allowing (i) a Media Provider to advertise its telepresence capabilities in terms of media captures, capture scenes, and other features envisioned in the CLUE framework, according to the format herein defined and (ii) a Media Consumer to request the desired telepresence options in the form of capture encodings, represented as described in this document.
この文書は、TelePresenceシナリオの説明に関連する情報のコヒーレント構造の定義を指定します。そのような情報は、Clue Protocol Messages [RFC8847]内で使用され、メディアプロバイダとメディアコンシューマとの間の対話を可能にします。手がかりプロトコルメッセージは、(i)本明細書で定義されたフォーマットに従って、メディアキャプチャ、キャプチャーシーン、および手掛かりフレームワークで想定されているその他の特徴の観点から、メディアプロバイダがそのテレプレゼンス機能を宣伝することを可能にする(i)。このドキュメントで説明されているように表されるキャプチャエンコーディングの形式で希望のテレプレゼンスオプションを要求するためのメディアコンシューマ。
The key words "MUST", "MUST NOT", "REQUIRED", "SHALL", "SHALL NOT", "SHOULD", "SHOULD NOT", "RECOMMENDED", "NOT RECOMMENDED", "MAY", and "OPTIONAL" in this document are to be interpreted as described in BCP 14 [RFC2119] [RFC8174] when, and only when, they appear in all capitals, as shown here.
この文書のキーワード "MUST", "MUST NOT", "REQUIRED", "SHALL", "SHALL NOT", "SHOULD", "SHOULD NOT", "RECOMMENDED", "MAY", および "OPTIONAL" はBCP 14 [RFC2119] [RFC8174]で説明されているように、すべて大文字の場合にのみ解釈されます。
This document refers to the same definitions used in [RFC8845], except for the "CLUE Participant" definition. We briefly recall herein some of the main terms used in the document.
このドキュメントとは、[Clue Pentionant]定義を除いて、[RFC8845]で使用されているのと同じ定義を参照します。文書で使用されている主な用語のいくつかの中に簡単に思い出します。
Audio Capture: Media Capture for audio. Denoted as "ACn" in the examples in this document.
オーディオキャプチャ:オーディオのメディアキャプチャ。この文書の例では「ACN」と表記されています。
Capture: Same as Media Capture.
キャプチャ:メディアキャプチャと同じです。
Capture Device: A device that converts physical input, such as audio, video, or text, into an electrical signal, in most cases to be fed into a media encoder.
キャプチャデバイス:オーディオ、ビデオ、テキストなどの物理入力を電気信号に変換するデバイス、ほとんどの場合、メディアエンコーダに供給される。
Capture Encoding: A specific encoding of a Media Capture, to be sent by a Media Provider to a Media Consumer via RTP.
キャプチャエンコーディング:メディアプロバイダによってメディアコンシューマを介して送信されるメディアキャプチャの特定のエンコーディング。
Capture Scene: A structure representing a spatial region captured by one or more Capture Devices, each capturing media representing a portion of the region. The spatial region represented by a Capture Scene may correspond to a real region in physical space, such as a room. A Capture Scene includes attributes and one or more Capture Scene Views, with each view including one or more Media Captures.
キャプチャシーン:1つ以上のキャプチャデバイスによってキャプチャされた空間領域を表す構造。各キャプチャメディアは、領域の一部を表す。捕捉シーンによって表される空間領域は、部屋のような物理的空間内の実領域に対応し得る。キャプチャシーンは、属性と1つ以上のキャプチャシーンビューを含み、各ビューは1つ以上のメディアキャプチャを含む。
Capture Scene View (CSV): A list of Media Captures of the same media type that together form one way to represent the entire Capture Scene.
キャプチャシーンビュー(CSV):キャプチャシーン全体を表す1つの方法を組み合わせた同じメディアタイプのメディアキャプチャのリスト。
CLUE Participant: This term is imported from the CLUE protocol document [RFC8847].
CLUE参加者:この用語は、CLUEプロトコル文書[RFC8847]からインポートされています。
Consumer: Short for Media Consumer.
消費者:メディアコンシューマのための短い。
Encoding or Individual Encoding: A set of parameters representing a way to encode a Media Capture to become a Capture Encoding.
エンコードまたは個々のエンコーディング:メディアキャプチャをエンコードする方法を表す一連のパラメータ。
Encoding Group: A set of encoding parameters representing a total media encoding capability to be subdivided across potentially multiple Individual Encodings.
エンコードグループ:潜在的に複数の個々のエンコーディングを分割するための総メディアエンコード機能を表す一連の符号化パラメータ。
Endpoint: A CLUE-capable device that is the logical point of final termination through receiving, decoding and rendering, and/or initiation through capturing, encoding, and sending of media streams. An endpoint consists of one or more physical devices that source and sink media streams, and exactly one participant [RFC4353] (which, in turn, includes exactly one SIP User Agent). Endpoints can be anything from multiscreen/multicamera rooms to handheld devices.
エンドポイント:受信、復号化、レンダリング、および/またはメディアストリームのキャプチャ、エンコード、および送信による開始を通じて、最終終了の論理的なポイントであるCLUE対応デバイス。エンドポイントは、メディアストリームとシンクメディアストリームとシンクシーフルの1つ以上の物理デバイスで構成されており、まさに1つの参加者[RFC4353](順番に1つのSIPユーザーエージェントを含みます)。エンドポイントは、マルチスクリーン/マルチカメラルームからハンドヘルドデバイスへのものです。
Media: Any data that, after suitable encoding, can be conveyed over RTP, including audio, video, or timed text.
メディア:適切なエンコーディングの後に、オーディオ、ビデオ、またはタイミングテキストを含むRTPを介して伝達できるデータ。
Media Capture: A source of Media, such as from one or more Capture Devices or constructed from other media streams.
メディアキャプチャ:1つ以上のキャプチャデバイスなどのメディアのソース、または他のメディアストリームから構築されています。
Media Consumer: A CLUE-capable device that intends to receive Capture Encodings.
メディアコンシューマ:キャプチャエンコーディングを受信するつもりの対応デバイス。
Media Provider: A CLUE-capable device that intends to send Capture Encodings.
メディアプロバイダ:キャプチャエンコーディングを送信するつもりのある手触りのあるデバイス。
Multiple Content Capture (MCC): A Capture that mixes and/or switches other Captures of a single type (for example, all audio or all video). Particular Media Captures may or may not be present in the resultant Capture Encoding depending on time or space. Denoted as "MCCn" in the example cases in this document.
複数のコンテンツキャプチャ(MCC):1つのタイプの他のキャプチャ(たとえば、すべてのオーディオまたはすべてのビデオなど)をミックスしたり切り替えたりするキャプチャ。特定のメディアキャプチャは、時間またはスペースに応じて、結果として生じるキャプチャエンコーディング内に存在しない場合があります。この文書の例として「MCCN」として表されます。
Multipoint Control Unit (MCU): A CLUE-capable device that connects two or more endpoints together into one single multimedia conference [RFC7667]. An MCU includes a Mixer, similar to those in [RFC4353], but without the requirement to send media to each participant.
マルチポイント制御ユニット(MCU):2つ以上のエンドポイントを1つのマルチメディアカンファレンス[RFC7667]にまとめて接続する手軽のデバイス。MCUは、[RFC4353]と同様のものですが、各参加者にメディアを送信する必要がありません。
Plane of Interest: The spatial plane within a scene containing the most-relevant subject matter.
興味のある平面:最も関連性のある主題を含むシーン内の空間平面。
Provider: Same as a Media Provider.
プロバイダ:メディアプロバイダと同じです。
Render: The process of generating a representation from Media, such as displayed motion video or sound emitted from loudspeakers.
レンダリング:表示された動画やスピーカーから放出された音声など、メディアからの表現を生成するプロセス。
Scene: Same as a Capture Scene.
シーン:キャプチャシーンと同じです。
Simultaneous Transmission Set: A set of Media Captures that can be transmitted simultaneously from a Media Provider.
同時送信セットメディアプロバイダから同時に送信できるメディアキャプチャのセット。
Single Media Capture: A capture that contains media from a single source capture device, e.g., an audio capture from a single microphone or a video capture from a single camera.
単一メディアキャプチャ:単一のソースキャプチャデバイスからのメディア、例えば単一のマイクロフォンまたは単一のカメラからのビデオキャプチャーからのオーディオキャプチャーを含むキャプチャ。
Spatial Relation: The arrangement of two objects in space, in contrast to relation in time or other relationships.
空間的関係:時間的または他の関係の関係とは対照的に、空間内の2つの物体の配置。
Stream: A Capture Encoding sent from a Media Provider to a Media Consumer via RTP [RFC3550].
ストリーム:RTP [RFC3550]を介してメディアプロバイダからメディアコンシューマに送信されたキャプチャエンコーディング。
Stream Characteristics: The media stream attributes commonly used in non-CLUE SIP/SDP environments (such as media codec, bitrate, resolution, profile/level, etc.) as well as CLUE-specific attributes, such as the Capture ID or a spatial location.
ストリーム特性:Chaple IDや空間などの手がかり固有の属性だけでなく、非Clue SIP / SDP環境(メディアコーデック、ビットレート、解像度、プロファイル/レベルなど)で一般的に使用されているメディアストリーム属性ロケーション。
Video Capture: A Media Capture for video.
ビデオキャプチャ:ビデオのメディアキャプチャ。
This section contains the XML schema for the CLUE data model definition.
このセクションでは、CLUEデータモデル定義のXMLスキーマが含まれています。
The element and attribute definitions are formal representations of the concepts needed to describe the capabilities of a Media Provider and the streams that are requested by a Media Consumer given the Media Provider's ADVERTISEMENT [RFC8847].
要素と属性の定義は、メディアプロバイダーの機能を説明するために必要な概念の正式な表現であり、メディアプロバイダーの広告[RFC8847]を指定してメディアコンシューマによって要求されているストリームです。
The main groups of information are:
情報の主なグループは次のとおりです。
<mediaCaptures>: the list of media captures available (Section 5)
<encodingGroups>: the list of encoding groups (Section 6)
<captureScenes>: the list of capture scenes (Section 7)
<simultaneousSets>: the list of simultaneous transmission sets (Section 8)
<同時設定>:同時送信セットのリスト(セクション8)
<globalViews>: the list of global views sets (Section 9)
<people>: metadata about the participants represented in the telepresence session (Section 21)
<人>:TelePresenceセッションで表されている参加者に関するメタデータ(セクション21)
<captureEncodings>: the list of instantiated capture encodings (Section 10)
<CaptureEncodings>:インスタンス化キャプチャエンコーディングのリスト(セクション10)
All of the above refer to concepts that have been introduced in [RFC8845] and further detailed in this document.
上記の全ては、[RFC8845]で導入されており、この文書で詳しく詳述されている概念をいう。
<?xml version="1.0" encoding="UTF-8" ?> <xs:schema targetNamespace="urn:ietf:params:xml:ns:clue-info" xmlns:tns="urn:ietf:params:xml:ns:clue-info" xmlns:xs="http://www.w3.org/2001/XMLSchema" xmlns="urn:ietf:params:xml:ns:clue-info" xmlns:xcard="urn:ietf:params:xml:ns:vcard-4.0" elementFormDefault="qualified" attributeFormDefault="unqualified" version="1.0">
<!-- Import xCard XML schema --> <xs:import namespace="urn:ietf:params:xml:ns:vcard-4.0" schemaLocation= "https://www.iana.org/assignments/xml-registry/schema/ vcard-4.0.xsd"/>
<!-- ELEMENT DEFINITIONS --> <xs:element name="mediaCaptures" type="mediaCapturesType"/> <xs:element name="encodingGroups" type="encodingGroupsType"/> <xs:element name="captureScenes" type="captureScenesType"/> <xs:element name="simultaneousSets" type="simultaneousSetsType"/> <xs:element name="globalViews" type="globalViewsType"/> <xs:element name="people" type="peopleType"/>
<xs:element name="captureEncodings" type="captureEncodingsType"/>
<!-- MEDIA CAPTURES TYPE --> <!-- envelope of media captures --> <xs:complexType name="mediaCapturesType"> <xs:sequence> <xs:element name="mediaCapture" type="mediaCaptureType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- DESCRIPTION element --> <xs:element name="description"> <xs:complexType> <xs:simpleContent> <xs:extension base="xs:string"> <xs:attribute name="lang" type="xs:language"/> </xs:extension> </xs:simpleContent> </xs:complexType> </xs:element>
<!-- MEDIA CAPTURE TYPE --> <xs:complexType name="mediaCaptureType" abstract="true"> <xs:sequence> <!-- mandatory fields --> <xs:element name="captureSceneIDREF" type="xs:IDREF"/> <xs:choice> <xs:sequence> <xs:element name="spatialInformation" type="tns:spatialInformationType"/> </xs:sequence> <xs:element name="nonSpatiallyDefinable" type="xs:boolean" fixed="true"/> </xs:choice> <!-- for handling multicontent captures: --> <xs:choice> <xs:sequence> <xs:element name="synchronizationID" type="xs:ID" minOccurs="0"/> <xs:element name="content" type="contentType" minOccurs="0"/> <xs:element name="policy" type="policyType" minOccurs="0"/> <xs:element name="maxCaptures" type="maxCapturesType" minOccurs="0"/> <xs:element name="allowSubsetChoice" type="xs:boolean" minOccurs="0"/> </xs:sequence> <xs:element name="individual" type="xs:boolean" fixed="true"/> </xs:choice> <!-- optional fields --> <xs:element name="encGroupIDREF" type="xs:IDREF" minOccurs="0"/> <xs:element ref="description" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="priority" type="xs:unsignedInt" minOccurs="0"/> <xs:element name="lang" type="xs:language" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="mobility" type="mobilityType" minOccurs="0" /> <xs:element ref="presentation" minOccurs="0" /> <xs:element ref="embeddedText" minOccurs="0" /> <xs:element ref="view" minOccurs="0" /> <xs:element name="capturedPeople" type="capturedPeopleType" minOccurs="0"/> <xs:element name="relatedTo" type="xs:IDREF" minOccurs="0"/> </xs:sequence> <xs:attribute name="captureID" type="xs:ID" use="required"/> <xs:attribute name="mediaType" type="xs:string" use="required"/>
</xs:complexType>
<!-- POLICY TYPE --> <xs:simpleType name="policyType"> <xs:restriction base="xs:string"> <xs:pattern value="([a-zA-Z0-9])+[:]([0-9])+"/> </xs:restriction> </xs:simpleType>
<!-- CONTENT TYPE --> <xs:complexType name="contentType"> <xs:sequence> <xs:element name="mediaCaptureIDREF" type="xs:string" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="sceneViewIDREF" type="xs:string" minOccurs="0" maxOccurs="unbounded"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
<!-- MAX CAPTURES TYPE --> <xs:simpleType name="positiveShort"> <xs:restriction base="xs:unsignedShort"> <xs:minInclusive value="1"> </xs:minInclusive> </xs:restriction> </xs:simpleType>
<xs:complexType name="maxCapturesType"> <xs:simpleContent> <xs:extension base="positiveShort"> <xs:attribute name="exactNumber" type="xs:boolean"/> </xs:extension> </xs:simpleContent> </xs:complexType>
<!-- CAPTURED PEOPLE TYPE --> <xs:complexType name="capturedPeopleType"> <xs:sequence> <xs:element name="personIDREF" type="xs:IDREF" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- PEOPLE TYPE --> <xs:complexType name="peopleType"> <xs:sequence> <xs:element name="person" type="personType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- PERSON TYPE --> <xs:complexType name="personType"> <xs:sequence> <xs:element name="personInfo" type="xcard:vcardType" maxOccurs="1" minOccurs="0"/> <xs:element ref="personType" minOccurs="0" maxOccurs="unbounded" /> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="personID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
<!-- PERSON TYPE ELEMENT --> <xs:element name="personType" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <personType>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
<!-- VIEW ELEMENT --> <xs:element name="view" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <view>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
<!-- PRESENTATION ELEMENT --> <xs:element name="presentation" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <presentation>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
<!-- SPATIAL INFORMATION TYPE --> <xs:complexType name="spatialInformationType"> <xs:sequence> <xs:element name="captureOrigin" type="captureOriginType" minOccurs="0"/> <xs:element name="captureArea" type="captureAreaType" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
<!-- POINT TYPE --> <xs:complexType name="pointType"> <xs:sequence> <xs:element name="x" type="xs:decimal"/> <xs:element name="y" type="xs:decimal"/> <xs:element name="z" type="xs:decimal"/> </xs:sequence> </xs:complexType>
<!-- CAPTURE ORIGIN TYPE --> <xs:complexType name="captureOriginType"> <xs:sequence> <xs:element name="capturePoint" type="pointType"></xs:element> <xs:element name="lineOfCapturePoint" type="pointType" minOccurs="0"> </xs:element> </xs:sequence> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
<!-- CAPTURE AREA TYPE --> <xs:complexType name="captureAreaType"> <xs:sequence> <xs:element name="bottomLeft" type="pointType"/> <xs:element name="bottomRight" type="pointType"/> <xs:element name="topLeft" type="pointType"/> <xs:element name="topRight" type="pointType"/> </xs:sequence> </xs:complexType>
<!-- MOBILITY TYPE --> <xs:simpleType name="mobilityType"> <xs:restriction base="xs:string"> <xs:enumeration value="static" /> <xs:enumeration value="dynamic" /> <xs:enumeration value="highly-dynamic" /> </xs:restriction> </xs:simpleType>
<!-- TEXT CAPTURE TYPE --> <xs:complexType name="textCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
<!-- OTHER CAPTURE TYPE --> <xs:complexType name="otherCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
<!-- AUDIO CAPTURE TYPE --> <xs:complexType name="audioCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:element ref="sensitivityPattern" minOccurs="0" /> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
<!-- SENSITIVITY PATTERN ELEMENT --> <xs:element name="sensitivityPattern" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <sensitivityPattern>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
<!-- VIDEO CAPTURE TYPE --> <xs:complexType name="videoCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
<!-- EMBEDDED TEXT ELEMENT --> <xs:element name="embeddedText"> <xs:complexType> <xs:simpleContent> <xs:extension base="xs:boolean"> <xs:attribute name="lang" type="xs:language"/> </xs:extension> </xs:simpleContent> </xs:complexType> </xs:element>
<!-- CAPTURE SCENES TYPE --> <!-- envelope of capture scenes --> <xs:complexType name="captureScenesType"> <xs:sequence> <xs:element name="captureScene" type="captureSceneType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- CAPTURE SCENE TYPE --> <xs:complexType name="captureSceneType"> <xs:sequence> <xs:element ref="description" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="sceneInformation" type="xcard:vcardType" minOccurs="0"/> <xs:element name="sceneViews" type="sceneViewsType" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="sceneID" type="xs:ID" use="required"/> <xs:attribute name="scale" type="scaleType" use="required"/> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
<!-- SCALE TYPE --> <xs:simpleType name="scaleType"> <xs:restriction base="xs:string"> <xs:enumeration value="mm"/> <xs:enumeration value="unknown"/> <xs:enumeration value="noscale"/> </xs:restriction> </xs:simpleType>
<!-- SCENE VIEWS TYPE --> <!-- envelope of scene views of a capture scene --> <xs:complexType name="sceneViewsType"> <xs:sequence> <xs:element name="sceneView" type="sceneViewType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- SCENE VIEW TYPE --> <xs:complexType name="sceneViewType"> <xs:sequence> <xs:element ref="description" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="mediaCaptureIDs" type="captureIDListType"/> </xs:sequence> <xs:attribute name="sceneViewID" type="xs:ID" use="required"/> </xs:complexType>
<!-- CAPTURE ID LIST TYPE --> <xs:complexType name="captureIDListType"> <xs:sequence> <xs:element name="mediaCaptureIDREF" type="xs:IDREF" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- ENCODING GROUPS TYPE --> <xs:complexType name="encodingGroupsType"> <xs:sequence> <xs:element name="encodingGroup" type="tns:encodingGroupType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- ENCODING GROUP TYPE --> <xs:complexType name="encodingGroupType"> <xs:sequence> <xs:element name="maxGroupBandwidth" type="xs:unsignedLong"/> <xs:element name="encodingIDList" type="encodingIDListType"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="encodingGroupID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
<!-- ENCODING ID LIST TYPE --> <xs:complexType name="encodingIDListType"> <xs:sequence> <xs:element name="encodingID" type="xs:string" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- SIMULTANEOUS SETS TYPE --> <xs:complexType name="simultaneousSetsType"> <xs:sequence> <xs:element name="simultaneousSet" type="simultaneousSetType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- SIMULTANEOUS SET TYPE --> <xs:complexType name="simultaneousSetType"> <xs:sequence> <xs:element name="mediaCaptureIDREF" type="xs:IDREF" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="sceneViewIDREF" type="xs:IDREF" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="captureSceneIDREF" type="xs:IDREF" minOccurs="0" maxOccurs="unbounded"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="setID" type="xs:ID" use="required"/> <xs:attribute name="mediaType" type="xs:string"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
<!-- GLOBAL VIEWS TYPE --> <xs:complexType name="globalViewsType"> <xs:sequence> <xs:element name="globalView" type="globalViewType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- GLOBAL VIEW TYPE --> <xs:complexType name="globalViewType"> <xs:sequence> <xs:element name="sceneViewIDREF" type="xs:IDREF" maxOccurs="unbounded"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="globalViewID" type="xs:ID"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
<!-- CAPTURE ENCODINGS TYPE --> <xs:complexType name="captureEncodingsType"> <xs:sequence> <xs:element name="captureEncoding" type="captureEncodingType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<!-- CAPTURE ENCODING TYPE --> <xs:complexType name="captureEncodingType"> <xs:sequence> <xs:element name="captureID" type="xs:string"/> <xs:element name="encodingID" type="xs:string"/> <xs:element name="configuredContent" type="contentType" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="ID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
<!-- CLUE INFO ELEMENT --> <xs:element name="clueInfo" type="clueInfoType"/>
<!-- CLUE INFO TYPE --> <xs:complexType name="clueInfoType"> <xs:sequence> <xs:element ref="mediaCaptures"/> <xs:element ref="encodingGroups"/> <xs:element ref="captureScenes"/> <xs:element ref="simultaneousSets" minOccurs="0"/> <xs:element ref="globalViews" minOccurs="0"/> <xs:element ref="people" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="clueInfoID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType> </xs:schema>
The following sections describe the XML schema in more detail. As a general remark, please notice that optional elements that don't define what their absence means are intended to be associated with undefined properties.
次のセクションでは、XMLスキーマについて詳しく説明します。一般的な発言としては、欠席手段が未定義のプロパティに関連付けられていることを意図しているものを定義していないオプションの要素をご注意ください。
<mediaCaptures> represents the list of one or more media captures available at the Media Provider's side. Each media capture is represented by a <mediaCapture> element (Section 11).
<MediaCaptures>は、メディアプロバイダ側で入手可能な1つ以上のメディアキャプチャのリストを表します。各メディアキャプチャは<MediaCapture>要素(セクション11)によって表されます。
<encodingGroups> represents the list of the encoding groups organized on the Media Provider's side. Each encoding group is represented by an <encodingGroup> element (Section 18).
<EncodingGroups>は、メディアプロバイダ側に編成されたエンコーディンググループのリストを表します。各符号化グループは<encodingGroup>要素(セクション18)によって表される。
<captureScenes> represents the list of the capture scenes organized on the Media Provider's side. Each capture scene is represented by a <captureScene> element (Section 16).
<CaptureScenes>メディアプロバイダ側に編成されたキャプチャーシーンのリストを表します。各キャプチャシーンは<captureScene>要素(セクション16)によって表されます。
<simultaneousSets> contains the simultaneous sets indicated by the Media Provider. Each simultaneous set is represented by a <simultaneousSet> element (Section 19).
<同時設定>メディアプロバイダが示す同時セットを含みます。各同時セットは<SimalumentSet>要素(セクション19)によって表されます。
<globalViews> contains a set of alternative representations of all the scenes that are offered by a Media Provider to a Media Consumer. Each alternative is named "global view", and it is represented by a <globalView> element (Section 20).
<globalviews>メディアプロバイダによってメディアコンシューマに提供されるすべてのシーンの代替表現のセットを含みます。各代替案は「グローバルビュー」と命名されており、<globalview>要素(セクション20)で表されます。
<captureEncodings> is a list of capture encodings. It can represent the list of the desired capture encodings indicated by the Media Consumer or the list of instantiated captures on the provider's side. Each capture encoding is represented by a <captureEncoding> element (Section 22).
<CaptureEncodings>はキャプチャエンコーディングのリストです。それは、メディアコンシューマによって示される所望のキャプチャエンコーディングまたはプロバイダ側のインスタンス化キャプチャのリストのリストを表すことができる。各キャプチャ符号化は<captureEncoding>要素(セクション22)によって表される。
A media capture is the fundamental representation of a media flow that is available on the provider's side. Media captures are characterized by (i) a set of features that are independent from the specific type of medium and (ii) a set of features that are media specific. The features that are common to all media types appear within the media capture type, which has been designed as an abstract complex type. Media-specific captures, such as video captures, audio captures, and others, are specializations of that abstract media capture type, as in a typical generalization-specialization hierarchy.
メディアキャプチャは、プロバイダ側で利用可能なメディアフローの基本表現です。メディアキャプチャは、(i)媒体の特定の種類と(ii)メディア固有の一連の機能とは独立した一連の機能を特徴としています。すべてのメディアタイプに共通の機能は、抽象複合型として設計されています。ビデオキャプチャ、オーディオキャプチャなどのメディア固有のキャプチャは、一般化専門階層のように、その抽象メディアキャプチャタイプの特殊化です。
The following is the XML schema definition of the media capture type:
以下は、メディアキャプチャの種類のXMLスキーマ定義です。
<!-- MEDIA CAPTURE TYPE --> <xs:complexType name="mediaCaptureType" abstract="true"> <xs:sequence> <!-- mandatory fields --> <xs:element name="captureSceneIDREF" type="xs:IDREF"/> <xs:choice> <xs:sequence> <xs:element name="spatialInformation" type="tns:spatialInformationType"/> </xs:sequence> <xs:element name="nonSpatiallyDefinable" type="xs:boolean" fixed="true"/> </xs:choice> <!-- for handling multicontent captures: --> <xs:choice> <xs:sequence> <xs:element name="synchronizationID" type="xs:ID" minOccurs="0"/> <xs:element name="content" type="contentType" minOccurs="0"/> <xs:element name="policy" type="policyType" minOccurs="0"/> <xs:element name="maxCaptures" type="maxCapturesType" minOccurs="0"/> <xs:element name="allowSubsetChoice" type="xs:boolean" minOccurs="0"/> </xs:sequence> <xs:element name="individual" type="xs:boolean" fixed="true"/> </xs:choice> <!-- optional fields --> <xs:element name="encGroupIDREF" type="xs:IDREF" minOccurs="0"/> <xs:element ref="description" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="priority" type="xs:unsignedInt" minOccurs="0"/> <xs:element name="lang" type="xs:language" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="mobility" type="mobilityType" minOccurs="0" /> <xs:element ref="presentation" minOccurs="0" /> <xs:element ref="embeddedText" minOccurs="0" /> <xs:element ref="view" minOccurs="0" /> <xs:element name="capturedPeople" type="capturedPeopleType" minOccurs="0"/> <xs:element name="relatedTo" type="xs:IDREF" minOccurs="0"/> </xs:sequence> <xs:attribute name="captureID" type="xs:ID" use="required"/> <xs:attribute name="mediaType" type="xs:string" use="required"/> </xs:complexType>
The "captureID" attribute is a mandatory field containing the identifier of the media capture. Such an identifier serves as the way the capture is referenced from other data model elements (e.g., simultaneous sets, capture encodings, and others via <mediaCaptureIDREF>).
"captureId"属性は、メディアキャプチャの識別子を含む必須フィールドです。そのような識別子は、キャプチャが他のデータモデル要素(例えば、同時セット、キャプチャエンコーディング、およびその他<MediaFaptureIdRef>を介して)から参照される方法として機能する。
The "mediaType" attribute is a mandatory attribute specifying the media type of the capture. Common standard values are "audio", "video", and "text", as defined in [RFC6838]. Other values can be provided. It is assumed that implementations agree on the interpretation of those other values. The "mediaType" attribute is as generic as possible. Here is why: (i) the basic media capture type is an abstract one; (ii) "concrete" definitions for the standard audio, video, and text capture types [RFC6838] have been specified; (iii) a generic "otherCaptureType" type has been defined; and (iv) the "mediaType" attribute has been generically defined as a string, with no particular template. From the considerations above, it is clear that if one chooses to rely on a brand new media type and wants to interoperate with others, an application-level agreement is needed on how to interpret such information.
"MediaType"属性は、キャプチャのメディアタイプを指定する必須属性です。[RFC6838]で定義されているように、一般的な標準値は「オーディオ」、「ビデオ」、および「テキスト」です。他の値を提供することができます。実装はそれらの他の値の解釈について一致すると仮定されています。"MediaType"属性はできるだけ一般的です。これがここにあります。(i)基本的なメディアキャプチャタイプは抽象的なものです。(ii)標準音声、ビデオ、およびテキストキャプチャタイプ[RFC6838]の「コンクリート」の定義が指定されている。(iii)一般的な「その他のキャプチュレタイプ」タイプが定義されている。(iv)「mediaType」属性は、特定のテンプレートなしで、一般的に文字列として定義されています。上記の考慮事項から、ブランドの新しいメディアの種類に頼ることを選択して他のものと相互運用したい場合は、そのような情報を解釈する方法についてアプリケーションレベルの契約が必要です。
<captureSceneIDREF> is a mandatory field containing the value of the identifier of the capture scene the media capture is defined in, i.e., the value of the sceneID attribute (Section 16.3) of that capture scene. Indeed, each media capture MUST be defined within one and only one capture scene. When a media capture is spatially definable, some spatial information is provided along with it in the form of point coordinates (see Section 11.5). Such coordinates refer to the space of coordinates defined for the capture scene containing the capture.
<CaptureSceneIdRef>は、メディアキャプチャがそのキャプチャシーンのSceneID属性(セクション16.3)で定義されているキャプチャシーンの識別子の値を含む必須フィールドです。実際、各メディアキャプチャは1つだけのキャプチャシーン内で定義する必要があります。メディアキャプチャが空間的に定義可能であるとき、いくつかの空間情報はそれと共にポイント座標の形で提供される(セクション11.5参照)。そのような座標は、キャプチャを含むキャプチャシーンに対して定義された座標のスペースを指す。
<encGroupIDREF> is an optional field containing the identifier of the encoding group the media capture is associated with, i.e., the value of the encodingGroupID attribute (Section 18.3) of that encoding group. Media captures that are not associated with any encoding group cannot be instantiated as media streams.
<encgroupIdref>は、メディアキャプチャが関連付けられているエンコーディンググループの識別子を含むオプションのフィールドである。エンコードグループに関連付けられていないメディアキャプチャは、メディアストリームとしてインスタンス化できません。
Media captures are divided into two categories: (i) non spatially definable captures and (ii) spatially definable captures.
メディアキャプチャは2つのカテゴリに分けられます。(i)空間的に定義可能なキャプチャと(ii)空間的に定義可能なキャプチャー。
Captures are spatially definable when at least it is possible to provide (i) the coordinates of the device position within the telepresence room of origin (capture point) together with its capturing direction specified by a second point (point on line of capture) or (ii) the represented area within the telepresence room, by listing the coordinates of the four coplanar points identifying the plane of interest (area of capture). The coordinates of the above mentioned points MUST be expressed according to the coordinate space of the capture scene the media captures belong to.
キャプチャは、少なくとも(i)原点のテレプレゼンスルーム内のデバイス位置の座標(キャプチャポイント)の座標(キャプチャポイント)を、第2の点(キャプチャラインオンライン)または(キャプチャポイント))を提供することが可能であるとき(i)。ii)興味のある平面を識別する4つのコプレーナ点の座標をリストすることによって、テレプレゼンスルーム内の表現された領域(キャプチャの領域)。上述の点の座標は、メディアキャプチャが属するキャプチャシーンの座標空間に従って表現されなければならない。
Non spatially definable captures cannot be characterized within the physical space of the telepresence room of origin. Captures of this kind are, for example, those related to recordings, text captures, DVDs, registered presentations, or external streams that are played in the telepresence room and transmitted to remote sites.
非空間的に定義可能なキャプチャは、起源のテレプレゼンスルームの物理的スペース内に特徴付けることはできません。この種のキャプチャは、例えば、レコーディング、テキストキャプチャ、DVD、登録プレゼンテーション、またはテレプレゼンスルームで再生され、遠隔サイトに送信される外部ストリームに関するものです。
Spatially definable captures represent a part of the telepresence room. The captured part of the telepresence room is described by means of the <spatialInformation> element. By comparing the <spatialInformation> element of different media captures within the same capture scene, a consumer can better determine the spatial relationships between them and render them correctly. Non spatially definable captures do not embed such elements in their XML description: they are instead characterized by having the <nonSpatiallyDefinable> tag set to "true" (see Section 11.6).
空間的に定義可能なキャプチャーは、テレプレゼンスルームの一部を表しています。テレプレゼンス室の捕捉部分は、<SpatialInformation>要素によって説明されています。同じキャプチャシーン内の異なるメディアキャプチャの要素を比較することによって、消費者がそれらの間の空間的関係をよりよく決定し、それらを正しくレンダリングすることができる。非空間的に定義可能なキャプチャは、そのような要素をXMLの説明に埋め込むことはありません。
The definition of the spatial information type is the following:
空間情報タイプの定義は次のとおりです。
<!-- SPATIAL INFORMATION TYPE --> <xs:complexType name="spatialInformationType"> <xs:sequence> <xs:element name="captureOrigin" type="captureOriginType" minOccurs="0"/> <xs:element name="captureArea" type="captureAreaType" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
The <captureOrigin> contains the coordinates of the capture device that is taking the capture (i.e., the capture point) as well as, optionally, the pointing direction (i.e., the point on line of capture); see Section 11.5.1.
<captureRigin>は、捕捉(すなわちキャプチャポイント)だけでなく、任意選択で、捕捉されている捕捉装置の座標、ならびに任意のポインティング方向(すなわち捕捉線)を含む。11.5.1項を参照してください。
The <captureArea> is an optional field containing four points defining the captured area covered by the capture (see Section 11.5.2).
<CaptUrearea>は、キャプチャによってカバーされているキャプチャされた領域を定義する4点を含むオプションのフィールドです(11.5.2項を参照)。
The scale of the points coordinates is specified in the scale attribute (Section 16.4) of the capture scene the media capture belongs to. Indeed, all the spatially definable media captures referring to the same capture scene share the same coordinate system and express their spatial information according to the same scale.
点座標のスケールは、メディアキャプチャが属するキャプチャシーンのScale属性(セクション16.4)に指定されています。実際、同じキャプチャシーンを参照するすべての空間的に定義可能なメディアキャプチャは、同じ座標系を共有し、同じスケールに従ってそれらの空間情報を表現します。
The <captureOrigin> element is used to represent the position and optionally the line of capture of a capture device. <captureOrigin> MUST be included in spatially definable audio captures, while it is optional for spatially definable video captures.
<captureorigin>要素は、位置と任意選択で捕捉装置のキャプチャラインを表すために使用されます。<CaptureRigin>は、空間的に定義可能なビデオキャプチャのためにオプションである間、空間的に定義可能なオーディオキャプチャに含まれていなければなりません。
The XML schema definition of the <captureOrigin> element type is the following:
<captureorigin>要素型のXMLスキーマ定義は次のとおりです。
<!-- CAPTURE ORIGIN TYPE --> <xs:complexType name="captureOriginType"> <xs:sequence> <xs:element name="capturePoint" type="pointType"/> <xs:element name="lineOfCapturePoint" type="pointType" minOccurs="0"/> </xs:sequence> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
<!-- POINT TYPE --> <xs:complexType name="pointType"> <xs:sequence> <xs:element name="x" type="xs:decimal"/> <xs:element name="y" type="xs:decimal"/> <xs:element name="z" type="xs:decimal"/> </xs:sequence> </xs:complexType>
The point type contains three spatial coordinates (x,y,z) representing a point in the space associated with a certain capture scene.
点タイプは、特定のキャプチャシーンに関連する空間内の点を表す3つの空間座標(x、y、z)を含む。
The <captureOrigin> element includes a mandatory <capturePoint> element and an optional <lineOfCapturePoint> element, both of the type "pointType". <capturePoint> specifies the three coordinates identifying the position of the capture device. <lineOfCapturePoint> is another pointType element representing the "point on line of capture", which gives the pointing direction of the capture device.
<captureLigin>要素には、 "PointType"のタイプの両方の<capturepointpoint>要素とオプションの<lineofcapturepoint>要素が含まれています。<CapturePoint>キャプチャデバイスの位置を識別する3つの座標を指定します。<LineOfCapturePoint>は、キャプチャデバイスのポイント方向を与える「キャプチャのポイント」を表す別のPointType要素です。
The coordinates of the point on line of capture MUST NOT be identical to the capture point coordinates. For a spatially definable video capture, if the point on line of capture is provided, it MUST belong to the region between the point of capture and the capture area. For a spatially definable audio capture, if the point on line of capture is not provided, the sensitivity pattern should be considered omnidirectional.
キャプチャのポイントの座標は、キャプチャポイント座標と同じではありません。空間的に定義可能なビデオキャプチャの場合、キャプチャの点が指定されている場合は、キャプチャポイントとキャプチャ領域の間の領域に属している必要があります。空間的に定義可能なオーディオキャプチャの場合、キャプチャの点が指定されていない場合、感度パターンは全方向性と見なされるべきです。
<captureArea> is an optional element that can be contained within the spatial information associated with a media capture. It represents the spatial area captured by the media capture. <captureArea> MUST be included in the spatial information of spatially definable video captures, while it MUST NOT be associated with audio captures.
<CaptUreArea>は、メディアキャプチャに関連する空間情報内に含まれているオプションの要素です。メディアキャプチャによってキャプチャされた空間領域を表します。<CaptUrearea>は、音声キャプチャに関連付けられてはいけませんが、空間的に定義可能なビデオキャプチャの空間情報に含める必要があります。
The XML representation of that area is provided through a set of four point-type elements, <bottomLeft>, <bottomRight>, <topLeft>, and <topRight>, that MUST be coplanar. The four coplanar points are identified from the perspective of the capture device. The XML schema definition is the following:
その領域のXML表現は、4つの点型要素のセット、<bottomleft>、<bottomright>、<topleft>、および<topleft>、<topleft>、およびcoplanarでなければなりません。4つのコプレーナポイントは、キャプチャデバイスの観点から識別されます。XMLスキーマ定義は次のとおりです。
<!-- CAPTURE AREA TYPE --> <xs:complexType name="captureAreaType"> <xs:sequence> <xs:element name="bottomLeft" type="pointType"/> <xs:element name="bottomRight" type="pointType"/> <xs:element name="topLeft" type="pointType"/> <xs:element name="topRight" type="pointType"/> </xs:sequence> </xs:complexType>
When media captures are non spatially definable, they MUST be marked with the boolean <nonSpatiallyDefinable> element set to "true", and no <spatialInformation> MUST be provided. Indeed, <nonSpatiallyDefinable> and <spatialInformation> are mutually exclusive tags, according to the <choice> section within the XML schema definition of the media capture type.
メディアキャプチャが空間的に定義可能である場合、それらは「true」に設定されたブール<nonspatialdialdefinable>要素でマークされなければならず、<SpatialInformation>を提供する必要があります。実際、<非公式Definable>および<SpatialInformation>は、メディアキャプチャタイプのXMLスキーマ定義内の<選択>セクションに従って、相互に排他的なタグです。
A media capture can be (i) an individual media capture or (ii) an MCC. An MCC is made by different captures that can be arranged spatially (by a composition operation), or temporally (by a switching operation), or that can result from the orchestration of both the techniques. If a media capture is an MCC, then it MAY show in its XML data model representation the <content> element. It is composed by a list of media capture identifiers ("mediaCaptureIDREF") and capture scene view identifiers ("sceneViewIDREF"), where the latter ones are used as shortcuts to refer to multiple capture identifiers. The referenced captures are used to create the MCC according to a certain strategy. If the <content> element does not appear in an MCC, or it has no child elements, then the MCC is assumed to be made of multiple sources, but no information regarding those sources is provided.
メディアキャプチャは、(i)個々のメディアキャプチャまたは(ii)MCCであり得る。MCCは、(組成操作によって)空間的に(組成操作によって)配置され得る異なるキャプチャによって、または一時的に(スイッチング動作によって)、またはそれらの両方の技術のオーケストレーションから生じることができる。メディアキャプチャがMCCの場合、XMLデータモデル表現に<content>要素を表示することができます。これは、後者のキャプチャ識別子を参照するためのショートカットとして使用されているメディアキャプチャ識別子( "MediaFaptureIdref")とキャプチャシーンビュー識別子( "SceneViewIdref")によって構成されます。参照されているキャプチャは、特定の戦略に従ってMCCを作成するために使用されます。<content>要素がMCCに表示されないか、子要素がない場合、MCCは複数のソースでできていると見なされますが、それらの情報源に関する情報は提供されていません。
<!-- CONTENT TYPE --> <xs:complexType name="contentType"> <xs:sequence> <xs:element name="mediaCaptureIDREF" type="xs:string" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="sceneViewIDREF" type="xs:string" minOccurs="0" maxOccurs="unbounded"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
<synchronizationID> is an optional element for multiple content captures that contains a numeric identifier. Multiple content captures marked with the same identifier in the <synchronizationID> contain at all times captures coming from the same sources. It is the Media Provider that determines what the source is for the captures. In this way, the Media Provider can choose how to group together single captures for the purpose of keeping them synchronized according to the <synchronizationID> element.
<synchronizationID>は、数値識別子を含む複数のコンテンツキャプチャのオプションの要素です。<SynchronizationID>内の同じ識別子を持つ複数のコンテンツキャプチャーは、同じソースからのキャプチャーを常に含むものです。これは、ソースがキャプチャのためのものであるものを決定するメディアプロバイダーです。このようにして、メディアプロバイダは、<synchronizationID>要素に従って同期させ続けることを目的として、単一のキャプチャをグループ化する方法を選択できます。
<allowSubsetChoice> is an optional boolean element for multiple content captures. It indicates whether or not the Provider allows the Consumer to choose a specific subset of the captures referenced by the MCC. If this attribute is true, and the MCC references other captures, then the Consumer MAY specify in a CONFIGURE message a specific subset of those captures to be included in the MCC, and the Provider MUST then include only that subset. If this attribute is false, or the MCC does not reference other captures, then the Consumer MUST NOT select a subset. If <allowSubsetChoice> is not shown in the XML description of the MCC, its value is to be considered "false".
<alycountubsethoice>は、複数のコンテンツキャプチャのためのオプションのブール要素です。プロバイダが、ConsulerがMCCによって参照されるキャプチャの特定のサブセットを選択できるかどうかを示します。この属性が真の場合、およびMCCが他のキャプチャを参照している場合、コンシューマはConfigure MessageでMCCに含まれるキャプチャの特定のサブセットを指定し、プロバイダはそのサブセットのみを含める必要があります。この属性がfalseの場合、またはMCCが他のキャプチャを参照していない場合、コンシューマはサブセットを選択してはいけません。<許可CetchOice>がMCCのXML記述に表示されていない場合、その値は「false」と見なされます。
<policy> is an optional element that can be used only for multiple content captures. It indicates the criteria applied to build the multiple content capture using the media captures referenced in the <mediaCaptureIDREF> list. The <policy> value is in the form of a token that indicates the policy and an index representing an instance of the policy, separated by a ":" (e.g., SoundLevel:2, RoundRobin:0, etc.). The XML schema defining the type of the <policy> element is the following:
<Policy>は、複数のコンテンツキャプチャのみに使用できるオプションの要素です。これは、<MediaCapteIdRef>リストで参照されているメディアキャプチャを使用して、複数のコンテンツキャプチャを構築するための基準を示しています。<policy>値は、「:」(例えば、SoundLevel:2、Roundrobin:0など)で区切って、ポリシーのポリシーとインスタンスを表すインデックスを示すトークンの形式です。<policy>要素の型を定義するXMLスキーマは次のとおりです。
<!-- POLICY TYPE --> <xs:simpleType name="policyType"> <xs:restriction base="xs:string"> <xs:pattern value="([a-zA-Z0-9])+[:]([0-9])+"/> </xs:restriction> </xs:simpleType>
At the time of writing, only two switching policies are defined; they are in [RFC8845] as follows:
書き込み時には、2つのスイッチングポリシーのみが定義されています。次のように[RFC8845]にあります。
| SoundLevel: This indicates that the content of the MCC is | determined by a sound-level-detection algorithm. The loudest | (active) speaker (or a previous speaker, depending on the index | value) is contained in the MCC. | | RoundRobin: This indicates that the content of the MCC is | determined by a time-based algorithm. For example, the | Provider provides content from a particular source for a period | of time and then provides content from another source, and so | on.
Other values for the <policy> element can be used. In this case, it is assumed that implementations agree on the meaning of those other values and/or those new switching policies are defined in later documents.
<policy>要素の他の値を使用できます。この場合、実装はそれらの他の値の意味について一致すると仮定され、それらの新しいスイッチングポリシーは後の文書内で定義される。
<maxCaptures> is an optional element that can be used only for MCCs. It provides information about the number of media captures that can be represented in the multiple content capture at a time. If <maxCaptures> is not provided, all the media captures listed in the <content> element can appear at a time in the capture encoding. The type definition is provided below.
<MAXCAPTURES>は、MCCのみに使用できるオプションの要素です。一度に複数のコンテンツキャプチャで表すことができるメディアキャプチャの数に関する情報を提供します。<maxCaptures>が提供されていない場合、<content>要素にリストされているすべてのメディアキャプチャは、キャプチャエンコーディングの時に表示されることがあります。タイプ定義は以下に提供されます。
<!-- MAX CAPTURES TYPE --> <xs:simpleType name="positiveShort"> <xs:restriction base="xs:unsignedShort"> <xs:minInclusive value="1"> </xs:minInclusive> </xs:restriction> </xs:simpleType>
<xs:complexType name="maxCapturesType"> <xs:simpleContent> <xs:extension base="positiveShort"> <xs:attribute name="exactNumber" type="xs:boolean"/> </xs:extension> </xs:simpleContent> </xs:complexType>
When the "exactNumber" attribute is set to "true", it means the <maxCaptures> element carries the exact number of the media captures appearing at a time. Otherwise, the number of the represented media captures MUST be considered "<=" the <maxCaptures> value.
"exactnumber"属性が "true"に設定されていると、<maxcaptures>要素は一度に表示されるメディアキャプチャの正確な数を搬送します。それ以外の場合、表現されたメディアキャプチャの数は<maxcaptures>値を "<="と見なす必要があります。
For instance, an audio MCC having the <maxCaptures> value set to 1 means that a media stream from the MCC will only contain audio from a single one of its constituent captures at a time. On the other hand, if the <maxCaptures> value is set to 4 and the exactNumber attribute is set to "true", it would mean that the media stream received from the MCC will always contain a mix of audio from exactly four of its constituent captures.
例えば、<maxCaptures>値を有するオーディオMCCは1に設定されていることを意味し、MCCからのメディアストリームは一度にその構成要素キャプチャの単一の1つからのみオーディオを含むことを意味する。一方、<maxCaptures>値が4に設定されていて、exteNnumber属性が "true"に設定されている場合、MCCから受信したメディアストリームには常にその構成要素の正確にオーディオの組み合わせが含まれます。キャプチャします。
<individual> is a boolean element that MUST be used for single-content captures. Its value is fixed and set to "true". Such element indicates the capture that is being described is not an MCC. Indeed, <individual> and the aforementioned tags related to MCC attributes (from Sections 11.7 to 11.11) are mutually exclusive, according to the <choice> section within the XML schema definition of the media capture type.
<個人>は、単一コンテンツキャプチャに使用する必要があるブール要素です。その値は固定され、 "true"に設定されています。そのような要素は、説明されているキャプチャがMCCではないことを示す。実際には、MCC属性に関連する上記のタグ(セクション11.7から11.11へ)は、メディアキャプチャタイプのXMLスキーマ定義内の<選択>セクションによると、相互に排他的です。
<description> is used to provide human-readable textual information. This element is included in the XML definition of media captures, capture scenes, and capture scene views to provide human-readable descriptions of, respectively, media captures, capture scenes, and capture scene views. According to the data model definition of a media capture (Section 11)), zero or more <description> elements can be used, each providing information in a different language. The <description> element definition is the following:
<説明>は人間が読めるテキスト情報を提供するために使用されます。この要素は、メディアキャプチャのXML定義、キャプチャーシーンビュー、およびシーンビューのキャプチャーに含まれています。メディアキャプチャのデータモデル定義(セクション11))によると、0個以上の<説明>要素を使用することができ、それぞれが異なる言語で情報を提供する。<description>要素定義は次のとおりです。
<!-- DESCRIPTION element --> <xs:element name="description"> <xs:complexType> <xs:simpleContent> <xs:extension base="xs:string"> <xs:attribute name="lang" type="xs:language"/> </xs:extension> </xs:simpleContent> </xs:complexType> </xs:element>
As can be seen, <description> is a string element with an attribute ("lang") indicating the language used in the textual description. Such an attribute is compliant with the Language-Tag ABNF production from [RFC5646].
見られるように、<description>は、テキスト記述で使用される言語を示す属性(「LANG」)を持つ文字列要素です。そのような属性は[RFC5646]からの言語タグABNF制作に準拠しています。
<priority> is an optional unsigned integer field indicating the importance of a media capture according to the Media Provider's perspective. It can be used on the receiver's side to automatically identify the most relevant contribution from the Media Provider. The higher the importance, the lower the contained value. If no priority is assigned, no assumptions regarding relative importance of the media capture can be assumed.
<優先順位>は、メディアプロバイダの観点によるメディアキャプチャの重要性を示すオプションの符号なし整数フィールドです。それは受信側でメディアプロバイダから最も関連のある貢献を自動的に識別するために使用することができます。重要度が高いほど、含まれている値が低い。優先順位が割り当てられていない場合は、メディアキャプチャの相対的な重要度に関する仮定は想定できません。
<lang> is an optional element containing the language used in the capture. Zero or more <lang> elements can appear in the XML description of a media capture. Each such element has to be compliant with the Language-Tag ABNF production from [RFC5646].
<lang>は、キャプチャで使用されている言語を含むオプションの要素です。ゼロ以上の<LANG>要素は、メディアキャプチャのXML記述に表示されます。そのような各要素は[RFC5646]からの言語タグABNF製造に準拠しなければなりません。
<mobility> is an optional element indicating whether or not the capture device originating the capture may move during the telepresence session. That optional element can assume one of the three following values:
<Mobility>は、キャプチャを発信するキャプチャデバイスがTelePresenceセッション中に移動できるかどうかを示すオプションの要素です。そのオプション要素は、次の3つの値のうちの1つをとることができます。
static: SHOULD NOT change for the duration of the CLUE session, across multiple ADVERTISEMENT messages.
静的:複数の広告メッセージにまたがって、Chueセッションの期間中は変更しないでください。
dynamic: MAY change in each new ADVERTISEMENT message. Can be assumed to remain unchanged until there is a new ADVERTISEMENT message.
動的:新しい広告メッセージごとに変更される可能性があります。新しい広告メッセージがあるまで変更されないと見なすことができます。
highly-dynamic: MAY change dynamically, even between consecutive ADVERTISEMENT messages. The spatial information provided in an ADVERTISEMENT message is simply a snapshot of the current values at the time when the message is sent.
高度に動的:連続した広告メッセージの間でさえ動的に変化する可能性があります。広告メッセージに提供される空間情報は、メッセージが送信されたときの現在の値の単なるスナップショットである。
The optional <relatedTo> element contains the value of the captureID attribute (Section 11.1) of the media capture to which the considered media capture refers. The media capture marked with a <relatedTo> element can be, for example, the translation of the referred media capture in a different language.
オプションの<enestio>要素には、検討されたメディアキャプチャが参照されているメディアキャプチャのCaptureID属性(セクション11.1)の値が含まれています。<関連する>要素でマークされたメディアキャプチャは、例えば、さまざまな言語で参照されたメディアキャプチャの翻訳などであり得る。
The <view> element is an optional tag describing what is represented in the spatial area covered by a media capture. It has been specified as a simple string with an annotation pointing to an IANA registry that is defined ad hoc:
<view>要素は、メディアキャプチャによってカバーされている空間領域で表される内容を記述するオプションのタグです。これは、AD HOCが定義されているIANAレジストリを指している注釈を持つ単純な文字列として指定されています。
<!-- VIEW ELEMENT --> <xs:element name="view" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <view>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
The current possible values, as per the CLUE framework document [RFC8845], are: "room", "table", "lectern", "individual", and "audience".
CLUE Frameworkドキュメント[RFC8845]に従って、現在の可能な値は、次のとおりです。
The <presentation> element is an optional tag used for media captures conveying information about presentations within the telepresence session. It has been specified as a simple string with an annotation pointing to an IANA registry that is defined ad hoc:
<presentation>要素は、TelePresenceセッション内のプレゼンテーションに関する情報を伝達するメディアキャプチャに使用されるオプションのタグです。これは、AD HOCが定義されているIANAレジストリを指している注釈を持つ単純な文字列として指定されています。
<!-- PRESENTATION ELEMENT --> <xs:element name="presentation" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <presentation>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
The current possible values, as per the CLUE framework document [RFC8845], are "slides" and "images".
Clue Frameworkドキュメント[RFC8845]に従って、現在の可能な値は、「スライド」と「画像」です。
The <embeddedText> element is a boolean element indicating that there is text embedded in the media capture (e.g., in a video capture). The language used in such an embedded textual description is reported in the <embeddedText> "lang" attribute.
<embeddedText>要素は、メディアキャプチャに(例えば、ビデオキャプチャ内の)テキストが埋め込まれていることを示すブール要素です。そのような埋め込まれたテキスト記述で使用されている言語は、<embeddedText> "lang"属性に報告されます。
The XML schema definition of the <embeddedText> element is:
<embeddedText>要素のXMLスキーマ定義は次のとおりです。
<!-- EMBEDDED TEXT ELEMENT --> <xs:element name="embeddedText"> <xs:complexType> <xs:simpleContent> <xs:extension base="xs:boolean"> <xs:attribute name="lang" type="xs:language"/> </xs:extension> </xs:simpleContent> </xs:complexType> </xs:element>
This optional element is used to indicate which telepresence session participants are represented in within the media captures. For each participant, a <personIDREF> element is provided.
このオプション要素は、どのTelePresenceセッション参加者がメディアキャプチャ内に表示されるかを示すために使用されます。各参加者に対して、<PersonIdref>要素が提供されています。
<personIDREF> contains the identifier of the represented person, i.e., the value of the related personID attribute (Section 21.1.1). Metadata about the represented participant can be retrieved by accessing the <people> list (Section 21).
<PERSIONIDREF>は、表現された人の識別子、すなわち関連PersonId属性の値を含む(セクション21.1.1)。代表された参加者に関するメタデータは、<People> Listにアクセスすることによって検索することができます(セクション21)。
Audio captures inherit all the features of a generic media capture and present further audio-specific characteristics. The XML schema definition of the audio capture type is reported below:
オーディオキャプチャは、一般的なメディアキャプチャのすべての機能を継承し、その他のオーディオ固有の特性を紹介します。オーディオキャプチャの種類のXMLスキーマ定義は以下の通り報告されています。
<!-- AUDIO CAPTURE TYPE --> <xs:complexType name="audioCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:element ref="sensitivityPattern" minOccurs="0" /> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
An example of audio-specific information that can be included is represented by the <sensitivityPattern> element (Section 12.1).
含めることができるオーディオ固有の情報の例は、<SensitivityPattern>要素(セクション12.1)によって表される。
The <sensitivityPattern> element is an optional field describing the characteristics of the nominal sensitivity pattern of the microphone capturing the audio signal. It has been specified as a simple string with an annotation pointing to an IANA registry that is defined ad hoc:
<SensitivityPattern>要素は、オーディオ信号をキャプチャするマイクロフォンの公称感度パターンの特性を記述するオプションのフィールドである。これは、AD HOCが定義されているIANAレジストリを指している注釈を持つ単純な文字列として指定されています。
<!-- SENSITIVITY PATTERN ELEMENT --> <xs:element name="sensitivityPattern" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <sensitivityPattern>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
The current possible values, as per the CLUE framework document [RFC8845], are "uni", "shotgun", "omni", "figure8", "cardioid", and "hyper-cardioid".
CLUE Frameworkドキュメント[RFC8845]に従って、現在の可能な値は、「UNI」、「Shotgun」、「OMNI」、「図8」、「CardioID」、「ハイパーカーディオ」です。
Video captures, similarly to audio captures, extend the information of a generic media capture with video-specific features.
ビデオキャプチャは、オーディオキャプチャと同様に、汎用メディアキャプチャの情報をビデオ固有の機能で拡張します。
The XML schema representation of the video capture type is provided in the following:
ビデオキャプチャタイプのXMLスキーマ表現は、次のようになります。
<!-- VIDEO CAPTURE TYPE --> <xs:complexType name="videoCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
Similar to audio captures and video captures, text captures can be described by extending the generic media capture information.
オーディオキャプチャとビデオキャプチャと同様に、テキストキャプチャは、一般的なメディアキャプチャ情報を拡張することによって説明できます。
There are no known properties of a text-based media that aren't already covered by the generic mediaCaptureType. Text captures are hence defined as follows:
一般的なMediaCaptureTypeによってまだカバーされていないテキストベースのメディアの既知のプロパティはありません。テキストキャプチャは次のように定義されています。
<!-- TEXT CAPTURE TYPE --> <xs:complexType name="textCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
Text captures MUST be marked as non spatially definable (i.e., they MUST present in their XML description the <nonSpatiallyDefinable> (Section 11.6) element set to "true").
テキストキャプチャは空間的に定義可能なものとしてマークされている必要があります(すなわち、それらはXMLの説明に存在している必要があります。<nonspatialdefinable>(セクション11.6)要素は "true"に設定されています)。
Other media capture types can be described by using the CLUE data model. They can be represented by exploiting the "otherCaptureType" type. This media capture type is conceived to be filled in with elements defined within extensions of the current schema, i.e., with elements defined in other XML schemas (see Section 24 for an example). The otherCaptureType inherits all the features envisioned for the abstract mediaCaptureType.
他のメディアキャプチャタイプは、CLUEデータモデルを使用して説明できます。「その他のキャプチュラタイプ」タイプを利用することで表すことができます。このメディアキャプチャタイプは、現在のスキーマの拡張子内で定義された要素、すなわち他のXMLスキーマで定義された要素を埋め込むように考えられる(例についてはセクション24を参照)。OtherCapTureTypeは、抽象的なMediaCapTureTypeで想定されているすべての機能を継承します。
The XML schema representation of the otherCaptureType is the following:
OtherCapTureTypeのXMLスキーマ表現は次のとおりです。
<!-- OTHER CAPTURE TYPE --> <xs:complexType name="otherCaptureType"> <xs:complexContent> <xs:extension base="tns:mediaCaptureType"> <xs:sequence> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:extension> </xs:complexContent> </xs:complexType>
When defining new media capture types that are going to be described by means of the <otherMediaCapture> element, spatial properties of such new media capture types SHOULD be defined (e.g., whether or not they are spatially definable and whether or not they should be associated with an area of capture or other properties that may be defined).
<その他のMediaCapture>要素によって記述される新しいメディアキャプチャタイプを定義するとき、そのような新しいメディアキャプチャタイプの空間プロパティは定義されるべきである(例えば、それらが空間的に定義可能かどうか、それらが関連付けられるべきかどうか)捕獲領域または定義され得る他の特性を有する。
A Media Provider organizes the available captures in capture scenes in order to help the receiver in both the rendering and the selection of the group of captures. Capture scenes are made of media captures and capture scene views, which are sets of media captures of the same media type. Each capture scene view is an alternative to completely represent a capture scene for a fixed media type.
メディアプロバイダは、レンダリングの両方のレンダリングとキャプチャグループの選択の両方で受信機を助けるためにキャプチャシーン内のキャプチャを整理する。キャプチャシーンは、メディアキャプチャとキャプチャシーンビューを作成します。これは、同じメディアタイプのメディアキャプチャのセットです。各キャプチャシーンビューは、固定メディアタイプのキャプチャシーンを完全に表すための代替手段です。
The XML schema representation of a <captureScene> element is the following:
<captureScene>要素のXMLスキーマ表現は次のとおりです。
<!-- CAPTURE SCENE TYPE --> <xs:complexType name="captureSceneType"> <xs:sequence> <xs:element ref="description" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="sceneInformation" type="xcard:vcardType" minOccurs="0"/> <xs:element name="sceneViews" type="sceneViewsType" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="sceneID" type="xs:ID" use="required"/> <xs:attribute name="scale" type="scaleType" use="required"/> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
Each capture scene is identified by a "sceneID" attribute. The <captureScene> element can contain zero or more textual <description> elements, as defined in Section 11.13. Besides <description>, there is the optional <sceneInformation> element (Section 16.1), which contains structured information about the scene in the vCard format, and the optional <sceneViews> element (Section 16.2), which is the list of the capture scene views. When no <sceneViews> is provided, the capture scene is assumed to be made of all the media captures that contain the value of its sceneID attribute in their mandatory captureSceneIDREF attribute.
各キャプチャシーンは、「SceneID」属性によって識別されます。<captureScene>要素は、セクション11.13で定義されているように、0個以上のテキストの<説明>要素を含めることができます。<説明>の他に、vCard形式のシーンに関する構造化された情報、およびキャプチャシーンのリストであるオプションの<sceneviews>要素(セクション16.2)を含むオプションの<scenesiffervice>要素(セクション16.1)があります。ビュー。<SceneViews>が提供されていない場合、キャプチャシーンは、必須CaptureSceneIdref属性のSceneID属性の値を含むすべてのメディアキャプチャで作成されます。
The <sceneInformation> element contains optional information about the capture scene according to the vCard format, as specified in the xCard specification [RFC6351].
<sceneInformation>要素には、Xcard Specification [RFC6351]で指定されているVCARDフォーマットに従って、キャプチャーシーンに関するオプションの情報が含まれています。
The <sceneViews> element is a mandatory field of a capture scene containing the list of scene views. Each scene view is represented by a <sceneView> element (Section 17).
<sceneviews>要素は、シーンビューのリストを含むキャプチャシーンの必須フィールドです。各シーンビューは<sceneview>要素(セクション17)によって表されます。
<!-- SCENE VIEWS TYPE --> <!-- envelope of scene views of a capture scene --> <xs:complexType name="sceneViewsType"> <xs:sequence> <xs:element name="sceneView" type="sceneViewType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
The sceneID attribute is a mandatory attribute containing the identifier of the capture scene.
SceneID属性は、キャプチャシーンの識別子を含む必須属性です。
The scale attribute is a mandatory attribute that specifies the scale of the coordinates provided in the spatial information of the media capture belonging to the considered capture scene. The scale attribute can assume three different values:
scale属性は、検討されたキャプチャシーンに属するメディアキャプチャの空間情報に提供される座標の縮尺を指定する必須属性です。Scale属性は3つの異なる値をとることができます。
"mm": the scale is in millimeters. Systems that know their physical dimensions (for example, professionally installed telepresence room systems) should always provide such real-world measurements.
「mm」:スケールはミリメートルです。物理的な寸法を知っているシステム(たとえば、専門的に設置されたテレプレゼンスルームシステム)は、常にそのような実世界の測定値を提供する必要があります。
"unknown": the scale is the same for every media capture in the capture scene, but the unity of measure is undefined. Systems that are not aware of specific physical dimensions yet still know relative distances should select "unknown" in the scale attribute of the capture scene to be described.
「不明」:キャプチャシーン内のメディアキャプチャーごとにスケールは同じですが、測定値は未定義です。特定の物理的寸法を認識していないシステムであることは、まだ相対的な距離を知っていることを知っていることを知っているはずの捕捉シーンのスケール属性において「不明」を選択するべきである。
"noscale": there is no common physical scale among the media captures of the capture scene. That means the scale could be different for each media capture.
「NOSCALE」:キャプチャシーンのメディアキャプチャの間には一般的な物理スケールはありません。つまり、メディアキャプチャごとにスケールが異なる可能性があります。
<!-- SCALE TYPE --> <xs:simpleType name="scaleType"> <xs:restriction base="xs:string"> <xs:enumeration value="mm"/> <xs:enumeration value="unknown"/> <xs:enumeration value="noscale"/> </xs:restriction> </xs:simpleType>
A <sceneView> element represents a capture scene view, which contains a set of media captures of the same media type describing a capture scene.
<SceneView>要素はキャプチャシーンビューを表します。これには、キャプチャシーンを記述する同じメディアタイプのメディアキャプチャのセットが含まれています。
A <sceneView> element is characterized as follows.
<SceneView>要素は次のように特徴付けられます。
<!-- SCENE VIEW TYPE --> <xs:complexType name="sceneViewType"> <xs:sequence> <xs:element ref="description" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="mediaCaptureIDs" type="captureIDListType"/> </xs:sequence> <xs:attribute name="sceneViewID" type="xs:ID" use="required"/> </xs:complexType>
One or more optional <description> elements provide human-readable information about what the scene view contains. <description> is defined in Section 11.13.
1つ以上のオプション<description>要素は、シーンビューに含まれるものに関する人間が読めることができます。<説明>はセクション11.13で定義されています。
The remaining child elements are described in the following subsections.
残りの子要素については、以下のサブセクションに記載されています。
<mediaCaptureIDs> is the list of the identifiers of the media captures included in the scene view. It is an element of the captureIDListType type, which is defined as a sequence of <mediaCaptureIDREF>, each containing the identifier of a media capture listed within the <mediaCaptures> element:
<MediaCaptionIDS>は、シーンビューに含まれているメディアキャプチャの識別子のリストです。これはCaptureIdListType型の要素です。これは、<MediaCaptureIdRef>のシーケンスとして定義されています。
<!-- CAPTURE ID LIST TYPE --> <xs:complexType name="captureIDListType"> <xs:sequence> <xs:element name="mediaCaptureIDREF" type="xs:IDREF" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
The sceneViewID attribute is a mandatory attribute containing the identifier of the capture scene view represented by the <sceneView> element.
SceneViewID属性は、<sceneview>要素によって表されるキャプチャシーンビューの識別子を含む必須属性です。
The <encodingGroup> element represents an encoding group, which is made by a set of one or more individual encodings and some parameters that apply to the group as a whole. Encoding groups contain references to individual encodings that can be applied to media captures. The definition of the <encodingGroup> element is the following:
<encodinggroup>要素は、1つまたは複数の個々のエンコーディングのセットと、グループ全体に適用される一部のパラメータによって行われます。エンコードグループには、メディアキャプチャに適用できる個々のエンコーディングへの参照が含まれています。<encodinggroup>要素の定義は次のとおりです。
<!-- ENCODING GROUP TYPE --> <xs:complexType name="encodingGroupType"> <xs:sequence> <xs:element name="maxGroupBandwidth" type="xs:unsignedLong"/> <xs:element name="encodingIDList" type="encodingIDListType"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="encodingGroupID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
In the following subsections, the contained elements are further described.
以下のサブセクションでは、含まれている要素についてさらに説明する。
<maxGroupBandwidth> is an optional field containing the maximum bitrate expressed in bits per second that can be shared by the individual encodings included in the encoding group.
<maxGroupBandWidth>は、符号化グループに含まれる個々のエンコーディングによって共有され得るビット単位で表される最大ビットレートを含むオプションのフィールドである。
<encodingIDList> is the list of the individual encodings grouped together in the encoding group. Each individual encoding is represented through its identifier contained within an <encodingID> element.
<EncodingIdList>は、エンコーディンググループ内にグループ化されている個々のエンコーディングのリストです。各個々のエンコーディングは、<encodingID>要素内に含まれる識別子を介して表されます。
<!-- ENCODING ID LIST TYPE --> <xs:complexType name="encodingIDListType"> <xs:sequence> <xs:element name="encodingID" type="xs:string" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
The encodingGroupID attribute contains the identifier of the encoding group.
EncodingGroupID属性には、エンコードグループの識別子が含まれています。
<simultaneousSet> represents a simultaneous transmission set, i.e., a list of captures of the same media type that can be transmitted at the same time by a Media Provider. There are different simultaneous transmission sets for each media type.
<同時設定>同時送信セット、すなわちメディアプロバイダによって同時に送信され得る同じメディアタイプのキャプチャのリストを表す。メディアタイプごとに異なる同時送信セットがあります。
<!-- SIMULTANEOUS SET TYPE --> <xs:complexType name="simultaneousSetType"> <xs:sequence> <xs:element name="mediaCaptureIDREF" type="xs:IDREF" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="sceneViewIDREF" type="xs:IDREF" minOccurs="0" maxOccurs="unbounded"/> <xs:element name="captureSceneIDREF" type="xs:IDREF" minOccurs="0" maxOccurs="unbounded"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="setID" type="xs:ID" use="required"/> <xs:attribute name="mediaType" type="xs:string"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
Besides the identifiers of the captures (<mediaCaptureIDREF> elements), the identifiers of capture scene views and capture scenes can also be exploited as shortcuts (<sceneViewIDREF> and <captureSceneIDREF> elements). As an example, let's consider the situation where there are two capture scene views (S1 and S7). S1 contains captures AC11, AC12, and AC13. S7 contains captures AC71 and AC72. Provided that AC11, AC12, AC13, AC71, and AC72 can be simultaneously sent to the Media Consumer, instead of having 5 <mediaCaptureIDREF> elements listed in the simultaneous set (i.e., one <mediaCaptureIDREF> for AC11, one for AC12, and so on), there can be just two <sceneViewIDREF> elements (one for S1 and one for S7).
キャプチャの識別子(<MediaFaptureIdRef>要素)の他に、キャプチャシーンビューとキャプチャーシーンの識別子もショートカットとして悪用されます(<SceneViewIdRef>と<captureSceneIdref>要素)。一例として、2つのキャプチャシーンビューがある状況を考慮しましょう(S1とS7)。S1には、AC11、AC12、AC13のキャプチャが含まれています。S7にはAC71とAC72のキャプチャが含まれています。AC11、AC12、AC13、AC71、およびAC72は、同時セットにリストされている5 <MediaCaptureIDREF>の要素(すなわち、AC11の場合は1つずつ、AC12の場合は1つずつ)を有するのではなく、メディアコンシューマに同時に送信され得る。ON)、2つの<SC SC SCUNEVIERIDREF>要素(S1用、S7用の1つ)の場合もあります。
The "setID" attribute is a mandatory field containing the identifier of the simultaneous set.
"setId"属性は、同時セットの識別子を含む必須フィールドです。
The "mediaType" attribute is an optional attribute containing the media type of the captures referenced by the simultaneous set.
「mediaType」属性は、同時セットによって参照されるキャプチャのメディアタイプを含むオプションの属性です。
When only capture scene identifiers are listed within a simultaneous set, the media type attribute MUST appear in the XML description in order to determine which media captures can be simultaneously sent together.
キャプチャシーン識別子のみが同時セット内にリストされている場合、どのメディアキャプチャを同時に同時に送信できるかを判断するために、メディアタイプ属性がXMLの説明に表示されなければなりません。
<mediaCaptureIDREF> contains the identifier of the media capture that belongs to the simultaneous set.
<MediaFaptureIdRef>同時セットに属するメディアキャプチャの識別子を含みます。
<sceneViewIDREF> contains the identifier of the scene view containing a group of captures that are able to be sent simultaneously with the other captures of the simultaneous set.
<SceneviewIdRef>は、同時セットの他のキャプチャと同時に送信できるキャプチャのグループを含むシーンビューの識別子を含む。
<captureSceneIDREF> contains the identifier of the capture scene where all the included captures of a certain media type are able to be sent together with the other captures of the simultaneous set.
<CaptureSceneIdref>は、特定のメディアタイプのすべての組み込みキャプチャを同時セットの他のキャプチャと一緒に送信できるキャプチャシーンの識別子を含みます。
<globalView> is a set of captures of the same media type representing a summary of the complete Media Provider's offer. The content of a global view is expressed by leveraging only scene view identifiers, put within <sceneViewIDREF> elements. Each global view is identified by a unique identifier within the "globalViewID" attribute.
<globalview>は、完全なメディアプロバイダのオファーの概要を表すのと同じメディアタイプの一連のキャプチャです。グローバルビューの内容は、シーンビュー識別子のみを活用し、<SceneViewIdRef>要素内に配置することによって表現されます。各グローバルビューは、 "globalviewID"属性内の一意の識別子によって識別されます。
<!-- GLOBAL VIEW TYPE --> <xs:complexType name="globalViewType"> <xs:sequence> <xs:element name="sceneViewIDREF" type="xs:IDREF" maxOccurs="unbounded"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="globalViewID" type="xs:ID"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
Information about the participants that are represented in the media captures is conveyed via the <people> element. As it can be seen from the XML schema depicted below, for each participant, a <person> element is provided.
メディアキャプチャで表される参加者に関する情報は、<People>要素を介して伝達されます。以下に示されているXMLスキーマから分かるように、各参加者について、<person>要素が提供されます。
<!-- PEOPLE TYPE --> <xs:complexType name="peopleType"> <xs:sequence> <xs:element name="person" type="personType" maxOccurs="unbounded"/> </xs:sequence> </xs:complexType>
<person> includes all the metadata related to a person represented within one or more media captures. Such element provides the vCard of the subject (via the <personInfo> element; see Section 21.1.2) and its conference role(s) (via one or more <personType> elements; see Section 21.1.3). Furthermore, it has a mandatory "personID" attribute (Section 21.1.1).
<PERSION>は、1つ以上のメディアキャプチャ内に表される人に関連するすべてのメタデータを含みます。そのような要素は、(<personInfo>要素を介して; 21.1.2項を参照)およびその会議ロールを参照してください(1つ以上の<PersonType>要素を介して、21.1.3項を参照)。さらに、必須の「PersonId」属性(セクション21.1.1)があります。
<!-- PERSON TYPE --> <xs:complexType name="personType"> <xs:sequence> <xs:element name="personInfo" type="xcard:vcardType" maxOccurs="1" minOccurs="0"/> <xs:element ref="personType" minOccurs="0" maxOccurs="unbounded" /> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="personID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
The "personID" attribute carries the identifier of a represented person. Such an identifier can be used to refer to the participant, as in the <capturedPeople> element in the media captures representation (Section 11.21).
「PersonId」属性は、代表者の識別子を搬送します。そのような識別子は、メディアキャプチャ表現内の<CaptureDpeople>要素のように、参加者を参照するために使用することができる(セクション11.21)。
The <personInfo> element is the XML representation of all the fields composing a vCard as specified in the xCard document [RFC6351]. The vcardType is imported by the xCard XML schema provided in Appendix A of [RFC7852]. As such schema specifies, the <fn> element within <vcard> is mandatory.
<personInfo>要素は、Xcard文書[RFC6351]で指定されているVCardを構成するすべてのフィールドのXML表現です。VCARDTYPEは、[RFC7852]の付録Aに記載されているXCard XMLスキーマによってインポートされます。このようなスキーマは指定されているため、<vcard>内の<fn>要素は必須です。
The value of the <personType> element determines the role of the represented participant within the telepresence session organization. It has been specified as a simple string with an annotation pointing to an IANA registry that is defined ad hoc:
<persontype>要素の値は、TelePresenceセッション組織内の表現された参加者の役割を決定します。これは、AD HOCが定義されているIANAレジストリを指している注釈を持つ単純な文字列として指定されています。
<!-- PERSON TYPE ELEMENT --> <xs:element name="personType" type="xs:string"> <xs:annotation> <xs:documentation> Acceptable values (enumerations) for this type are managed by IANA in the "CLUE Schema <personType>" registry, accessible at https://www.iana.org/assignments/clue. </xs:documentation> </xs:annotation> </xs:element>
The current possible values, as per the CLUE framework document [RFC8845], are: "presenter", "timekeeper", "attendee", "minute taker", "translator", "chairman", "vice-chairman", and "observer".
Clue Framework Document [RFC8845]に従って、現在の可能な値は、「プレゼンター」、「TimeKeeper」、「出席者」、「翻訳者」、「議長」、「副会長」、観察者"。
A participant can play more than one conference role. In that case, more than one <personType> element will appear in its description.
参加者は複数の会議役割を果たすことができます。その場合、複数の<PersonType>要素が説明に表示されます。
A capture encoding is given from the association of a media capture with an individual encoding, to form a capture stream as defined in [RFC8845]. Capture encodings are used within CONFIGURE messages from a Media Consumer to a Media Provider for representing the streams desired by the Media Consumer. For each desired stream, the Media Consumer needs to be allowed to specify: (i) the capture identifier of the desired capture that has been advertised by the Media Provider; (ii) the encoding identifier of the encoding to use, among those advertised by the Media Provider; and (iii) optionally, in case of multicontent captures, the list of the capture identifiers of the desired captures. All the mentioned identifiers are intended to be included in the ADVERTISEMENT message that the CONFIGURE message refers to. The XML model of <captureEncoding> is provided in the following.
キャプチャ符号化は、メディアキャプチャと個々のエンコーディングとの関連付けから与えられ、[RFC8845]で定義されたキャプチャストリームを形成する。キャプチャエンコーディングは、メディアコンシューマからメディアコンシューマが望むストリームを表すためのメディアプロバイダへの設定メッセージ内で使用されます。所望の各ストリームについて、メディアコンシューマは、次のものを指定することを許可される必要がある。(i)メディアプロバイダによってアドバタイズされた所望のキャプチャのキャプチャ識別子。(ii)メディアプロバイダによって広告されているもののうち、使用するエンコーディングの符号化識別子。(iii)任意選択で、マルチコンタクトキャプチャの場合、所望のキャプチャのキャプチャ識別子のリスト。上述の識別子はすべて、構成メッセージが参照することを広告メッセージに含めることを意図している。<CaptureCondoding>のXMLモデルは以下の通りです。
<!-- CAPTURE ENCODING TYPE --> <xs:complexType name="captureEncodingType"> <xs:sequence> <xs:element name="captureID" type="xs:string"/> <xs:element name="encodingID" type="xs:string"/> <xs:element name="configuredContent" type="contentType" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="ID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##any" processContents="lax"/> </xs:complexType>
<captureID> is the mandatory element containing the identifier of the media capture that has been encoded to form the capture encoding.
<CaptureId>は、キャプチャエンコーディングを形成するようにエンコードされたメディアキャプチャの識別子を含む必須要素です。
<encodingID> is the mandatory element containing the identifier of the applied individual encoding.
<encodingId>は、適用された個々のエンコーディングの識別子を含む必須要素です。
<configuredContent> is an optional element to be used in case of the configuration of MCC. It contains the list of capture identifiers and capture scene view identifiers the Media Consumer wants within the MCC. That element is structured as the <content> element used to describe the content of an MCC. The total number of media captures listed in the <configuredContent> MUST be lower than or equal to the value carried within the <maxCaptures> attribute of the MCC.
<ConfiguredContent>は、MCCの構成の場合に使用されるオプションの要素です。それはキャプチャ識別子のリストを含み、メディアの消費者がMCC内で欲しいシーンビュー識別子をキャプチャします。その要素は、MCCの内容を記述するために使用される<content>要素として構成されています。<ConfidectContent>にリストされているメディアキャプチャの総数は、MCCの<maxcaptures>属性内で搭載されている値以下でなければなりません。
The <clueInfo> element includes all the information needed to represent the Media Provider's description of its telepresence capabilities according to the CLUE framework. Indeed, it is made by:
<clueinfo>要素には、CLUEフレームワークに従って、メディアプロバイダのそのテレプレゼンス機能の説明を表すのに必要なすべての情報が含まれています。確かに、それは次のように作られています:
* the list of the available media captures (see "<mediaCaptures>", Section 5)
* 利用可能なメディアキャプチャのリスト(「<mediaCaptures>」、セクション5を参照)
* the list of encoding groups (see "<encodingGroups>", Section 6)
* エンコーディング・グループのリスト(「<encodingGroup>」を参照)
* the list of capture scenes (see "<captureScenes>", Section 7)
* キャプチャーシーンのリスト( "<captureScenes>"、セクション7を参照)
* the list of simultaneous transmission sets (see "<simultaneousSets>", Section 8)
* 同時伝送セットのリスト(「<同時設定>」、セクション8を参照)
* the list of global views sets (see "<globalViews>", Section 9)
* グローバルビューのリストのリスト(「<globalviews>」、セクション9を参照)
* metadata about the participants represented in the telepresence session (see "<people>", Section 21)
* TelePresenceセッションで表されている参加者に関するメタデータ(「<人>」を参照)
It has been conceived only for data model testing purposes, and though it resembles the body of an ADVERTISEMENT message, it is not actually used in the CLUE protocol message definitions. The telepresence capabilities descriptions compliant to this data model specification that can be found in Sections 27 and 28 are provided by using the <clueInfo> element.
データモデルのテスト目的でのみ考えられており、広告メッセージの本文に似ていますが、実際には手がかりプロトコルメッセージ定義では使用されません。セクション27および28に見出すことができるこのデータモデル指定に準拠したTelePresence機能の説明は、<clueinfo>要素を使用して提供されます。
<!-- CLUE INFO TYPE --> <xs:complexType name="clueInfoType"> <xs:sequence> <xs:element ref="mediaCaptures"/> <xs:element ref="encodingGroups"/> <xs:element ref="captureScenes"/> <xs:element ref="simultaneousSets" minOccurs="0"/> <xs:element ref="globalViews" minOccurs="0"/> <xs:element ref="people" minOccurs="0"/> <xs:any namespace="##other" processContents="lax" minOccurs="0" maxOccurs="unbounded"/> </xs:sequence> <xs:attribute name="clueInfoID" type="xs:ID" use="required"/> <xs:anyAttribute namespace="##other" processContents="lax"/> </xs:complexType>
The telepresence data model defined in this document is meant to be extensible. Extensions are accomplished by defining elements or attributes qualified by namespaces other than "urn:ietf:params:xml:ns:clue-info" and "urn:ietf:params:xml:ns:vcard-4.0" for use wherever the schema allows such extensions (i.e., where the XML schema definition specifies "anyAttribute" or "anyElement"). Elements or attributes from unknown namespaces MUST be ignored. Extensibility was purposefully favored as much as possible based on expectations about custom implementations. Hence, the schema offers people enough flexibility as to define custom extensions, without losing compliance with the standard. This is achieved by leveraging <xs:any> elements and <xs:anyAttribute> attributes, which is a common approach with schemas, while still matching the Unique Particle Attribution (UPA) constraint.
この文書で定義されているテレプレゼンスデータモデルは拡張可能なものです。拡張機能は、「urn:ietf:params:xml:ns:clue-info:params:xml:xml:ns:xml:vcard:vcard:vcard:vcard-4.0」とxml:ns:vcard-4.0:xml:ns:vcard-4.0:xml:ns:vcard-4.0:xml:ns:vcard-4.0 "を使用することによって行うことによって行われます。そのような拡張子(すなわち、XMLスキーマ定義が「anyAttribute」または「areElement」を指定する場合)。不明な名前空間からの要素または属性は無視される必要があります。伸張性は、カスタム実装に関する期待に基づいてできるだけ故意に支持されました。したがって、このスキーマは、標準のコンプライアンスを失うことなく、カスタム拡張を定義するのに十分な柔軟性を提供します。これは、<xs:any>要素と<xs:anyAttribute>属性を利用することによって達成されます。これは、Schemasを使用した一般的なアプローチです。
When extending the CLUE data model, a new schema with a new namespace associated with it needs to be specified.
手がかりデータモデルを拡張するときは、関連する新しいネームスペースを持つ新しいスキーマを指定する必要があります。
In the following, an example of extension is provided. The extension defines a new audio capture attribute ("newAudioFeature") and an attribute for characterizing the captures belonging to an "otherCaptureType" defined by the user. An XML document compliant with the extension is also included. The XML file results are validated against the current XML schema for the CLUE data model.
以下では、拡張の例が提供される。拡張子は、新しいオーディオキャプチャ属性( "NewAudioFeature")と、ユーザーによって定義された "otherCapTureType"に属するキャプチャを特徴付けるための属性を定義します。拡張子に準拠したXML文書も含まれています。XMLファイルの結果は、CLUEデータモデルの現在のXMLスキーマに対して検証されます。
<?xml version="1.0" encoding="UTF-8" ?> <xs:schema targetNamespace="urn:ietf:params:xml:ns:clue-info-ext" xmlns:tns="urn:ietf:params:xml:ns:clue-info-ext" xmlns:clue-ext="urn:ietf:params:xml:ns:clue-info-ext" xmlns:xs="http://www.w3.org/2001/XMLSchema" xmlns="urn:ietf:params:xml:ns:clue-info-ext" xmlns:xcard="urn:ietf:params:xml:ns:vcard-4.0" xmlns:info="urn:ietf:params:xml:ns:clue-info" elementFormDefault="qualified" attributeFormDefault="unqualified">
<!-- Import xCard XML schema --> <xs:import namespace="urn:ietf:params:xml:ns:vcard-4.0" schemaLocation= "https://www.iana.org/assignments/xml-registry/schema/ vcard-4.0.xsd"/>
<!-- Import CLUE XML schema --> <xs:import namespace="urn:ietf:params:xml:ns:clue-info" schemaLocation="clue-data-model-schema.xsd"/>
<!-- ELEMENT DEFINITIONS --> <xs:element name="newAudioFeature" type="xs:string"/> <xs:element name="otherMediaCaptureTypeFeature" type="xs:string"/>
</xs:schema>
<?xml version="1.0" encoding="UTF-8" standalone="yes"?> <clueInfo xmlns="urn:ietf:params:xml:ns:clue-info" xmlns:ns2="urn:ietf:params:xml:ns:vcard-4.0" xmlns:ns3="urn:ietf:params:xml:ns:clue-info-ext" clueInfoID="NapoliRoom"> <mediaCaptures> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="audioCaptureType" captureID="AC0" mediaType="audio"> <captureSceneIDREF>CS1</captureSceneIDREF> <nonSpatiallyDefinable>true</nonSpatiallyDefinable> <individual>true</individual> <encGroupIDREF>EG1</encGroupIDREF> <ns3:newAudioFeature>newAudioFeatureValue </ns3:newAudioFeature> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="otherCaptureType" captureID="OMC0" mediaType="other media type"> <captureSceneIDREF>CS1</captureSceneIDREF> <nonSpatiallyDefinable>true</nonSpatiallyDefinable> <encGroupIDREF>EG1</encGroupIDREF> <ns3:otherMediaCaptureTypeFeature>OtherValue </ns3:otherMediaCaptureTypeFeature> </mediaCapture> </mediaCaptures> <encodingGroups> <encodingGroup encodingGroupID="EG1"> <maxGroupBandwidth>300000</maxGroupBandwidth> <encodingIDList> <encodingID>ENC4</encodingID> <encodingID>ENC5</encodingID> </encodingIDList> </encodingGroup> </encodingGroups> <captureScenes> <captureScene scale="unknown" sceneID="CS1"/> </captureScenes> </clueInfo>
This document defines, through an XML schema, a data model for telepresence scenarios. The modeled information is identified in the CLUE framework as necessary in order to enable a full-fledged media stream negotiation and rendering. Indeed, the XML elements herein defined are used within CLUE protocol messages to describe both the media streams representing the Media Provider's telepresence offer and the desired selection requested by the Media Consumer. Security concerns described in [RFC8845], Section 15 apply to this document.
このドキュメントは、XMLスキーマを介して、TelePresenceシナリオのデータモデルを定義します。モデル化された情報は、本格的なメディアストリームネゴシエーションとレンダリングを可能にするために必要に応じてClueフレームワークで識別されます。実際、ここで定義されているXML要素は、メディアプロバイダのTelePresenceオファーを表すメディアストリームとメディアコンシューマによって要求された望ましい選択の両方を記述するために、CLUEプロトコルメッセージ内で使用されます。[RFC8845]で説明されているセキュリティ上の懸念は、この文書に適用されます。
Data model information carried within CLUE messages SHOULD be accessed only by authenticated endpoints. Indeed, authenticated access is strongly advisable, especially if you convey information about individuals (<personalInfo>) and/or scenes (<sceneInformation>). There might be more exceptions, depending on the level of criticality that is associated with the setup and configuration of a specific session. In principle, one might even decide that no protection at all is needed for a particular session; here is why authentication has not been identified as a mandatory requirement.
手がかりメッセージ内で運ばれるデータモデル情報は、認証されたエンドポイントによってのみアクセスする必要があります。確かに、特に個人(<PersonalInfo>)やシーンに関する情報を伝える場合、認証されたアクセスは強くお勧めします(<sceneinformation>)。特定のセッションの設定と構成に関連付けられている重要度のレベルに応じて、より多くの例外があるかもしれません。原則として、特定のセッションにはすべての保護が必要ではないと判断するかもしれません。認証が必須の要件として識別されていない理由は次のとおりです。
Going deeper into details, some information published by the Media Provider might reveal sensitive data about who and what is represented in the transmitted streams. The vCard included in the <personInfo> elements (Section 21.1) mandatorily contains the identity of the represented person. Optionally, vCards can also carry the person's contact addresses, together with their photo and other personal data. Similar privacy-critical information can be conveyed by means of <sceneInformation> elements (Section 16.1) describing the capture scenes. The <description> elements (Section 11.13) also can specify details about the content of media captures, capture scenes, and scene views that should be protected.
詳細に進むと、メディアプロバイダによって公開されている情報の中には、送信されたストリームでどのようなものがあるかについての機密データを明らかにするかもしれません。<PersonInfo>要素(セクション21.1)に含まれるvCardは、andatoralに代表者の身元を含みます。任意選択で、VCARDはまた、その写真および他の個人データと共に、その人の連絡先アドレスを運ぶことができる。同様のプライバシー重要な情報は、キャプチャーシーンを記述する<sceneinformation>要素(セクション16.1)によって伝えることができます。<description>要素(セクション11.13)は、メディアキャプチャの内容、キャプチャシーン、および保護されるべきシーンビューの詳細も指定できます。
Integrity attacks to the data model information encapsulated in CLUE messages can invalidate the success of the telepresence session's setup by misleading the Media Consumer's and Media Provider's interpretation of the offered and desired media streams.
CLUEメッセージでカプセル化されたデータモデル情報への整合性攻撃は、メディアコンシューマとメディアプロバイダの提供されたメディアストリームの解釈を誤解させることによって、TelePresenceセッションのセットアップの成功を無効にすることができます。
The assurance of the authenticated access and of the integrity of the data model information is up to the involved transport mechanisms, namely the CLUE protocol [RFC8847] and the CLUE data channel [RFC8850].
認証されたアクセスの保証とデータモデル情報の整合性の保証は、関与するトランスポートメカニズム、すなわちCLUEプロトコル[RFC8847]とCLUEデータチャネル[RFC8850]までです。
XML parsers need to be robust with respect to malformed documents. Reading malformed documents from unknown or untrusted sources could result in an attacker gaining privileges of the user running the XML parser. In an extreme situation, the entire machine could be compromised.
XMLパーサーは、不正な文書に関して堅牢である必要があります。不明または信頼されていないソースから不正な形式の文書を読み取ると、攻撃者がXMLパーサを実行しているユーザーの特権を獲得する可能性があります。極端な状況では、機械全体が危険にさらされる可能性があります。
This document registers a new XML namespace, a new XML schema, the media type for the schema, and four new registries associated, respectively, with acceptable <view>, <presentation>, <sensitivityPattern>, and <personType> values.
このドキュメントは、新しいXMLネームスペース、新しいXMLスキーマ、スキーマのメディアタイプ、およびそれぞれ、それぞれ許容可能な<View>、<Presentation>、<SensitivityPattern>、および<PersonType>値をそれぞれ登録します。
URI: urn:ietf:params:xml:ns:clue-info
Registrant Contact: IETF CLUE Working Group <clue@ietf.org>, Roberta Presta <roberta.presta@unina.it>
XML:
XML:
<CODE BEGINS> <?xml version="1.0"?> <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML Basic 1.0//EN" "http://www.w3.org/TR/xhtml-basic/xhtml-basic10.dtd"> <html xmlns="http://www.w3.org/1999/xhtml"> <head> <meta http-equiv="content-type" content="text/html;charset=iso-8859-1"/> <title>CLUE Data Model Namespace</title> </head> <body> <h1>Namespace for CLUE Data Model</h1> <h2>urn:ietf:params:xml:ns:clue-info</h2> <p>See <a href="https://www.rfc-editor.org/rfc/rfc8846.txt">RFC 8846</a>. </p> </body> </html> <CODE ENDS>
This section registers an XML schema per the guidelines in [RFC3688].
このセクションでは、[RFC3688]のガイドラインごとにXMLスキーマを登録します。
URI: urn:ietf:params:xml:schema:clue-info
Registrant Contact: CLUE Working Group (clue@ietf.org), Roberta Presta (roberta.presta@unina.it).
登録者連絡先:Clue Working Group(clue@ietf.org)、Roberta Presta(roberta.presta@unina.it)。
Schema: The XML for this schema can be found in its entirety in Section 4 of this document.
スキーマ:このスキーマのXMLは、このドキュメントのセクション4でその全体が見つかります。
This section registers the "application/clue_info+xml" media type.
このセクションでは、 "application / clue_info xml"メディアタイプを登録します。
To: ietf-types@iana.org
to:ietf-types@iana.org.
Subject: Registration of media type application/clue_info+xml
Type name: application
タイプ名:アプリケーション
Subtype name: clue_info+xml
サブタイプ名:CLUE_INFO XML
Required parameters: (none)
必要なパラメータ:(なし)
Optional parameters: charset Same as the charset parameter of "application/xml" as specified in [RFC7303], Section 3.2.
オプションのパラメータ:charset [RFC7303]で指定されている「アプリケーション/ XML」のcharsetパラメータと同じです。
Encoding considerations: Same as the encoding considerations of "application/xml" as specified in [RFC7303], Section 3.2.
エンコードに関する考慮事項:[RFC7303]で指定されている「アプリケーション/ XML」の符号化考慮事項と同じです。
Security considerations: This content type is designed to carry data related to telepresence information. Some of the data could be considered private. This media type does not provide any protection and thus other mechanisms such as those described in Section 25 are required to protect the data. This media type does not contain executable content.
セキュリティ上の考慮事項:このコンテンツタイプは、テレプレゼンス情報に関するデータを搬送するように設計されています。いくつかのデータはプライベートと見なすことができます。このメディアタイプは保護を提供しないため、データを保護するためには、セクション25で説明されているものなどの他のメカニズムが必要です。このメディアタイプには実行可能コンテンツが含まれていません。
Interoperability considerations: None.
相互運用性の考慮事項:なし。
Published specification: RFC 8846
公開仕様:RFC 8846
Applications that use this media type: CLUE-capable telepresence systems.
このメディアタイプを使用するアプリケーション:CLUE対応テレプレゼンスシステム。
Additional Information:
追加情報:
Magic Number(s): none File extension(s): .clue Macintosh File Type Code(s): TEXT
Person & email address to contact for further information: Roberta Presta (roberta.presta@unina.it).
詳細については、連絡先のある人とEメールアドレス:Roberta Presta(roberta.presta@unina.it)。
Intended usage: LIMITED USE
意図された用途:限られた使用
Author/Change controller: The IETF
著者/変更コントローラー:IETF
Other information: This media type is a specialization of "application/xml" [RFC7303], and many of the considerations described there also apply to "application/clue_info+xml".
その他の情報:このメディアタイプは、「Application / XML」[RFC7303]の特殊化であり、説明した考慮事項の多くは「application / clue_info XML」にも適用されます。
IANA has created a registry of acceptable values for the <view> tag as defined in Section 11.18. The initial values for this registry are "room", "table", "lectern", "individual", and "audience".
IANAは、セクション11.18で定義されている<view>タグの許容値のレジストリを作成しました。このレジストリの初期値は、 "Room"、 "Table"、 "Lectern"、 "個人"、および "聴衆"です。
New values are assigned by Expert Review per [RFC8126]. This reviewer will ensure that the requested registry entry conforms to the prescribed formatting.
新しい値は[RFC8126]のエキスパートレビューによって割り当てられています。このレビューアは、要求されたレジストリエントリが規定のフォーマットに準拠していることを確認します。
IANA has created a registry of acceptable values for the <presentation> tag as defined in Section 11.19. The initial values for this registry are "slides" and "images".
IANAは、セクション11.19で定義されている<presentation>タグに許容値のレジストリを作成しました。このレジストリの初期値は「スライド」と「画像」です。
New values are assigned by Expert Review per [RFC8126]. This reviewer will ensure that the requested registry entry conforms to the prescribed formatting.
新しい値は[RFC8126]のエキスパートレビューによって割り当てられています。このレビューアは、要求されたレジストリエントリが規定のフォーマットに準拠していることを確認します。
IANA has created a registry of acceptable values for the <sensitivityPattern> tag as defined in Section 12.1. The initial values for this registry are "uni", "shotgun", "omni", "figure8", "cardioid", and "hyper-cardioid".
IANAは、セクション12.1で定義されているように、<SensitivityPattern>タグの許容値のレジストリを作成しました。このレジストリの初期値は "UNI"、 "Shotgun"、 "Omni"、 "Figure8"、 "cardioid"、 "Hyper-CardioID"です。
New values are assigned by Expert Review per [RFC8126]. This reviewer will ensure that the requested registry entry conforms to the prescribed formatting.
新しい値は[RFC8126]のエキスパートレビューによって割り当てられています。このレビューアは、要求されたレジストリエントリが規定のフォーマットに準拠していることを確認します。
IANA has created a registry of acceptable values for the <personType> tag as defined in Section 21.1.3. The initial values for this registry are "presenter", "timekeeper", "attendee", "minute taker", "translator", "chairman", "vice-chairman", and "observer".
IANAは、セクション21.1.3で定義されている<PersonType>タグの許容値のレジストリを作成しました。このレジストリの初期値は、「発表者」、「TimeKeeper」、「出席者」、「翻訳者」、「議長」、「議長」、「副議長」、「オブザーバー」です。
New values are assigned by Expert Review per [RFC8126]. This reviewer will ensure that the requested registry entry conforms to the prescribed formatting.
新しい値は[RFC8126]のエキスパートレビューによって割り当てられています。このレビューアは、要求されたレジストリエントリが規定のフォーマットに準拠していることを確認します。
The following XML document represents a schema-compliant example of a CLUE telepresence scenario. Taking inspiration from the examples described in the framework specification [RFC8845], the XML representation of an endpoint-style Media Provider's ADVERTISEMENT is provided.
次のXMLドキュメントは、CLUE TELEPRESENCEシナリオのスキーマ準拠の例を表します。フレームワーク仕様書[RFC8845]で説明されている例からのインスピレーションを取ると、エンドポイントスタイルのメディアプロバイダの広告のXML表現が提供されています。
There are three cameras, where the central one is also capable of capturing a zoomed-out view of the overall telepresence room. Besides the three video captures coming from the cameras, the Media Provider makes available a further multicontent capture of the loudest segment of the room, obtained by switching the video source across the three cameras. For the sake of simplicity, only one audio capture is advertised for the audio of the whole room.
中央のものは、テレプレゼンス室全体のズームアウトビューを撮影することができる3つのカメラがあります。カメラからの3つのビデオキャプチャの他に、メディアプロバイダは、ビデオソースを3つのカメラに切り替えることによって得られる部屋の最も大きいセグメントのさらなるマルチコンタクトキャプチャを利用可能にします。簡単にするために、部屋全体のオーディオのために1つのオーディオキャプチャのみが宣伝されています。
The three cameras are placed in front of three participants (Alice, Bob, and Ciccio), whose vCard and conference role details are also provided.
3つのカメラは3つの参加者(アリス、ボブ、およびCiccio)の前に置かれており、そのVCardおよび会議の役割の詳細も提供されています。
Media captures are arranged into four capture scene views:
メディアキャプチャは4つのキャプチャシーンビューに配置されています。
1. (VC0, VC1, VC2) - left, center, and right camera video captures
1. (VC0、VC1、VC2) - 左、センター、右のカメラのビデオキャプチャ
2. (VC3) - video capture associated with loudest room segment
2. (VC3) - 最も大きい部屋セグメントに関連するビデオキャプチャ
3. (VC4) - video capture zoomed-out view of all people in the room
3. (VC4) - ビデオキャプチャー室内のすべての人のズームアウトビュー
4. (AC0) - main audio
4. (AC0) - メインオーディオ
There are two encoding groups: (i) EG0, for video encodings, and (ii) EG1, for audio encodings.
2つのエンコードグループがあります。(i)eg0、ビデオエンコーディングの場合、(ii)EG 1、オーディオエンコーディングの場合。
As to the simultaneous sets, VC1 and VC4 cannot be transmitted simultaneously since they are captured by the same device, i.e., the central camera (VC4 is a zoomed-out view while VC1 is a focused view of the front participant). On the other hand, VC3 and VC4 cannot be simultaneous either, since VC3, the loudest segment of the room, might be at a certain point in time focusing on the central part of the room, i.e., the same as VC1. The simultaneous sets would then be the following:
同時セットに関しては、同一の装置、すなわち中央カメラ(VC1がフロント参加者の集束図である間、VC4はズームアウトビューである)から、VC1とVC4を同時に送信することができない。一方、VC3とVC4は同時ではないため、部屋の最大のセグメントは、室内の中央部分に焦点を合わせること、すなわちVC1と同じであるときにある時点である可能性があるため、同時ではない。同時セットは次のようになります。
SS1: made by VC3 and all the captures in the first capture scene view (VC0,VC1,and VC2)
SS1:VC3と最初のキャプチャシーンビュー(VC0、VC1、およびVC2)のすべてのキャプチャによって作られました
SS2: made by VC0, VC2, and VC4
SS2:VC0、VC2、およびVC4で作られた
<?xml version="1.0" encoding="UTF-8" standalone="yes"?> <clueInfo xmlns="urn:ietf:params:xml:ns:clue-info" xmlns:ns2="urn:ietf:params:xml:ns:vcard-4.0" clueInfoID="NapoliRoom"> <mediaCaptures> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="audioCaptureType" captureID="AC0" mediaType="audio"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>0.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> <lineOfCapturePoint> <x>0.0</x> <y>1.0</y> <z>10.0</z> </lineOfCapturePoint> </captureOrigin> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG1</encGroupIDREF> <description lang="en">main audio from the room </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>room</view> <capturedPeople> <personIDREF>alice</personIDREF> <personIDREF>bob</personIDREF> <personIDREF>ciccio</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC0" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>-2.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> </captureOrigin> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>-1.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>-1.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">left camera video capture </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> <capturedPeople> <personIDREF>ciccio</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC1" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>0.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> </captureOrigin> <captureArea> <bottomLeft> <x>-1.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>1.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-1.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>1.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">central camera video capture </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> <capturedPeople> <personIDREF>alice</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC2" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>2.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> </captureOrigin> <captureArea> <bottomLeft> <x>1.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>1.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">right camera video capture </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> <capturedPeople> <personIDREF>bob</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC3" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <content> <sceneViewIDREF>SE1</sceneViewIDREF> </content> <policy>SoundLevel:0</policy> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">loudest room segment</description> <priority>2</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC4" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>0.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> </captureOrigin> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>7.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>7.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>13.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>13.0</z> </topRight> </captureArea> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">zoomed-out view of all people in the room</description> <priority>2</priority> <lang>it</lang> <mobility>static</mobility> <view>room</view> <capturedPeople> <personIDREF>alice</personIDREF> <personIDREF>bob</personIDREF> <personIDREF>ciccio</personIDREF> </capturedPeople> </mediaCapture> </mediaCaptures> <encodingGroups> <encodingGroup encodingGroupID="EG0"> <maxGroupBandwidth>600000</maxGroupBandwidth> <encodingIDList> <encodingID>ENC1</encodingID> <encodingID>ENC2</encodingID> <encodingID>ENC3</encodingID> </encodingIDList> </encodingGroup> <encodingGroup encodingGroupID="EG1"> <maxGroupBandwidth>300000</maxGroupBandwidth> <encodingIDList> <encodingID>ENC4</encodingID> <encodingID>ENC5</encodingID> </encodingIDList> </encodingGroup> </encodingGroups> <captureScenes> <captureScene scale="unknown" sceneID="CS1"> <sceneViews> <sceneView sceneViewID="SE1"> <mediaCaptureIDs> <mediaCaptureIDREF>VC0</mediaCaptureIDREF> <mediaCaptureIDREF>VC1</mediaCaptureIDREF> <mediaCaptureIDREF>VC2</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> <sceneView sceneViewID="SE2"> <mediaCaptureIDs> <mediaCaptureIDREF>VC3</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> <sceneView sceneViewID="SE3"> <mediaCaptureIDs> <mediaCaptureIDREF>VC4</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> <sceneView sceneViewID="SE4"> <mediaCaptureIDs> <mediaCaptureIDREF>AC0</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> </sceneViews> </captureScene> </captureScenes> <simultaneousSets> <simultaneousSet setID="SS1"> <mediaCaptureIDREF>VC3</mediaCaptureIDREF> <sceneViewIDREF>SE1</sceneViewIDREF> </simultaneousSet> <simultaneousSet setID="SS2"> <mediaCaptureIDREF>VC0</mediaCaptureIDREF> <mediaCaptureIDREF>VC2</mediaCaptureIDREF> <mediaCaptureIDREF>VC4</mediaCaptureIDREF> </simultaneousSet> </simultaneousSets> <people> <person personID="bob"> <personInfo> <ns2:fn> <ns2:text>Bob</ns2:text> </ns2:fn> </personInfo> <personType>minute taker</personType> </person> <person personID="alice"> <personInfo> <ns2:fn> <ns2:text>Alice</ns2:text> </ns2:fn> </personInfo> <personType>presenter</personType> </person> <person personID="ciccio"> <personInfo> <ns2:fn> <ns2:text>Ciccio</ns2:text> </ns2:fn> </personInfo> <personType>chairman</personType> <personType>timekeeper</personType> </person> </people> </clueInfo>
Enhancing the scenario presented in the previous example, the Media Provider is able to advertise a composed capture VC7 made by a big picture representing the current speaker (VC3) and two picture-in-picture boxes representing the previous speakers (the previous one, VC5, and the oldest one, VC6). The provider does not want to instantiate and send VC5 and VC6, so it does not associate any encoding group with them. Their XML representations are provided for enabling the description of VC7.
前の例で提示されたシナリオの強化メディアプロバイダは、現在のスピーカー(VC3)を表す大きな画像と、前のスピーカーを表す2つのピクチャインピクチャボックスが作成された構成要素VC7をアドバタイズすることができます(前のもの、VC5、最も古いもの、VC6)。プロバイダは、VC5とVC6をインスタンス化して送信したくないため、エンコーディンググループをそれらに関連付けません。VC7の説明を有効にするために、それらのXML表現が提供されています。
A possible description for that scenario could be the following:
そのシナリオの可能な説明は次のとおりです。
<?xml version="1.0" encoding="UTF-8" standalone="yes"?> <clueInfo xmlns="urn:ietf:params:xml:ns:clue-info" xmlns:ns2="urn:ietf:params:xml:ns:vcard-4.0" clueInfoID="NapoliRoom"> <mediaCaptures> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="audioCaptureType" captureID="AC0" mediaType="audio"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>0.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> <lineOfCapturePoint> <x>0.0</x> <y>1.0</y> <z>10.0</z> </lineOfCapturePoint> </captureOrigin> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG1</encGroupIDREF> <description lang="en">main audio from the room </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>room</view> <capturedPeople> <personIDREF>alice</personIDREF> <personIDREF>bob</personIDREF> <personIDREF>ciccio</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC0" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>0.5</x> <y>1.0</y> <z>0.5</z> </capturePoint> <lineOfCapturePoint> <x>0.5</x> <y>0.0</y> <z>0.5</z> </lineOfCapturePoint> </captureOrigin> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">left camera video capture </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> <capturedPeople> <personIDREF>ciccio</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC1" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>0.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> </captureOrigin> <captureArea> <bottomLeft> <x>-1.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>1.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-1.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>1.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">central camera video capture </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> <capturedPeople> <personIDREF>alice</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC2" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>2.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> </captureOrigin> <captureArea> <bottomLeft> <x>1.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>1.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">right camera video capture </description> <priority>1</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> <capturedPeople> <personIDREF>bob</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC3" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <content> <sceneViewIDREF>SE1</sceneViewIDREF> </content> <policy>SoundLevel:0</policy> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">loudest room segment</description> <priority>2</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC4" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureOrigin> <capturePoint> <x>0.0</x> <y>0.0</y> <z>10.0</z> </capturePoint> </captureOrigin> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>7.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>7.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>13.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>13.0</z> </topRight> </captureArea> </spatialInformation> <individual>true</individual> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en"> zoomed-out view of all people in the room </description> <priority>2</priority> <lang>it</lang> <mobility>static</mobility> <view>room</view> <capturedPeople> <personIDREF>alice</personIDREF> <personIDREF>bob</personIDREF> <personIDREF>ciccio</personIDREF> </capturedPeople> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC5" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <content> <sceneViewIDREF>SE1</sceneViewIDREF> </content> <policy>SoundLevel:1</policy> <description lang="en">previous loudest room segment per the most recent iteration of the sound level detection algorithm </description> <lang>it</lang> <mobility>static</mobility> <view>individual</view> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC6" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <content> <sceneViewIDREF>SE1</sceneViewIDREF> </content> <policy>SoundLevel:2</policy> <description lang="en">previous loudest room segment per the second most recent iteration of the sound level detection algorithm </description> <lang>it</lang> <mobility>static</mobility> <view>individual</view> </mediaCapture> <mediaCapture xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:type="videoCaptureType" captureID="VC7" mediaType="video"> <captureSceneIDREF>CS1</captureSceneIDREF> <spatialInformation> <captureArea> <bottomLeft> <x>-3.0</x> <y>20.0</y> <z>9.0</z> </bottomLeft> <bottomRight> <x>3.0</x> <y>20.0</y> <z>9.0</z> </bottomRight> <topLeft> <x>-3.0</x> <y>20.0</y> <z>11.0</z> </topLeft> <topRight> <x>3.0</x> <y>20.0</y> <z>11.0</z> </topRight> </captureArea> </spatialInformation> <content> <mediaCaptureIDREF>VC3</mediaCaptureIDREF> <mediaCaptureIDREF>VC5</mediaCaptureIDREF> <mediaCaptureIDREF>VC6</mediaCaptureIDREF> </content> <maxCaptures exactNumber="true">3</maxCaptures> <encGroupIDREF>EG0</encGroupIDREF> <description lang="en">big picture of the current speaker + pips about previous speakers</description> <priority>3</priority> <lang>it</lang> <mobility>static</mobility> <view>individual</view> </mediaCapture> </mediaCaptures> <encodingGroups> <encodingGroup encodingGroupID="EG0"> <maxGroupBandwidth>600000</maxGroupBandwidth> <encodingIDList> <encodingID>ENC1</encodingID> <encodingID>ENC2</encodingID> <encodingID>ENC3</encodingID> </encodingIDList> </encodingGroup> <encodingGroup encodingGroupID="EG1"> <maxGroupBandwidth>300000</maxGroupBandwidth> <encodingIDList> <encodingID>ENC4</encodingID> <encodingID>ENC5</encodingID> </encodingIDList> </encodingGroup> </encodingGroups> <captureScenes> <captureScene scale="unknown" sceneID="CS1"> <sceneViews> <sceneView sceneViewID="SE1"> <description lang="en">participants' individual videos</description> <mediaCaptureIDs> <mediaCaptureIDREF>VC0</mediaCaptureIDREF> <mediaCaptureIDREF>VC1</mediaCaptureIDREF> <mediaCaptureIDREF>VC2</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> <sceneView sceneViewID="SE2"> <description lang="en">loudest segment of the room</description> <mediaCaptureIDs> <mediaCaptureIDREF>VC3</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> <sceneView sceneViewID="SE5"> <description lang="en">loudest segment of the room + pips</description> <mediaCaptureIDs> <mediaCaptureIDREF>VC7</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> <sceneView sceneViewID="SE4"> <description lang="en">room audio</description> <mediaCaptureIDs> <mediaCaptureIDREF>AC0</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> <sceneView sceneViewID="SE3"> <description lang="en">room video</description> <mediaCaptureIDs> <mediaCaptureIDREF>VC4</mediaCaptureIDREF> </mediaCaptureIDs> </sceneView> </sceneViews> </captureScene> </captureScenes> <simultaneousSets> <simultaneousSet setID="SS1"> <mediaCaptureIDREF>VC3</mediaCaptureIDREF> <mediaCaptureIDREF>VC7</mediaCaptureIDREF> <sceneViewIDREF>SE1</sceneViewIDREF> </simultaneousSet> <simultaneousSet setID="SS2"> <mediaCaptureIDREF>VC0</mediaCaptureIDREF> <mediaCaptureIDREF>VC2</mediaCaptureIDREF> <mediaCaptureIDREF>VC4</mediaCaptureIDREF> </simultaneousSet> </simultaneousSets> <people> <person personID="bob"> <personInfo> <ns2:fn> <ns2:text>Bob</ns2:text> </ns2:fn> </personInfo> <personType>minute taker</personType> </person> <person personID="alice"> <personInfo> <ns2:fn> <ns2:text>Alice</ns2:text> </ns2:fn> </personInfo> <personType>presenter</personType> </person> <person personID="ciccio"> <personInfo> <ns2:fn> <ns2:text>Ciccio</ns2:text> </ns2:fn> </personInfo> <personType>chairman</personType> <personType>timekeeper</personType> </person> </people> </clueInfo>
[RFC2119] Bradner, S., "Key words for use in RFCs to Indicate Requirement Levels", BCP 14, RFC 2119, DOI 10.17487/RFC2119, March 1997, <https://www.rfc-editor.org/info/rfc2119>.
[RFC2119] BRADNER、S、「RFCSで使用するためのキーワード」、BCP 14、RFC 2119、DOI 10.17487 / RFC2119、1997年3月、<https://www.rfc-editor.org/info/RFC2119>。
[RFC5646] Phillips, A., Ed. and M. Davis, Ed., "Tags for Identifying Languages", BCP 47, RFC 5646, DOI 10.17487/RFC5646, September 2009, <https://www.rfc-editor.org/info/rfc5646>.
[RFC5646] Phillips、A.、ED。そして、「言語を特定するためのタグ」、BCP 47、RFC 5646、DOI 10.17487 / RFC5646、2009年9月、<https://www.rfc-editor.org/info/rfc5646>。
[RFC6351] Perreault, S., "xCard: vCard XML Representation", RFC 6351, DOI 10.17487/RFC6351, August 2011, <https://www.rfc-editor.org/info/rfc6351>.
[RFC6351] PerreAll、S.、 "Xcard:Vcard XML表現"、RFC 6351、DOI 10.17487 / RFC6351、2011年8月、<https://www.rfc-editor.org/info/rfc6351>。
[RFC7303] Thompson, H. and C. Lilley, "XML Media Types", RFC 7303, DOI 10.17487/RFC7303, July 2014, <https://www.rfc-editor.org/info/rfc7303>.
[RFC7303] Thompson、H.およびC.Lilley、「XMLメディアタイプ」、RFC 7303、DOI 10.17487 / RFC7303、2014年7月、<https://www.rfc-editor.org/info/rfc7303>。
[RFC7852] Gellens, R., Rosen, B., Tschofenig, H., Marshall, R., and J. Winterbottom, "Additional Data Related to an Emergency Call", RFC 7852, DOI 10.17487/RFC7852, July 2016, <https://www.rfc-editor.org/info/rfc7852>.
[RFC7852] Gellens、R.、Rosen、B.、Tschofenig、H.、Marshall、R.、およびJ.WinterBottom、「緊急コールに関する追加データ」、RFC 7852、DOI 10.17487 / RFC7852、2016年7月、<https://www.rfc-editor.org/info/rfc7852>。
[RFC8126] Cotton, M., Leiba, B., and T. Narten, "Guidelines for Writing an IANA Considerations Section in RFCs", BCP 26, RFC 8126, DOI 10.17487/RFC8126, June 2017, <https://www.rfc-editor.org/info/rfc8126>.
[RFC8126]綿、M.、Leiba、B.およびT.Narten、「RFCSのIANAに関する考察のためのガイドライン」、BCP 26、RFC 8126、DOI 10.17487 / RFC8126、2017年6月、<HTTPS:// WWW.rfc-editor.org / info / rfc8126>。
[RFC8174] Leiba, B., "Ambiguity of Uppercase vs Lowercase in RFC 2119 Key Words", BCP 14, RFC 8174, DOI 10.17487/RFC8174, May 2017, <https://www.rfc-editor.org/info/rfc8174>.
[RFC8174] Leiba、B、「RFC 2119キーワードの大文字の曖昧さ」、BCP 14、RFC 8174、DOI 10.17487 / RFC8174、2017年5月、<https://www.rfc-editor.org/info/RFC8174>。
[RFC8845] Duckworth, M., Ed., Pepperell, A., and S. Wenger, "Framework for Telepresence Multi-Streams", RFC 8845, DOI 10.17487/RFC8845, January 2021, <https://www.rfc-editor.org/info/rfc8845>.
[RFC8845]アヒルワース、M。、ED。、Pepperell、A.、およびS.Wenger、 "TelePresence Multi-Streamsのフレームワーク"、RFC 8845、DOI 10.17487 / RFC8845、2021年1月、<https:///www.rfc-editor.org/info/rfc8845>。
[RFC8847] Presta, R. and S P. Romano, "Protocol for Controlling Multiple Streams for Telepresence (CLUE)", RFC 8847, DOI 10.17487/RFC8847, January 2021, <https://www.rfc-editor.org/info/rfc8847>.
[RFC8847] Presta、R.およびS P. Romano、「テレプレゼンスのための複数のストリームを制御するためのプロトコル(CLUE)」、RFC 8847、DOI 10.17487 / RFC8847、2021年1月、<https://www.rfc-editor.org/情報/ RFC8847>。
[RFC8850] Holmberg, C., "Controlling Multiple Streams for Telepresence (CLUE) Protocol Data Channel", RFC 8850, DOI 10.17487/RFC8850, January 2021, <https://www.rfc-editor.org/info/rfc8850>.
[RFC8850] Holmberg、C、「テレプレゼンスのための複数のストリームの制御」、RFC 8850、DOI 10.17487 / RFC8850、1月2021年1月、<https://www.rfc-editor.org/info/rfc8850>。
[RFC3550] Schulzrinne, H., Casner, S., Frederick, R., and V. Jacobson, "RTP: A Transport Protocol for Real-Time Applications", STD 64, RFC 3550, DOI 10.17487/RFC3550, July 2003, <https://www.rfc-editor.org/info/rfc3550>.
[RFC3550] Schulzrinne、H.、Casner、S.、Frederick、R.、およびV. Jacobson、「RTP:リアルタイムアプリケーション用輸送プロトコル」、STD 64、RFC 3550、DOI 10.17487 / RFC3550、2003年7月、<https://www.rfc-editor.org/info/rfc3550>。
[RFC3688] Mealling, M., "The IETF XML Registry", BCP 81, RFC 3688, DOI 10.17487/RFC3688, January 2004, <https://www.rfc-editor.org/info/rfc3688>.
[RFC3688] Mealling、M.、 "The IETF XMLレジストリ"、BCP 81、RFC 3688、DOI 10.17487 / RFC3688、2004年1月、<https://www.rfc-editor.org/info/rfc3688>。
[RFC4353] Rosenberg, J., "A Framework for Conferencing with the Session Initiation Protocol (SIP)", RFC 4353, DOI 10.17487/RFC4353, February 2006, <https://www.rfc-editor.org/info/rfc4353>.
[RFC4353] Rosenberg、J。、「セッション開始プロトコル(SIP)」、RFC 4353、DOI 10.17487 / RFC4353、<https://www.rfc-editor.org/info/rfc4353との会議のためのフレームワーク>。
[RFC6838] Freed, N., Klensin, J., and T. Hansen, "Media Type Specifications and Registration Procedures", BCP 13, RFC 6838, DOI 10.17487/RFC6838, January 2013, <https://www.rfc-editor.org/info/rfc6838>.
[RFC6838] Freed、N.、Klensin、J.、およびT.Hansen、「メディアタイプの仕様および登録手順」、BCP 13、RFC 6838、DOI 10.17487 / RFC6838、2013年1月、<https:///www.rfc-editor.org/info/rfc6838>。
[RFC7667] Westerlund, M. and S. Wenger, "RTP Topologies", RFC 7667, DOI 10.17487/RFC7667, November 2015, <https://www.rfc-editor.org/info/rfc7667>.
[RFC7667] Westerlund、M.およびS.Wenger、 "RTPトポロジ"、RFC 7667、DOI 10.17487 / RFC7667、2015年11月、<https://www.rfc-editor.org/info/rfc7667>。
Acknowledgements
謝辞
The authors thank all the CLUE contributors for their valuable feedback and support. Thanks also to Alissa Cooper, whose AD review helped us improve the quality of the document.
著者らは彼らの貴重なフィードバックとサポートのためにすべての手がかりの貢献者に感謝します。Alissa Cooperもありがとう、その広告レビューは文書の品質を向上させるのに役立ちました。
Authors' Addresses
著者の住所
Roberta Presta University of Napoli Via Claudio 21 80125 Napoli Italy
Roberta Presta Napoli大学Claudio 21 80125 Napoli Italy
Email: roberta.presta@unina.it
Simon Pietro Romano University of Napoli Via Claudio 21 80125 Napoli Italy
Simon Pietro Romano Napoli大学Claudio 21 80125 Napoli Italy
Email: spromano@unina.it