[要約] 要約:RFC 3119は、MP3オーディオのためのより損失に寛容なRTPペイロード形式についての仕様です。 目的:このRFCの目的は、ネットワーク上のパケットロスに対してより耐性のあるMP3オーディオの転送を可能にするためのペイロード形式を提供することです。
Network Working Group R. Finlayson Request for Comments: 3119 LIVE.COM Category: Standards Track June 2001
A More Loss-Tolerant RTP Payload Format for MP3 Audio
MP3オーディオ用のより損失耐性RTPペイロード形式
Status of this Memo
本文書の位置付け
This document specifies an Internet standards track protocol for the Internet community, and requests discussion and suggestions for improvements. Please refer to the current edition of the "Internet Official Protocol Standards" (STD 1) for the standardization state and status of this protocol. Distribution of this memo is unlimited.
このドキュメントは、インターネットコミュニティのインターネット標準トラックプロトコルを指定し、改善のための議論と提案を要求します。このプロトコルの標準化状態とステータスについては、「インターネット公式プロトコル標準」(STD 1)の現在のエディションを参照してください。このメモの配布は無制限です。
Copyright Notice
著作権表示
Copyright (C) The Internet Society (2001). All Rights Reserved.
Copyright(c)The Internet Society(2001)。無断転載を禁じます。
Abstract
概要
This document describes a RTP (Real-Time Protocol) payload format for transporting MPEG (Moving Picture Experts Group) 1 or 2, layer III audio (commonly known as "MP3"). This format is an alternative to that described in RFC 2250, and performs better if there is packet loss.
このドキュメントでは、MPEG(Moving Picture Experts Group)1または2、レイヤーIIIオーディオ(一般に「MP3」として知られている)を輸送するためのRTP(リアルタイムプロトコル)ペイロード形式について説明します。この形式は、RFC 2250で説明されているものに代わるものであり、パケットの損失がある場合はパフォーマンスが向上します。
While the RTP payload format defined in RFC 2250 [2] is generally applicable to all forms of MPEG audio or video, it is sub-optimal for MPEG 1 or 2, layer III audio (commonly known as "MP3"). The reason for this is that an MP3 frame is not a true "Application Data Unit" - it contains a back-pointer to data in earlier frames, and so cannot be decoded independently of these earlier frames. Because RFC 2250 defines that packet boundaries coincide with frame boundaries, it handles packet loss inefficiently when carrying MP3 data. The loss of an MP3 frame will render some data in previous (or future) frames useless, even if they are received without loss.
RFC 2250 [2]で定義されているRTPペイロード形式は、一般的にすべての形式のMPEGオーディオまたはビデオに適用できますが、MPEG 1または2のレイヤーIIIオーディオ(一般に「MP3」として知られています)の最適です。この理由は、mp3フレームが真の「アプリケーションデータユニット」ではないため、以前のフレームのデータへのバックポインターが含まれているため、これらの以前のフレームとは独立してデコードできないためです。RFC 2250は、パケットの境界がフレーム境界と一致することを定義するため、mp3データを運ぶときにパケット損失を非効率的に処理します。MP3フレームを失うと、紛失なく受信された場合でも、以前の(または将来の)フレームのデータが役に立たなくなります。
In this document we define an alternative RTP payload format for MP3 audio. This format uses a data-preserving rearrangement of the original MPEG frames, so that packet boundaries now coincide with true MP3 "Application Data Units", which can also (optionally) be rearranged in an interleaving pattern. This new format is therefore more data-efficient than RFC 2250 in the face of packet loss.
このドキュメントでは、MP3オーディオの代替RTPペイロード形式を定義します。この形式では、元のMPEGフレームのデータ提示の再配置を使用するため、パケットの境界は真のmp3「アプリケーションデータユニット」と一致します。したがって、この新しい形式は、パケット損失に直面してRFC 2250よりもデータ効率が高くなります。
In this section we give a brief overview of the structure of a MP3 frame. (For more detailed description, see the MPEG 1 audio [3] and MPEG 2 audio [4] specifications.)
このセクションでは、MP3フレームの構造の簡単な概要を説明します。(詳細については、MPEG 1オーディオ[3]およびMPEG 2オーディオ[4]仕様を参照してください。)
Each MPEG audio frame begins with a 4-byte header. Information defined by this header includes:
各MPEGオーディオフレームは、4バイトヘッダーから始まります。このヘッダーで定義された情報には以下が含まれます。
- Whether the audio is MPEG 1 or MPEG 2. - Whether the audio is layer I, II, or III. (The remainder of this document assumes layer III, i.e., "MP3" frames) - Whether the audio is mono or stereo. - Whether or not there is a 2-byte CRC field following the header. - (indirectly) The size of the frame.
- オーディオがMPEG 1またはMPEG 2であるかどうか - オーディオがレイヤーI、II、またはIIIであるかどうか。(このドキュメントの残りの部分は、レイヤーIII、つまり「MP3」フレームを想定しています) - オーディオがモノであるかステレオかどうか。 - ヘッダーに続いて2バイトのCRCフィールドがあるかどうか。 - (間接的に)フレームのサイズ。
The following structures appear after the header:
次の構造がヘッダーの後に表示されます。
- (optionally) A 2-byte CRC field - A "side info" structure. This has the following length: - 32 bytes for MPEG 1 stereo - 17 bytes for MPEG 1 mono, or for MPEG 2 stereo - 9 bytes for MPEG 2 mono - Encoded audio data, plus optional ancillary data (filling out the rest of the frame)
- (オプション)2バイトCRCフィールド - 「サイド情報」構造。これには次の長さがあります。 -MPEG 1ステレオの32バイト-MPEG 1モノ、またはMPEG 2ステレオの17バイト、MPEG 2モノのエンコードされたオーディオデータとオプションの補助データ(フレームの残りの部分の記入))
For the purpose of this document, the "side info" structure is the most important, because it defines the location and size of the "Application Data Unit" (ADU) that an MP3 decoder will process. In particular, the "side info" structure defines:
このドキュメントの目的のために、「サイド情報」構造が最も重要です。これは、MP3デコーダーが処理する「アプリケーションデータユニット」(ADU)の位置とサイズを定義するためです。特に、「サイド情報」構造が定義します。
- "main_data_begin": This is a back-pointer (in bytes) to the start of the ADU. The back-pointer is counted from the beginning of the frame, and counts only encoded audio data and any ancillary data (i.e., ignoring any header, CRC, or "side info" fields).
- 「main_data_begin」:これは、ADUの開始までのバックポインター(バイト単位)です。バックポインターはフレームの先頭からカウントされ、エンコードされたオーディオデータと補助データのみをカウントします(つまり、ヘッダー、CRC、または「サイド情報」フィールドを無視します)。
An MP3 decoder processes each ADU independently. The ADUs will generally vary in length, but their average length will, of course, be that of the of the MP3 frames (minus the length of the header, CRC, and "side info" fields). (In MPEG literature, this ADU is sometimes referred to as a "bit reservoir".)
MP3デコーダーは、各ADUを個別に処理します。ADUの長さは一般に異なりますが、もちろん、その平均長さはMP3フレームの長さ(ヘッダー、CRC、および「サイド情報」フィールドの長さを差し引いたものです)になります。(MPEG文献では、このADUは「ビット貯水池」と呼ばれることがあります。)
As noted in [5], a payload format should be designed so that packet boundaries coincide with "codec frame boundaries" - i.e., with ADUs. In the RFC 2250 payload format for MPEG audio [2], each RTP packet payload contains MP3 frames. In this new payload format for MP3 audio, however, each RTP packet payload contains "ADU frames", each preceded by an "ADU descriptor".
[5]で述べたように、パケットの境界が「コーデックフレームの境界」、つまりAdusと一致するように、ペイロード形式を設計する必要があります。MPEGオーディオ[2]のRFC 2250ペイロード形式では、各RTPパケットペイロードにMP3フレームが含まれています。ただし、MP3オーディオ用のこの新しいペイロード形式では、各RTPパケットペイロードには「ADUフレーム」が含まれており、それぞれに「ADU記述子」があります。
An "ADU frame" is defined as:
「ADUフレーム」は次のように定義されています。
- The 4-byte MPEG header (the same as the original MP3 frame, except that the first 11 bits are (optionally) replaced by an "Interleaving Sequence Number", as described in section 6 below) - The optional 2-byte CRC field (the same as the original MP3 frame) - The "side info" structure (the same as the original MP3 frame) - The complete sequence of encoded audio data (and any ancillary data) for the ADU (i.e., running from the start of this MP3 frame's "main_data_begin" back-pointer, up to the start of the next MP3 frame's back-pointer)
- 4バイトのMPEGヘッダー(元のMP3フレームと同じですが、以下のセクション6で説明されているように、最初の11ビットが(オプションで)「インターリーブシーケンス番号」に置き換えられることを除きます) - オプションの2バイトCRCフィールド(元のMP3フレームと同じ) - 「サイド情報」構造(元のMP3フレームと同じ) - ADUのエンコードされたオーディオデータ(および任意の補助データ)の完全なシーケンス(つまり、これの開始から実行されていますMp3 Frameの「Main_Data_Begin」バックポインター、次のMP3フレームのバックポインターの開始まで)
Within each RTP packet payload, each "ADU frame" is preceded by a 1 or 2-byte "ADU descriptor", which gives the size of the ADU, and indicates whether or not this packet's data is a continuation of the previous packet's data. (This occurs only when a single "ADU descriptor"+"ADU frame" is too large to fit within a RTP packet.)
各RTPパケットペイロード内で、各「ADUフレーム」の前には、ADUのサイズを与える1または2バイトの「ADU記述子」があり、このパケットのデータが以前のパケットのデータの継続であるかどうかを示します。(これは、単一の「ADU記述子」「ADUフレーム」が大きすぎてRTPパケットに収まる場合にのみ発生します。)
An ADU descriptor consists of the following fields
ADU記述子は、次のフィールドで構成されています
- "C": Continuation flag (1 bit): 1 if the data following the ADU descriptor is a continuation of an ADU frame that was too large to fit within a single RTP packet; 0 otherwise. - "T": Descriptor Type flag (1 bit): 0 if this is a 1-byte ADU descriptor; 1 if this is a 2-byte ADU descriptor. - "ADU size" (6 or 14 bits): The size (in bytes) of the ADU frame that will follow this ADU descriptor (i.e., NOT including the size of the descriptor itself). A 2-byte ADU descriptor (with a 14-bit "ADU size" field) is used for ADU frames sizes of 64 bytes or more. For smaller ADU frame sizes, senders MAY alternatively use a 1-byte ADU descriptor (with a 6-bit "ADU size" field). Receivers MUST be able to accept an ADU descriptor of either size.
- 「C」:継続フラグ(1ビット):1 ADU記述子に続くデータが、単一のRTPパケットに収まるには大きすぎるADUフレームの継続である場合。0それ以外の場合。 - "t":記述子タイプフラグ(1ビット):0これが1バイトのADU記述子の場合。1これが2バイトのADU記述子の場合。 - 「ADUサイズ」(6ビットまたは14ビット):このADU記述子に続くADUフレームのサイズ(バイト単位)(つまり、記述子自体のサイズは含まれません)。2バイトのADU記述子(14ビットの「ADUサイズ」フィールド)は、64バイト以上のADUフレームサイズに使用されます。ADUフレームのサイズが小さい場合、送信者は、1バイトのADU記述子(6ビットの「ADUサイズ」フィールドを使用)を使用する場合があります。受信者は、いずれかのサイズのADU記述子を受け入れることができる必要があります。
Thus, a 1-byte ADU descriptor is formatted as follows:
したがって、1バイトのADU記述子は次のようにフォーマットされます。
0 1 2 3 4 5 6 7 +-+-+-+-+-+-+-+-+ |C|0| ADU size | +-+-+-+-+-+-+-+-+
and a 2-byte ADU descriptor is formatted as follows:
そして、2バイトのADU記述子が次のようにフォーマットされます。
0 1 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+ |C|1| ADU size (14 bits) | +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
Each RTP packet payload begins with a "ADU descriptor", followed by "ADU frame" data. Normally, this "ADU descriptor"+"ADU frame" will fit completely within the RTP packet. In this case, more than one successive "ADU descriptor"+"ADU frame" MAY be packed into a single RTP packet, provided that they all fit completely.
各RTPパケットペイロードは、「ADU記述子」で始まり、「ADUフレーム」データが続きます。通常、この「ADU記述子」「ADUフレーム」は、RTPパケット内に完全に適合します。この場合、それらがすべて完全に適合すると、複数の連続した「ADU記述子」「ADUフレーム」を単一のRTPパケットに詰め込むことができます。
If, however, a single "ADU descriptor"+"ADU frame" is too large to fit within an RTP packet, then the "ADU frame" is split across two or more successive RTP packets. Each such packet begins with an ADU descriptor. The first packet's descriptor has a "C" (continuation) flag of 0; the following packets' descriptors each have a "C" flag of 1. Each descriptor, in this case, has the same "ADU size" value: the size of the entire "ADU frame" (not just the portion that will fit within a single RTP packet). Each such packet (even the last one) contains only one "ADU descriptor".
ただし、単一の「ADU記述子」「ADUフレーム」が大きすぎてRTPパケットに収まることができない場合、「ADUフレーム」は2つ以上の連続したRTPパケットに分割されます。このような各パケットは、ADU記述子から始まります。最初のパケットの記述子には、0の「C」(継続)フラグがあります。次のパケットの記述子にはそれぞれ1の「C」フラグがあります。この場合、各記述子は同じ「ADUサイズ」値です。「ADUフレーム」全体のサイズ(単一のRTPパケット)。このような各パケット(最後のパケットでも)には、1つの「ADU記述子」のみが含まれています。
Payload Type: The (static) payload type 14 that was defined for MPEG audio [6] MUST NOT be used. Instead, a different, dynamic payload type MUST be used - i.e., one in the range [96,127].
ペイロードタイプ:MPEGオーディオ[6]で定義された(静的)ペイロードタイプ14を使用してはなりません。代わりに、異なる動的なペイロードタイプを使用する必要があります。つまり、範囲内のものです[96,127]。
M bit: This payload format defines no use for this bit. Senders SHOULD set this bit to zero in each outgoing packet.
Mビット:このペイロード形式は、このビットに対する使用を定義していません。送信者は、各発信パケットでこのビットをゼロに設定する必要があります。
Timestamp: This is a 32-bit 90 kHz timestamp, representing the presentation time of the first ADU packed within the packet.
タイムスタンプ:これは32ビット90 kHzタイムスタンプで、パケット内に詰め込まれた最初のADUのプレゼンテーション時間を表しています。
Note that no information is lost by converting a sequence of MP3 frames to a corresponding sequence of "ADU frames", so a receiving RTP implementation can either feed the ADU frames directly to an appropriately modified MP3 decoder, or convert them back into a sequence of MP3 frames, as described in appendix A.2 below.
MP3フレームのシーケンスを対応する「ADUフレーム」シーケンスに変換することで情報が失われないため、受信RTP実装はADUフレームを適切に変更されたMP3デコーダーに直接送信するか、それらをシーケンスのシーケンスに変換できることに注意してください。以下の付録A.2に記載されているように、mp3フレーム。
The RTP payload format described here is intended only for MPEG 1 or 2, layer III audio ("MP3"). In contrast, layer I and layer II frames are self-contained, without a back-pointer to earlier frames. However, it is possible (although unusual) for a sequence of audio frames to consist of a mixture of layer III frames and layer I or II frames. When such a sequence is transmitted, only layer III frames are converted to ADUs; layer I or II frames are sent 'as is' (except for the prepending of an "ADU descriptor"). Similarly, the receiver of a sequence of frames - using this payload format - leaves layer I and II frames untouched (after removing the prepended "ADU descriptor), but converts layer III frames from "ADU frames" to regular MP3 frames. (Recall that each frame's layer is identified from its 4-byte MPEG header.)
ここで説明するRTPペイロード形式は、MPEG 1または2のレイヤーIIIオーディオ( "mp3")のみを対象としています。対照的に、レイヤーIとレイヤーIIフレームは、以前のフレームにバックポインターがない自己完結型です。ただし、一連のオーディオフレームがレイヤーIIIフレームとレイヤーIまたはIIフレームの混合物で構成されることが可能です(珍しいものの)可能です。このようなシーケンスが送信されると、レイヤーIIIフレームのみがADUに変換されます。レイヤーIまたはIIフレームは「現状のまま」送信されます(「ADU記述子」の準備を除く)。同様に、フレームのシーケンスの受信機 - このペイロード形式を使用して - レイヤーIとIIフレームは(前提条件の「ADU記述子」を削除した後)に去りますが、レイヤーIIIフレームを「ADUフレーム」から通常のMP3フレームに変換します(各フレームのレイヤーは、4バイトのMPEGヘッダーから識別されます。)
If you are transmitting a stream consists *only* of layer I or layer II frames (i.e., without any MP3 data), then there is no benefit to using this payload format, *unless* you are using the interleaving mechanism.
ストリームを送信している場合、レイヤーIまたはレイヤーIIフレーム(つまり、MP3データなし)の *のみ *のみが構成されている場合、このペイロード形式を使用することに利点はありません。
The transmission of a sequence of MP3 frames takes the following steps:
MP3フレームのシーケンスの送信は、次の手順を実行します。
MP3 frames -1-> ADU frames -2-> interleaved ADU frames -3-> RTP packets
Step 1, the conversion of a sequence of MP3 frames to a corresponding sequence of ADU frames, takes place as described in sections 2 and 3.1 above. (Note also the pseudo-code in appendix A.1.)
ステップ1、MP3フレームのシーケンスのADUフレームの対応するシーケンスへの変換は、上記のセクション2および3.1で説明されているように行われます。(付録A.1の擬似コードにも注意してください。)
Step 2 is the reordering of the sequence of ADU frames in an (optional) interleaving pattern, prior to packetization, as described in section 6 below. (Note also the pseudo-code in appendix B.1.) Interleaving helps reduce the effect of packet loss, by distributing consecutive ADU frames over non-consecutive packets. (Note that because of the back-pointer in MP3 frames, interleaving can be applied - in general - only to ADU frames. Thus, interleaving was not possible for RFC 2250.)
ステップ2は、以下のセクション6で説明されているように、パケット化の前に、(オプションの)インターリーブパターンでのADUフレームのシーケンスを並べ替えることです。(付録B.1の擬似コードにも注意してください。)インターリーブは、非継続的なパケットに連続したADUフレームを配布することにより、パケット損失の影響を減らすのに役立ちます。(MP3フレームのバックポインターのために、インターリーブを適用できることに注意してください - 一般に - ADUフレームにのみ。したがって、RFC 2250ではインターリーブは不可能でした。)
Step 3 is the packetizing of a sequence of (interleaved) ADU frames into RTP packets - as described in section 3.3 above. Each packet's RTP timestamp is the presentation time of the first ADU that is packed within it. Note that, if interleaving was done in step 2, the RTP timestamps on outgoing packets will not necessarily be monotonically nondecreasing.
ステップ3は、上記のセクション3.3で説明されているように、RTPパケットへの(インターリーブ)ADUフレームのシーケンスのパケット化です。各パケットのRTPタイムスタンプは、その中に詰め込まれた最初のADUのプレゼンテーション時間です。ステップ2でインターリービングが行われた場合、発信パケットのRTPタイムスタンプは必ずしも単調に非削除されていないことに注意してください。
Similarly, a sequence of received RTP packets is handled as follows:
同様に、受信したRTPパケットのシーケンスは次のように処理されます。
RTP packets -4-> RTP packets ordered by RTP sequence number -5-> interleaved ADU frames -6-> ADU frames -7-> MP3 frames
Step 4 is the usual sorting of incoming RTP packets using the RTP sequence number.
ステップ4は、RTPシーケンス番号を使用した着信RTPパケットの通常の並べ替えです。
Step 5 is the depacketizing of ADU frames from RTP packets - i.e., the reverse of step 3. As part of this process, a receiver uses the "C" (continuation) flag in the ADU descriptor to notice when an ADU frame is split over more than one packet (and to discard the ADU frame entirely if one of these packets is lost).
ステップ5は、RTPパケットからのADUフレームのデパケットです。つまり、ステップ3の逆です。このプロセスの一部として、受信者はADU記述子の「C」(継続)フラグを使用してADUフレームが分割されたときに気づきます。複数のパケット(およびこれらのパケットのいずれかが失われた場合、ADUフレームを完全に破棄する)。
Step 6 is the rearranging of the sequence of ADU frames back to its original order (except for ADU frames missing due to packet loss), as described in section 6 below. (Note also the pseudo-code in appendix B.2.)
ステップ6は、以下のセクション6で説明されているように、ADUフレームのシーケンスが元の順序に戻る(パケット損失によるADUフレームがないことを除く)再配置です。(付録B.2の擬似コードにも注意してください。)
Step 7 is the conversion of the sequence of ADU frames into a corresponding sequence of MP3 frames - i.e., the reverse of step 1. (Note also the pseudo-code in appendix A.2.) With an appropriately modified MP3 decoder, an implementation may omit this step; instead, it could feed ADU frames directly to the (modified) MP3 decoder.
ステップ7は、ADUフレームのシーケンスがMP3フレームの対応するシーケンスに変換されることです。つまり、ステップ1の逆(付録A.2の擬似コードにも注意してください。)このステップを省略する可能性があります。代わりに、ADUフレームを(変更された)MP3デコーダーに直接送ります。
In MPEG audio frames (MPEG 1 or 2; all layers) the high-order 11 bits of the 4-byte MPEG header ('syncword') are always all-one (i.e., 0xFFE). When reordering a sequence of ADU frames for transmission, we reuse these 11 bits as an "Interleaving Sequence Number" (ISN). (Upon reception, they are replaced with 0xFFE once again.) The structure of the ISN is (a,b), where:
MPEGオーディオフレーム(MPEG 1または2、すべてのレイヤー)では、4バイトMPEGヘッダー(「同期」)の高次11ビットは常にオールオン(つまり、0xffe)です。送信用のADUフレームのシーケンスを並べ替えると、これらの11ビットを「インターリーブシーケンス番号」(ISN)として再利用します。(受信時に、それらは再び0xffeに置き換えられます。)ISNの構造は(a、b)、ここで:
- a == bits 0-7: 8-bit Interleave Index (within Cycle) - b == bits 8-10: 3-bit Interleave Cycle Count
- A ==ビット0-7:8ビットインターリーブインデックス(サイクル内)-B ==ビット8-10:3ビットインターリーブサイクルカウント
I.e., the 4-byte MPEG header is reused as follows:
つまり、4バイトのMPEGヘッダーは次のように再利用されます。
0 1 2 3 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+ |Interleave Idx |CycCt| The rest of the original MPEG header | +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
Example: Consider the following interleave cycle (of size 8): 1,3,5,7,0,2,4,6 (This particular pattern has the property that any loss of up to four consecutive ADUs in the interleaved stream will lead to a deinterleaved stream with no gaps greater than one [7].) This produces the following sequence of ISNs:
例:次のインターリーブサイクル(サイズ8の)を考えてみましょう:1,3,5,7,0,2,4,6(この特定のパターンには、インターリーブストリームで最大4つの連続したADUの損失が導かれるという特性があります。1つ以上のギャップのないdeinterleavedストリームに[7]。)これは、次のISNSシーケンスを生成します。
(1,0) (3,0) (5,0) (7,0) (0,0) (2,0) (4,0) (6,0) (1,1) (3,1) (5,1) etc.
(1,0)(3,0)(5,0)(7,0)(0,0)(2,0)(4,0)(6,0)(1,1)(3,1)(3,1)(5,1)など
So, in this example, a sequence of ADU frames
したがって、この例では、ADUフレームのシーケンス
f0 f1 f2 f3 f4 f5 f6 f7 f8 f9 (etc.)
F0 F1 F2 F3 F4 F5 F6 F7 F8 F9(ETC)
would get reordered, in step 2, into:
ステップ2で、次のように並べ替えます。
(1,0)f1 (3,0)f3 (5,0)f5 (7,0)f7 (0,0)f0 (2,0)f2 (4,0)f4 (6,0)f6 (1,1)f9 (3,1)f11 (5,1)f13 (etc.)
(1,0)f1(3,0)f3(5,0)f5(7,0)f7(0,0)f0(2,0)f2(4,0)f4(6,0)f6(1、1)f9(3,1)f11(5,1)f13(etc.)
and the reverse reordering (along with replacement of the 0xFFE) would occur upon reception.
そして、(0xffeの交換とともに)逆の並べ替えが受信時に発生します。
The reason for breaking the ISN into "Interleave Cycle Count" and "Interleave Index" (rather than just treating it as a single 11-bit counter) is to give receivers a way of knowing when an ADU frame should be 'released' to the ADU->MP3 conversion process (step 7 above), rather than waiting for more interleaved ADU frames to arrive. E.g., in the example above, when the receiver sees a frame with ISN (<something>,1), it knows that it can release all previously-seen frames with ISN (<something>,0), even if some other (<something>,0) frames remain missing due to packet loss. A 8-bit Interleave Index allows interleave cycles of size up to 256.
ISNを「インターリーブサイクルカウント」と「インターリーブインデックス」に分割する理由(単一の11ビットカウンターとして扱うのではなく)は、ADUフレームをいつに「リリース」する必要があるかを受信者に知ることです。ADU-> MP3変換プロセス(上記のステップ7)、より多くのインターリーブADUフレームが到着するのを待つのではなく。たとえば、上記の例では、受信者がISN(<monething>、1)を持つフレームを見ると、たとえ他のいくつか(<)であっても、以前に見られるすべてのフレーム(<monething、0)をリリースできることがわかっています。何か>、0)パケットの損失のためにフレームが欠落したままです。8ビットインターリーブインデックスにより、最大256のサイズのインターリーブサイクルが可能になります。
The choice of an interleaving order can be made independently of RTP packetization. Thus, a simple implementation could choose an interleaving order first, reorder the ADU frames accordingly (step 2), then simply pack them sequentially into RTP packets (step 3). However, the size of ADU frames - and thus the number of ADU frames that will fit in each RTP packet - will typically vary in size, so a more optimal implementation would combine steps 2 and 3, by choosing an interleaving order that better reflected the number of ADU frames packed within each RTP packet.
インターリーブ順序の選択は、RTPパケット化とは独立して行うことができます。したがって、単純な実装では、最初にインターリーブ順序を選択し、ADUフレームをそれに応じて再注文し(ステップ2)、次にそれらをRTPパケットにシーケンシャルにパックすることができます(ステップ3)。ただし、ADUフレームのサイズ - したがって、各RTPパケットに適合するADUフレームの数は通常サイズが異なるため、より最適な実装では、ステップ2と3を組み合わせます。各RTPパケット内に詰め込まれたADUフレームの数。
Each receiving implementation of this payload format MUST recognize the ISN and be able to perform deinterleaving of incoming ADU frames (step 6). However, a sending implementation of this payload format MAY choose not to perform interleaving - i.e., by omitting step 2. In this case, the high-order 11 bits in each 4-byte MPEG header would remain at 0xFFE. Receiving implementations would thus see a sequence of identical ISNs (all 0xFFE). They would handle this in the same way as if the Interleave Cycle Count changed with each ADU frame, by simply releasing the sequence of incoming ADU frames sequentially to the ADU->MP3 conversion process (step 7), without reordering. (Note also the pseudo-code in appendix B.2.)
このペイロード形式の実装を受信するたびに、ISNを認識し、着信ADUフレームの介入を実行できる必要があります(ステップ6)。ただし、このペイロード形式の送信実装では、インターリーブを実行しないことを選択できます。つまり、ステップ2を省略して、この場合、各4バイトMPEGヘッダーの高次11ビットは0xffeのままです。したがって、実装を受信するには、同一のISN(すべて0xffe)のシーケンスが表示されます。彼らは、並べ替えるADUフレームのシーケンスをADU-> MP3変換プロセス(ステップ7)にシーケンシャルに並べ替えることにより、各ADUフレームでインターリーブサイクルカウントが変更されたかのようにこれを処理します(ステップ7)。(付録B.2の擬似コードにも注意してください。)
MIME media type name: audio
MIMEメディアタイプ名:オーディオ
MIME subtype: mpa-robust
MIMEサブタイプ:MPA-ROBUST
Required parameters: none
必要なパラメーター:なし
Optional parameters: none
オプションのパラメーター:なし
Encoding considerations: This type is defined only for transfer via RTP as specified in "RFC 3119".
考慮事項のエンコード:このタイプは、「RFC 3119」で指定されているRTPを介した転送に対してのみ定義されます。
Security considerations: See the "Security Considerations" section of "RFC 3119".
セキュリティ上の考慮事項:「RFC 3119」の「セキュリティ上の考慮事項」セクションを参照してください。
Interoperability considerations: This encoding is incompatible with both the "audio/mpa" and "audio/mpeg" mime types.
相互運用性の考慮事項:このエンコードは、「オーディオ/MPA」と「オーディオ/MPEG」MIMEタイプの両方と互換性がありません。
Published specification: The ISO/IEC MPEG-1 [3] and MPEG-2 [4] audio specifications, and "RFC 3119".
公開された仕様:ISO/IEC MPEG-1 [3]およびMPEG-2 [4]オーディオ仕様、および「RFC 3119」。
Applications which use this media type: Audio streaming tools (transmitting and receiving)
このメディアタイプを使用するアプリケーション:オーディオストリーミングツール(送信および受信)
Additional information: none
追加情報:なし
Person & email address to contact for further information: Ross Finlayson finlayson@live.com
詳細については、人とメールアドレスをお問い合わせください:Ross Finlayson Finlayson@live.com
Intended usage: COMMON
意図された使用法:共通
Author/Change controller: Author: Ross Finlayson Change controller: IETF AVT Working Group
著者/変更コントローラー:著者:Ross Finlayson Change Controller:IETF AVTワーキンググループ
When conveying information by SDP [8], the encoding name SHALL be "mp3" (the same as the MIME subtype). An example of the media representation in SDP is:
SDP [8]で情報を伝える場合、エンコード名は「MP3」(MIMEサブタイプと同じ)でなければなりません。SDPのメディア表現の例は次のとおりです。
m=audio 49000 RTP/AVP 121 a=rtpmap:121 mpa-robust/90000
M =オーディオ49000 RTP/AVP 121 A = RTPMAP:121 MPA-ROBUST/90000
If a session using this payload format is being encrypted, and interleaving is being used, then the sender SHOULD ensure that any change of encryption key coincides with a start of a new interleave cycle. Apart from this, the security considerations for this payload format are identical to those noted for RFC 2250 [2].
このペイロード形式を使用したセッションが暗号化されており、インターリーブが使用されている場合、送信者は暗号化キーの変更が新しいインターリーブサイクルの開始と一致することを確認する必要があります。これとは別に、このペイロード形式のセキュリティ上の考慮事項は、RFC 2250 [2]に記載されているものと同じです。
The suggestion of adding an interleaving option (using the first bits of the MPEG 'syncword' - which would otherwise be all-ones - as an interleaving index) is due to Dave Singer and Stefan Gewinner. In addition, Dave Singer provided valuable feedback that helped clarify and improve the description of this payload format. Feedback from Chris Sloan led to the addition of an "ADU descriptor" preceding each ADU frame in the RTP packet.
インターリービングオプションを追加するという提案(MPEG 'syncword'の最初のビットを使用してください - それ以外の場合は、インターリーブインデックスとしてすべてのものになります)は、Dave SingerとStefan Gewinnerによるものです。さらに、デイブシンガーは、このペイロード形式の説明を明確にし、改善するのに役立つ貴重なフィードバックを提供しました。Chris Sloanからのフィードバックにより、RTPパケットの各ADUフレームに先行する「ADU記述子」が追加されました。
[1] Bradner, S., "Key words for use in RFCs to Indicate Requirement Levels", BCP 14, RFC 2119, March 1997.
[1] Bradner、S。、「要件レベルを示すためにRFCで使用するためのキーワード」、BCP 14、RFC 2119、1997年3月。
[2] Hoffman, D., Fernando, G., Goyal, V. and M. Civanlar, "RTP Payload Format for MPEG1/MPEG2 Video", RFC 2250, January 1998.
[2] Hoffman、D.、Fernando、G.、Goyal、V。、およびM. Civanlar、「MPEG1/MPEG2ビデオのRTPペイロード形式」、RFC 2250、1998年1月。
[3] ISO/IEC International Standard 11172-3; "Coding of moving pictures and associated audio for digital storage media up to about 1,5 Mbits/s - Part 3: Audio", 1993.
[3] ISO/IEC International Standard 11172-3;「最大約1,5 MBITS/sのデジタルストレージメディア用の移動写真と関連するオーディオのコーディング - パート3:オーディオ」、1993。
[4] ISO/IEC International Standard 13818-3; "Generic coding of moving pictures and associated audio information - Part 3: Audio", 1998.
[4] ISO/IEC International Standard 13818-3;「移動する写真と関連するオーディオ情報の一般的なコーディング - パート3:オーディオ」、1998年。
[5] Handley, M., "Guidelines for Writers of RTP Payload Format Specifications", BCP 36, RFC 2736, December 1999.
[5] Handley、M。、「RTPペイロード形式の仕様の作家向けガイドライン」、BCP 36、RFC 2736、1999年12月。
[6] Schulzrinne, H., "RTP Profile for Audio and Video Conferences with Minimal Control", RFC 1890, January 1996.
[6] Schulzrinne、H。、「最小限のコントロールを備えたオーディオおよびビデオ会議のRTPプロファイル」、RFC 1890、1996年1月。
[7] Marshall Eubanks, personal communication, December 2000.
[7] Marshall Eubanks、個人的なコミュニケーション、2000年12月。
[8] Handley, M. and V. Jacobson, "SDP: Session Description Protocol", RFC 2327, April 1998.
[8] Handley、M。and V. Jacobson、「SDP:セッション説明プロトコル」、RFC 2327、1998年4月。
Ross Finlayson, Live Networks, Inc. (LIVE.COM)
Ross Finlayson、Live Networks、Inc。(live.com)
EMail: finlayson@live.com WWW: http://www.live.com/
Appendix A. Translating Between "MP3 Frames" and "ADU Frames"
付録A. 「MP3フレーム」と「ADUフレーム」の間で翻訳する
The following 'pseudo code' describes how a sender using this payload format can translate a sequence of regular "MP3 Frames" to "ADU Frames", and how a receiver can perform the reverse translation: from "ADU Frames" to "MP3 Frames".
次の「擬似コード」は、このペイロード形式を使用して送信者が一連の通常の「MP3フレーム」を「ADUフレーム」に変換する方法と、レシーバーが「ADUフレーム」から「MP3フレーム」までの逆翻訳を実行する方法を説明しています。。
We first define the following abstract data structures:
最初に次の抽象データ構造を定義します。
- "Segment": A record that represents either a "MP3 Frame" or an "ADU Frame". It consists of the following fields: - "header": the 4-byte MPEG header - "headerSize": a constant (== 4) - "sideInfo": the 'side info' structure, *including* the optional 2-byte CRC field, if present - "sideInfoSize": the size (in bytes) of the above structure - "frameData": the remaining data in this frame - "frameDataSize": the size (in bytes) of the above data - "backpointer": the size (in bytes) of the backpointer for this frame - "aduDataSize": the size (in bytes) of the ADU associated with this frame. (If the frame is already an "ADU Frame", then aduDataSize == frameDataSize) - "mp3FrameSize": the total size (in bytes) that this frame would have if it were a regular "MP3 Frame". (If it is already a "MP3 Frame", then mp3FrameSize == headerSize + sideInfoSize + frameDataSize) Note that this size can be derived completely from "header".
- 「セグメント」:「MP3フレーム」または「ADUフレーム」のいずれかを表すレコード。次のフィールドで構成されています: - 「ヘッダー」:4バイトMPEGヘッダー - 「ヘッダーサイズ」:定数(== 4) - 「サイドインフォ」:「サイド情報」構造、 *オプションの2バイトを含む *CRCフィールド、存在する場合 - 「サイドインフォシング」:上記の構造のサイズ(バイト単位) - 「framedata」:このフレームの残りのデータ - 「framedatasize」:上記のデータのサイズ(バックインター) - 「バックポインター」:このフレームのバックポインターのサイズ(バイト単位) - 「Adudatasize」:このフレームに関連付けられたADUのサイズ(バイト単位)。(フレームが既に「ADUフレーム」である場合、Adudatasize == framedAsize) - 「mp3Framesize」:このフレームが通常の「mp3フレーム」である場合に、このフレームが持つ合計サイズ(バイト単位)。(既に「MP3フレーム」である場合、mp3Framesize == headersize sideInfosize framedAsize)に注意してください。このサイズは「ヘッダー」から完全に派生できることに注意してください。
- "SegmentQueue": A FIFO queue of "Segment"s, with operations - void enqueue(Segment) - Segment dequeue() - Boolean isEmpty() - Segment head() - Segment tail() - Segment previous(Segment): returns the segment prior to a given one - Segment next(Segment): returns the segment after a given one - unsigned totalDataSize(): returns the sum of the "frameDataSize" fields of each entry in the queue
A.1 Converting a sequence of "MP3 Frames" to a sequence of "ADU Frames":
A.1「MP3フレーム」のシーケンスを「ADUフレーム」のシーケンスに変換する:
SegmentQueue pendingMP3Frames; // initially empty while (1) { // Enqueue new MP3 Frames, until we have enough data to generate // the ADU for a frame: do { int totalDataSizeBefore = pendingMP3Frames.totalDataSize();
Segment newFrame = 'the next MP3 Frame'; pendingMP3Frames.enqueue(newFrame);
int totalDataSizeAfter = pendingMP3Frames.totalDataSize(); } while (totalDataSizeBefore < newFrame.backpointer || totalDataSizeAfter < newFrame.aduDataSize);
// We now have enough data to generate the ADU for the most // recently enqueued frame (i.e., the tail of the queue). // (The earlier frames in the queue - if any - must be // discarded, as we don't have enough data to generate // their ADUs.) Segment tailFrame = pendingMP3Frames.tail();
// Output the header and side info: output(tailFrame.header); output(tailFrame.sideInfo);
// Go back to the frame that contains the start of our ADU data: int offset = 0; Segment curFrame = tailFrame; int prevBytes = tailFrame.backpointer; while (prevBytes > 0) { curFrame = pendingMP3Frames.previous(curFrame); int dataHere = curFrame.frameDataSize; if (dataHere < prevBytes) { prevBytes -= dataHere; } else { offset = dataHere - prevBytes; break; } }
// Dequeue any frames that we no longer need: while (pendingMP3Frames.head() != curFrame) { pendingMP3Frames.dequeue(); }
// Output, from the remaining frames, the ADU data that we want: int bytesToUse = tailFrame.aduDataSize; while (bytesToUse > 0) { int dataHere = curFrame.frameDataSize - offset; int bytesUsedHere = dataHere < bytesToUse ? dataHere : bytesToUse;
output("bytesUsedHere" bytes from curFrame.frameData, starting from "offset");
output( "bytesusedhere" curframe.framedataからのバイト、「オフセット」から);
bytesToUse -= bytesUsedHere; offset = 0; curFrame = pendingMP3Frames.next(curFrame); } }
A.2 Converting a sequence of "ADU Frames" to a sequence of "MP3 Frames":
A.2「ADUフレーム」のシーケンスを「MP3フレーム」のシーケンスに変換する:
SegmentQueue pendingADUFrames; // initially empty while (1) { while (needToGetAnADU()) { Segment newADU = 'the next ADU Frame'; pendingADUFrames.enqueue(newADU);
insertDummyADUsIfNecessary(); }
insertdummyadusifn decessary();}
generateFrameFromHeadADU(); }
generateframefromheadadu();}
Boolean needToGetAnADU() { // Checks whether we need to enqueue one or more new ADUs before // we have enough data to generate a frame for the head ADU. Boolean needToEnqueue = True;
if (!pendingADUFrames.isEmpty()) { Segment curADU = pendingADUFrames.head(); int endOfHeadFrame = curADU.mp3FrameSize - curADU.headerSize - curADU.sideInfoSize; int frameOffset = 0;
while (1) { int endOfData = frameOffset - curADU.backpointer + curADU.aduDataSize; if (endOfData >= endOfHeadFrame) { // We have enough data to generate a // frame.
needToEnqueue = False; break; }
NeedToEnqueue = false;壊す;}
frameOffset += curADU.mp3FrameSize - curADU.headerSize - curADU.sideInfoSize; if (curADU == pendingADUFrames.tail()) break; curADU = pendingADUFrames.next(curADU); } }
return needToEnqueue; }
NeedToEnqueueを返します。}
void generateFrameFromHeadADU() { Segment curADU = pendingADUFrames.head();
// Output the header and side info: output(curADU.header); output(curADU.sideInfo);
// Begin by zeroing out the rest of the frame, in case the ADU // data doesn't fill it in completely: int endOfHeadFrame = curADU.mp3FrameSize - curADU.headerSize - curADU.sideInfoSize; output("endOfHeadFrame" zero bytes);
// Fill in the frame with appropriate ADU data from this and // subsequent ADUs: int frameOffset = 0; int toOffset = 0;
//これからの適切なADUデータをフレームに記入し、//後続のADU:int frameoffset = 0;int toOffset = 0;
while (toOffset < endOfHeadFrame) { int startOfData = frameOffset - curADU.backpointer; if (startOfData > endOfHeadFrame) { break; // no more ADUs are needed } int endOfData = startOfData + curADU.aduDataSize; if (endOfData > endOfHeadFrame) { endOfData = endOfHeadFrame; }
int fromOffset; if (startOfData <= toOffset) { fromOffset = toOffset - startOfData; startOfData = toOffset; if (endOfData < startOfData) {
endOfData = startOfData; } } else { fromOffset = 0;
// leave some zero bytes beforehand: toOffset = startOfData; }
int bytesUsedHere = endOfData - startOfData; output(starting at offset "toOffset, "bytesUsedHere" bytes from "&curADU.frameData[fromOffset]"); toOffset += bytesUsedHere;
frameOffset += curADU.mp3FrameSize - curADU.headerSize - curADU.sideInfoSize; curADU = pendingADUFrames.next(curADU); }
pendingADUFrames.dequeue(); }
pindeduframes.dequeue();}
void insertDummyADUsIfNecessary() { // The tail segment (ADU) is assumed to have been recently // enqueued. If its backpointer would overlap the data // of the previous ADU, then we need to insert one or more // empty, 'dummy' ADUs ahead of it. (This situation should // occur only if an intermediate ADU was missing - e.g., due // to packet loss.) while (1) { Segment tailADU = pendingADUFrames.tail(); int prevADUend; // relative to the start of the tail ADU
if (pendingADUFrames.head() != tailADU) { // there is a previous ADU Segment prevADU = pendingADUFrames.previous(tailADU); prevADUend = prevADU.mp3FrameSize + prevADU.backpointer - prevADU.headerSize - curADU.sideInfoSize; if (prevADU.aduDataSize > prevADUend) { // this shouldn't happen if the previous // ADU was well-formed prevADUend = 0; } else { prevADUend -= prevADU.aduDataSize;
} } else { prevADUend = 0; }
if (tailADU.backpointer > prevADUend) { // Insert a 'dummy' ADU in front of the tail. // This ADU can have the same "header" (and thus // "mp3FrameSize") as the tail ADU, but should // have an "aduDataSize" of zero. The simplest // way to do this is to copy the "sideInfo" from // the tail ADU, and zero out the // "main_data_begin" and all of the // "part2_3_length" fields. } else { break; // no more dummy ADUs need to be inserted } } }
Appendix B: Interleaving and Deinterleaving
付録B:インターリービングとdeinterleaving
The following 'pseudo code' describes how a sender can reorder a sequence of "ADU Frames" according to an interleaving pattern (step 2), and how a receiver can perform the reverse reordering (step 6).
次の「擬似コード」は、送信者がインターリービングパターン(ステップ2)に従って「ADUフレーム」のシーケンスをどのように並べ替えることができるか、およびレシーバーが逆の並べ替えを実行する方法を説明しています(ステップ6)。
B.1 Interleaving a sequence of "ADU Frames":
B.1「ADUフレーム」のシーケンスをインターリーブする:
We first define the following abstract data structures:
最初に次の抽象データ構造を定義します。
- "interleaveCycleSize": an integer in the range [1,256] - "interleaveCycle": an array, of size "interleaveCycleSize", containing some permutation of the integers from the set [0 .. interleaveCycleSize-1] e.g., if "interleaveCycleSize" == 8, "interleaveCycle" might contain: 1,3,5,7,0,2,4,6 - "inverseInterleaveCycle": an array containing the inverse of the permutation in "interleaveCycle" - i.e., such that interleaveCycle[inverseInterleaveCycle[i]] == i - "ii": the current Interleave Index (initially 0) - "icc": the current Interleave Cycle Count (initially 0) - "aduFrameBuffer": an array, of size "interleaveCycleSize", of ADU Frames that are awaiting packetization
- 「Interleavecyclesize」:範囲の整数[1,256] - 「インターリーブサイクル」:サイズの「インターリーベサイクルズ」の配列[0 .. InterleaveClesize -1]。= 8、「leavecycle」には次のものが含まれる場合があります:1,3,5,7,0,2,4,6-「inverseinterinterleavecycle ":「インターリーベサイクル」の順列の逆を含むアレイ - つまり、インターリーベイク[inverseinterinterleavecycle [i]] == i- "II":現在のインターリーブインデックス(最初は0) - 「ICC」:現在のインターリーブサイクルカウント(最初は0) - 「aduframebuffer」:Adu framesのサイズ「aduframebuffer」パケット化を待っています
while (1) { int positionOfNextFrame = inverseInterleaveCycle[ii]; aduFrameBuffer[positionOfNextFrame] = the next ADU frame; replace the high-order 11 bits of this frame's MPEG header
while(1){int positionofnextframe = inverseinterleavecycle [ii];aduframebuffer [positionofnextframe] =次のADUフレーム。このフレームのMPEGヘッダーの高次11ビットを交換します
with (ii,icc); // Note: Be sure to leave the remaining 21 bits as is if (++ii == interleaveCycleSize) { // We've finished this cycle, so pass all // pending frames to the packetizing step for (int i = 0; i < interleaveCycleSize; ++i) { pass aduFrameBuffer[i] to the packetizing step; }
ii = 0; icc = (icc+1)%8; } }
B.2 Deinterleaving a sequence of (interleaved) "ADU Frames":
b.2 deinterleaving(インターリーブ)「aduフレーム」のシーケンス:
We first define the following abstract data structures:
最初に次の抽象データ構造を定義します。
- "ii": the Interleave Index from the current incoming ADU frame - "icc": the Interleave Cycle Count from the current incoming ADU frame - "iiLastSeen": the most recently seen Interleave Index (initially, some integer *not* in the range [0,255]) - "iccLastSeen": the most recently seen Interleave Cycle Count (initially, some integer *not* in the range [0,7]) - "aduFrameBuffer": an array, of size 32, of (pointers to) ADU Frames that have just been depacketized (initially, all entries are NULL)
- 「II」:現在の着信ADUフレームからのリーブインデックス - 「ICC」:現在の着信ADUフレームからのリーブサイクルカウント - 「IILASTSEEN」:最近見られたインターリーブインデックス(最初は、範囲内の整数 *ではありません *[0,255]) - "icclastseen":最近見られた最近見られたインターリーブサイクルカウント(最初は、範囲の整数 *ではない[0,7]) - "aduframebuffer":of of(pointers to)のサイズ32の配列DepacketizedになったばかりのADUフレーム(最初は、すべてのエントリがnullです)
while (1) { aduFrame = the next ADU frame from the depacketizing step; (ii,icc) = "the high-order 11 bits of aduFrame's MPEG header"; "the high-order 11 bits of aduFrame's MPEG header" = 0xFFE; // Note: Be sure to leave the remaining 21 bits as is
if (icc != iccLastSeen || ii == iiLastSeen) { // We've started a new interleave cycle // (or interleaving was not used). Release all // pending ADU frames to the ADU->MP3 conversion step: for (int i = 0; i < 32; ++i) { if (aduFrameBuffer[i] != NULL) { release aduFrameBuffer[i]; aduFrameBuffer[i] = NULL; } } }
iiLastSeen = ii;
iilastseen = ii;
iccLastSeen = icc; aduFrameBuffer[ii] = aduFrame; } Full Copyright Statement
Copyright (C) The Internet Society (2001). All Rights Reserved.
Copyright(c)The Internet Society(2001)。無断転載を禁じます。
This document and translations of it may be copied and furnished to others, and derivative works that comment on or otherwise explain it or assist in its implementation may be prepared, copied, published and distributed, in whole or in part, without restriction of any kind, provided that the above copyright notice and this paragraph are included on all such copies and derivative works. However, this document itself may not be modified in any way, such as by removing the copyright notice or references to the Internet Society or other Internet organizations, except as needed for the purpose of developing Internet standards in which case the procedures for copyrights defined in the Internet Standards process must be followed, or as required to translate it into languages other than English.
このドキュメントと翻訳は他の人にコピーされて提供される場合があり、それについてコメントまたは説明する派生作品、またはその実装を支援することができます。、上記の著作権通知とこの段落がそのようなすべてのコピーとデリバティブ作品に含まれている場合。ただし、このドキュメント自体は、インターネット協会や他のインターネット組織への著作権通知や参照を削除するなど、いかなる方法でも変更できない場合があります。インターネット標準プロセスに従うか、英語以外の言語に翻訳するために必要な場合に従う必要があります。
The limited permissions granted above are perpetual and will not be revoked by the Internet Society or its successors or assigns.
上記の限られた許可は永続的であり、インターネット社会またはその後継者または譲受人によって取り消されることはありません。
This document and the information contained herein is provided on an "AS IS" basis and THE INTERNET SOCIETY AND THE INTERNET ENGINEERING TASK FORCE DISCLAIMS ALL WARRANTIES, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO ANY WARRANTY THAT THE USE OF THE INFORMATION HEREIN WILL NOT INFRINGE ANY RIGHTS OR ANY IMPLIED WARRANTIES OF MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE.
このドキュメントと本書に含まれる情報は、「現状」に基づいて提供されており、インターネット社会とインターネットエンジニアリングタスクフォースは、ここにある情報の使用が行われないという保証を含むがこれらに限定されないすべての保証を否認します。特定の目的に対する商品性または適合性の権利または黙示的な保証を侵害します。
Acknowledgement
謝辞
Funding for the RFC Editor function is currently provided by the Internet Society.
RFCエディター機能の資金は現在、インターネット協会によって提供されています。